Avances en la tecnología de inteligencia artificial y desafíos de seguridad
Recientemente, un sistema de inteligencia artificial llamado Manus ha logrado resultados innovadores en las pruebas de referencia de GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño de nivel similar. Manus ha demostrado la capacidad de completar tareas complejas de manera independiente, como llevar a cabo negociaciones comerciales internacionales, lo que implica el análisis de los términos del contrato, la formulación de estrategias y la generación de soluciones en múltiples etapas. En comparación con los sistemas tradicionales, la ventaja de Manus radica en su capacidad de descomposición dinámica de objetivos, su capacidad de razonamiento multimodal y su capacidad de aprendizaje mejorado por memoria. Puede descomponer grandes tareas en cientos de subtareas ejecutables, manejar varios tipos de datos y mejorar continuamente su eficiencia de decisión y reducir la tasa de errores a través del aprendizaje por refuerzo.
Los avances revolucionarios de Manus han vuelto a suscitar el debate en el campo de la inteligencia artificial sobre la trayectoria futura: ¿se desarrollará hacia la inteligencia artificial general (AGI) o se dominará por sistemas multiagente (MAS) en colaboración? Detrás de esta pregunta, en realidad, se refleja una contradicción central en el desarrollo de la inteligencia artificial: ¿cómo lograr un equilibrio entre eficiencia y seguridad?
A medida que los sistemas de inteligencia artificial individuales se acercan cada vez más a la AGI, también aumenta el riesgo de falta de transparencia en sus procesos de toma de decisiones. Aunque la colaboración entre múltiples agentes puede diversificar el riesgo, puede perder oportunidades clave de decisión debido a retrasos en la comunicación. La evolución de Manus amplifica involuntariamente los riesgos inherentes al desarrollo de la inteligencia artificial, incluidos problemas como la filtración de datos privados, el sesgo algorítmico y los ataques adversarios.
En el ámbito médico, Manus necesita acceder en tiempo real a los datos sensibles de los pacientes; en negociaciones financieras, puede tener acceso a información no pública de las empresas. En el proceso de contratación, Manus podría dar recomendaciones salariales injustas para ciertos grupos; en la revisión de contratos legales, la tasa de error en la interpretación de cláusulas de industrias emergentes podría acercarse a la mitad. Además, los hackers podrían interferir en el juicio de Manus durante las negociaciones al implantar frecuencias de voz específicas.
Estos problemas destacan una tendencia preocupante: cuanto más avanzados son los sistemas inteligentes, mayor es su superficie de ataque potencial.
Para hacer frente a estos desafíos, la industria está explorando diversas tecnologías de criptografía y modelos de seguridad:
Modelo de seguridad de confianza cero: enfatiza la autenticación y autorización estrictas de cada solicitud de acceso, sin confiar por defecto en ningún dispositivo o usuario.
Identidad descentralizada (DID): un nuevo estándar de identidad digital descentralizada que no requiere depender de sistemas de registro centralizados.
Criptografía completamente homomórfica (FHE): permite realizar cálculos sobre datos en estado cifrado, protegiendo la privacidad de los datos mientras se logra su utilización.
La criptografía totalmente homomórfica, como una tecnología de cifrado emergente, se espera que se convierta en una herramienta clave para resolver los problemas de seguridad en la era de la inteligencia artificial. Puede proteger toda la información ingresada por el usuario a nivel de datos, incluyendo características biométricas y tonos de voz, incluso el propio sistema de IA no puede descifrar los datos originales. A nivel algorítmico, la FHE puede lograr "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no puedan observar directamente el proceso de decisión de la IA. En términos de colaboración entre múltiples agentes, el uso de cifrado umbral puede garantizar que incluso si un solo nodo es comprometido, no se produzca una filtración de datos global.
A medida que la tecnología de inteligencia artificial se acerca cada vez más a la inteligencia humana, se vuelve cada vez más importante establecer un sistema de defensa no humano. La encriptación completamente homomórfica no solo puede resolver los problemas de seguridad actuales, sino que también sienta las bases para la futura era de la inteligencia artificial fuerte. En el camino hacia la AGI, la FHE ya no es una opción, sino un medio necesario para asegurar que los sistemas de inteligencia artificial sean seguros y controlables.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
8 me gusta
Recompensa
8
2
Compartir
Comentar
0/400
¯\_(ツ)_/¯
· 07-11 09:34
¿Quién va a seguir seguir la seguridad de la IA? ¿Aún negociaciones multilaterales?
Ruptura y preocupaciones: El potencial de la IA y el juego de la seguridad. La encriptación completamente homomórfica podría ser clave.
Avances en la tecnología de inteligencia artificial y desafíos de seguridad
Recientemente, un sistema de inteligencia artificial llamado Manus ha logrado resultados innovadores en las pruebas de referencia de GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño de nivel similar. Manus ha demostrado la capacidad de completar tareas complejas de manera independiente, como llevar a cabo negociaciones comerciales internacionales, lo que implica el análisis de los términos del contrato, la formulación de estrategias y la generación de soluciones en múltiples etapas. En comparación con los sistemas tradicionales, la ventaja de Manus radica en su capacidad de descomposición dinámica de objetivos, su capacidad de razonamiento multimodal y su capacidad de aprendizaje mejorado por memoria. Puede descomponer grandes tareas en cientos de subtareas ejecutables, manejar varios tipos de datos y mejorar continuamente su eficiencia de decisión y reducir la tasa de errores a través del aprendizaje por refuerzo.
Los avances revolucionarios de Manus han vuelto a suscitar el debate en el campo de la inteligencia artificial sobre la trayectoria futura: ¿se desarrollará hacia la inteligencia artificial general (AGI) o se dominará por sistemas multiagente (MAS) en colaboración? Detrás de esta pregunta, en realidad, se refleja una contradicción central en el desarrollo de la inteligencia artificial: ¿cómo lograr un equilibrio entre eficiencia y seguridad?
A medida que los sistemas de inteligencia artificial individuales se acercan cada vez más a la AGI, también aumenta el riesgo de falta de transparencia en sus procesos de toma de decisiones. Aunque la colaboración entre múltiples agentes puede diversificar el riesgo, puede perder oportunidades clave de decisión debido a retrasos en la comunicación. La evolución de Manus amplifica involuntariamente los riesgos inherentes al desarrollo de la inteligencia artificial, incluidos problemas como la filtración de datos privados, el sesgo algorítmico y los ataques adversarios.
En el ámbito médico, Manus necesita acceder en tiempo real a los datos sensibles de los pacientes; en negociaciones financieras, puede tener acceso a información no pública de las empresas. En el proceso de contratación, Manus podría dar recomendaciones salariales injustas para ciertos grupos; en la revisión de contratos legales, la tasa de error en la interpretación de cláusulas de industrias emergentes podría acercarse a la mitad. Además, los hackers podrían interferir en el juicio de Manus durante las negociaciones al implantar frecuencias de voz específicas.
Estos problemas destacan una tendencia preocupante: cuanto más avanzados son los sistemas inteligentes, mayor es su superficie de ataque potencial.
Para hacer frente a estos desafíos, la industria está explorando diversas tecnologías de criptografía y modelos de seguridad:
Modelo de seguridad de confianza cero: enfatiza la autenticación y autorización estrictas de cada solicitud de acceso, sin confiar por defecto en ningún dispositivo o usuario.
Identidad descentralizada (DID): un nuevo estándar de identidad digital descentralizada que no requiere depender de sistemas de registro centralizados.
Criptografía completamente homomórfica (FHE): permite realizar cálculos sobre datos en estado cifrado, protegiendo la privacidad de los datos mientras se logra su utilización.
La criptografía totalmente homomórfica, como una tecnología de cifrado emergente, se espera que se convierta en una herramienta clave para resolver los problemas de seguridad en la era de la inteligencia artificial. Puede proteger toda la información ingresada por el usuario a nivel de datos, incluyendo características biométricas y tonos de voz, incluso el propio sistema de IA no puede descifrar los datos originales. A nivel algorítmico, la FHE puede lograr "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no puedan observar directamente el proceso de decisión de la IA. En términos de colaboración entre múltiples agentes, el uso de cifrado umbral puede garantizar que incluso si un solo nodo es comprometido, no se produzca una filtración de datos global.
A medida que la tecnología de inteligencia artificial se acerca cada vez más a la inteligencia humana, se vuelve cada vez más importante establecer un sistema de defensa no humano. La encriptación completamente homomórfica no solo puede resolver los problemas de seguridad actuales, sino que también sienta las bases para la futura era de la inteligencia artificial fuerte. En el camino hacia la AGI, la FHE ya no es una opción, sino un medio necesario para asegurar que los sistemas de inteligencia artificial sean seguros y controlables.