Cuidado con los usuarios de portátiles. El sonido de las pulsaciones de teclas también podría convertirse en un "código Morse" para que la inteligencia artificial descifre información personal, sugiere un nuevo estudio.
Un artículo reciente presentado en el Simposio europeo sobre seguridad y privacidad del IEEE de 2023 descubrió que la inteligencia artificial puede reconocer las pulsaciones de teclas con un 95 % de precisión solo con el sonido. Los usuarios pueden filtrar su información privada, contraseñas y números de tarjetas de crédito debido al sonido de las teclas.
Los experimentadores señalaron que la tasa de éxito en la identificación correcta de las teclas de la MacBook Pro fue del 95 % cuando escucharon los sonidos de las teclas a través del teléfono y del 93 % a través de la grabación de video de Zoom. Esto significa que las personas interesadas pueden obtener fácilmente la información que necesitan a través de llamadas telefónicas y videos.
El documento de investigación detalla los llamados "ataques acústicos de canal lateral", en los que un tercero malicioso utiliza un dispositivo auxiliar, como un teléfono junto a una computadora portátil o un micrófono no silenciado en un software como Zoom, para grabar el sonido de la escritura. , que luego es descifrado por inteligencia artificial.Información de audio de entrada.
Con los desarrollos recientes en micrófonos y modelos de aprendizaje profundo, la viabilidad de atacar acústicamente los teclados está comenzando a surgir, según el documento.
La computadora portátil es el mejor objetivo
Los usuarios de computadoras siempre han amado las computadoras portátiles debido a su portabilidad, y también han desempeñado el papel de oficina auxiliar en lugares públicos. Pero cuando las personas lo llevan a bibliotecas, cafeterías, etc., es posible que no hayan pensado que esto se convertirá en el mayor riesgo de filtración de privacidad personal.
El documento señala que el sonido de escribir en público se graba fácilmente y que las personas generalmente no son conscientes de tales ataques, por lo que no hay forma de prevenirlos.
Las personas subconscientemente prestan atención a las personas que las rodean cuando escriben una contraseña o cubren su pantalla, pero nadie se da cuenta del sonido de la pulsación de teclas en sí, lo que significa que es fácil para terceros acceder a cosas que las personas desean desesperadamente. mantener privado.
Por lo tanto, los investigadores recomiendan que las personas establezcan contraseñas más complejas, como agregar caracteres especiales, letras mayúsculas y minúsculas o números. Las contraseñas que usan palabras completas son más fáciles de deducir.
Otra defensa es usar la autenticación de dos factores, como agregar verificación por correo electrónico o teléfono, para confirmar la actividad de la cuenta desde otros dispositivos. Además, esta técnica se puede aplicar a prácticamente cualquier teclado, así que tenga cuidado con dispositivos que no sean portátiles.
El coautor del estudio, el Dr. Ehsan Toreini de la Universidad de Surrey, dijo que la precisión de tales modelos, así como de tales ataques, está aumentando. A medida que los dispositivos inteligentes con micrófonos se vuelven más comunes en los hogares, esto subraya la necesidad de un debate público sobre la gobernanza de la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Tenga cuidado de que su teclado pierda privacidad! Un estudio dice que la precisión del reconocimiento auditivo de la IA llega al 95 %
Fuente: Associated Press financiera
Autor: Malan
Cuidado con los usuarios de portátiles. El sonido de las pulsaciones de teclas también podría convertirse en un "código Morse" para que la inteligencia artificial descifre información personal, sugiere un nuevo estudio.
Un artículo reciente presentado en el Simposio europeo sobre seguridad y privacidad del IEEE de 2023 descubrió que la inteligencia artificial puede reconocer las pulsaciones de teclas con un 95 % de precisión solo con el sonido. Los usuarios pueden filtrar su información privada, contraseñas y números de tarjetas de crédito debido al sonido de las teclas.
Los experimentadores señalaron que la tasa de éxito en la identificación correcta de las teclas de la MacBook Pro fue del 95 % cuando escucharon los sonidos de las teclas a través del teléfono y del 93 % a través de la grabación de video de Zoom. Esto significa que las personas interesadas pueden obtener fácilmente la información que necesitan a través de llamadas telefónicas y videos.
El documento de investigación detalla los llamados "ataques acústicos de canal lateral", en los que un tercero malicioso utiliza un dispositivo auxiliar, como un teléfono junto a una computadora portátil o un micrófono no silenciado en un software como Zoom, para grabar el sonido de la escritura. , que luego es descifrado por inteligencia artificial.Información de audio de entrada.
Con los desarrollos recientes en micrófonos y modelos de aprendizaje profundo, la viabilidad de atacar acústicamente los teclados está comenzando a surgir, según el documento.
La computadora portátil es el mejor objetivo
Los usuarios de computadoras siempre han amado las computadoras portátiles debido a su portabilidad, y también han desempeñado el papel de oficina auxiliar en lugares públicos. Pero cuando las personas lo llevan a bibliotecas, cafeterías, etc., es posible que no hayan pensado que esto se convertirá en el mayor riesgo de filtración de privacidad personal.
El documento señala que el sonido de escribir en público se graba fácilmente y que las personas generalmente no son conscientes de tales ataques, por lo que no hay forma de prevenirlos.
Las personas subconscientemente prestan atención a las personas que las rodean cuando escriben una contraseña o cubren su pantalla, pero nadie se da cuenta del sonido de la pulsación de teclas en sí, lo que significa que es fácil para terceros acceder a cosas que las personas desean desesperadamente. mantener privado.
Por lo tanto, los investigadores recomiendan que las personas establezcan contraseñas más complejas, como agregar caracteres especiales, letras mayúsculas y minúsculas o números. Las contraseñas que usan palabras completas son más fáciles de deducir.
Otra defensa es usar la autenticación de dos factores, como agregar verificación por correo electrónico o teléfono, para confirmar la actividad de la cuenta desde otros dispositivos. Además, esta técnica se puede aplicar a prácticamente cualquier teclado, así que tenga cuidado con dispositivos que no sean portátiles.
El coautor del estudio, el Dr. Ehsan Toreini de la Universidad de Surrey, dijo que la precisión de tales modelos, así como de tales ataques, está aumentando. A medida que los dispositivos inteligentes con micrófonos se vuelven más comunes en los hogares, esto subraya la necesidad de un debate público sobre la gobernanza de la IA.