Autor: Eric Johansson, dlnews Compilador: Shan Ouba, Golden Finance
Los estafadores de carnicerías están utilizando nuevas herramientas de inteligencia artificial para engañar a sus víctimas.
Los fiscales advierten sobre el creciente número de nuevos casos en todo el mundo.
*Las estafas de criptomonedas costarán a las víctimas más de $2.5 mil millones en 2022.
En los meses transcurridos desde que OpenAI lanzó ChatGPT y revolucionó el ecosistema de inicio, la tecnología ha sido calificada como una amenaza para el periodismo, la escritura de guiones y la seguridad nacional. Por lo tanto, no sorprende que los estafadores y los ciberdelincuentes exploten modelos de lenguaje grandes para robar criptomonedas a sus víctimas. Aún así, esto le sucedió cuando un chico que usaba Tandem, una aplicación para compartir idiomas que también funciona como una plataforma de citas, estaba teniendo una conversación en línea. Otro hablador rápidamente lo convenció de mover el chat a WhatsApp.
Cualquiera que sea el resultado final previsto, la estafa fue estropeada por un texto extenso que reveló "como un modelo de lenguaje de 'yo', no tengo sentimientos o emociones similares a los humanos", básicamente usando Chatbots avanzados, si no ChatGPT, tienen un sorprendente parecido con él. Sorprendida, la posible víctima se puso en contacto con la empresa de seguridad cibernética Sophos, que confirmó que los temores de que los delincuentes se aprovecharan de la nueva tecnología se habían hecho realidad.
"Ahora podemos decir que, al menos en el caso de las estafas de carnicería, esto está sucediendo", dijo Sean Gallagher, investigador principal de amenazas de Sophos, en un informe que destaca el caso.
La carnicería es una estafa en la que los estafadores intentan atraer a las víctimas para que inviertan en una plataforma de criptomonedas durante un período de tiempo, prometiendo altos rendimientos antes de cobrar, alentando así a las víctimas a comprometer sus fondos, lo que en última instancia les hace sufrir pérdidas y vergüenza. El FBI estima que tales estafas de criptomonedas han costado a las víctimas más de $ 2.5 mil millones para 2022.
Sin embargo, el uso de ChatGPT y herramientas similares permitirán que los delincuentes crezcan "de una manera peor que la que hemos visto en el pasado", dijo la fiscal de California, Erin West. Es famosa por recuperar con éxito millones de criptomonedas robadas. Esta tecnología permitirá a los delincuentes adaptar mejor las conversaciones con las víctimas, superar las barreras del idioma, llegar a más personas y causar más daño. "La adición de ChatGPT hace que esto sea aún más peligroso”, agregó. La advertencia sobria sigue a los informes de ciberdelincuentes que usan herramientas similares para escribir malware rápidamente.
No es una cuestión de si, sino una cuestión de cuándo
Las empresas de seguridad y las fuerzas del orden están inquietas por este desarrollo, pero ninguna de las personas con las que hablamos se sorprendió. "No es una cuestión de si, es una cuestión de cuándo", dijo a DL News Bobby Cornwell, vicepresidente de habilitación e integración de socios estratégicos en la firma de seguridad cibernética SonicWall.
Estas historias se han estado gestando desde que OpenAI lanzó ChatGPT en noviembre pasado. Estos chatbots avanzados están entrenados con grandes cantidades de datos. Aprovechan grandes conjuntos de datos, incluidos libros, códigos, sitios web y artículos, pueden escribir códigos complejos e incluso mantener conversaciones basadas en las indicaciones del usuario. Este es un gran avance para OpenAI. En enero, tenía alrededor de 100 millones de usuarios activos mensuales, lo que la convierte en una de las aplicaciones de más rápido crecimiento en la historia. La gente ha comenzado a usarlo para todo, desde escribir perfiles de citas en línea hasta historias de terror, e incluso generar guiones de video y código de depuración. Los gigantes tecnológicos, incluidos Google y Meta, también están acelerando el desarrollo de sus propias herramientas de inteligencia artificial conversacional, como Bard y LLaMA.
En julio, el CEO de Tesla, Elon Musk, lanzó una nueva empresa llamada x.AI con el objetivo de crear una versión de ChatGPT que esté menos “despierta” que la versión de OpenAI. En la primera mitad de 2023, las empresas de inteligencia artificial recaudaron más de 25 000 millones de dólares de los inversores, según Crunchbase.
El lado oscuro de ChatGPT
En lugar de celebrar la victoria, el CEO de OpenAI, Sam Altman, realizó una gira mundial advirtiendo sobre los peligros de la inteligencia artificial sin restricciones. Ha testificado ante el Congreso de los EE. UU. y dijo a los periodistas que estaba perdiendo el sueño por temor a que OpenAI hubiera desatado su proverbial genio de la IA "para hacer cosas realmente malas". Aún no se sabe si sus comentarios fueron motivados por un miedo genuino o parte de una elaborada estrategia de relaciones públicas.
Cualquiera que sea la motivación detrás de los comentarios de Altman, las multitudes digitales ya están usando ChatGPT o herramientas similares para respaldar sus planes. Los ciberdelincuentes incluso afirman haber creado su propia versión de ChatGPT, inmune a las medidas de seguridad instaladas por OpenAI. Los anunciaron en la web oscura como herramientas para mejorar los ataques de phishing y escribir malware, informó Wired a principios de agosto. La comunidad de delincuentes cibernéticos y actores de amenazas es experta en tecnología y proactiva, y tiende a ser la primera en adoptar las nuevas tendencias tecnológicas a medida que ven los beneficios y las mejoras en la forma en que evolucionan sus herramientas, técnicas y prácticas.
Por lo tanto, no sorprende que los actores de amenazas estén adoptando IA generativa, ya que pueden obtener las mismas ganancias de productividad y mejorar potencialmente su capacidad para ocultarse, realizar reconocimientos, crear códigos maliciosos, engañar a las personas y al software de seguridad, y más. Estos desarrollos tienen expertos en seguridad cibernética y agencias de aplicación de la ley luchando para responder a la amenaza.
Las empresas de ciberseguridad deben "construir más inteligencia en nuestros sistemas para buscar contenido generado por IA", dijo Cornwell, y agregó que desarrollar tales contramedidas llevará tiempo. , y aunque ella y otras fuerzas del orden pueden advertir sobre estas amenazas, los grupos criminales detrás de la ola de asesinatos serán difíciles de acabar incluso antes de utilizar la inteligencia artificial.
Según el grupo global antifraude, muchas redes criminales operan desde lugares como Camboya, Laos y Myanmar. Sus crímenes han recaudado miles de millones de dólares, lo que les permite pagar a las autoridades locales y evitar sanciones internacionales. Es muy difícil luchar contra un grupo criminal tan grande y rico.
OpenAI no respondió a nuestra solicitud de comentarios.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Cómo los estafadores de criptomonedas están adoptando la nueva tecnología de IA
Autor: Eric Johansson, dlnews Compilador: Shan Ouba, Golden Finance
En los meses transcurridos desde que OpenAI lanzó ChatGPT y revolucionó el ecosistema de inicio, la tecnología ha sido calificada como una amenaza para el periodismo, la escritura de guiones y la seguridad nacional. Por lo tanto, no sorprende que los estafadores y los ciberdelincuentes exploten modelos de lenguaje grandes para robar criptomonedas a sus víctimas. Aún así, esto le sucedió cuando un chico que usaba Tandem, una aplicación para compartir idiomas que también funciona como una plataforma de citas, estaba teniendo una conversación en línea. Otro hablador rápidamente lo convenció de mover el chat a WhatsApp.
Cualquiera que sea el resultado final previsto, la estafa fue estropeada por un texto extenso que reveló "como un modelo de lenguaje de 'yo', no tengo sentimientos o emociones similares a los humanos", básicamente usando Chatbots avanzados, si no ChatGPT, tienen un sorprendente parecido con él. Sorprendida, la posible víctima se puso en contacto con la empresa de seguridad cibernética Sophos, que confirmó que los temores de que los delincuentes se aprovecharan de la nueva tecnología se habían hecho realidad.
"Ahora podemos decir que, al menos en el caso de las estafas de carnicería, esto está sucediendo", dijo Sean Gallagher, investigador principal de amenazas de Sophos, en un informe que destaca el caso.
La carnicería es una estafa en la que los estafadores intentan atraer a las víctimas para que inviertan en una plataforma de criptomonedas durante un período de tiempo, prometiendo altos rendimientos antes de cobrar, alentando así a las víctimas a comprometer sus fondos, lo que en última instancia les hace sufrir pérdidas y vergüenza. El FBI estima que tales estafas de criptomonedas han costado a las víctimas más de $ 2.5 mil millones para 2022.
Sin embargo, el uso de ChatGPT y herramientas similares permitirán que los delincuentes crezcan "de una manera peor que la que hemos visto en el pasado", dijo la fiscal de California, Erin West. Es famosa por recuperar con éxito millones de criptomonedas robadas. Esta tecnología permitirá a los delincuentes adaptar mejor las conversaciones con las víctimas, superar las barreras del idioma, llegar a más personas y causar más daño. "La adición de ChatGPT hace que esto sea aún más peligroso”, agregó. La advertencia sobria sigue a los informes de ciberdelincuentes que usan herramientas similares para escribir malware rápidamente.
No es una cuestión de si, sino una cuestión de cuándo
Las empresas de seguridad y las fuerzas del orden están inquietas por este desarrollo, pero ninguna de las personas con las que hablamos se sorprendió. "No es una cuestión de si, es una cuestión de cuándo", dijo a DL News Bobby Cornwell, vicepresidente de habilitación e integración de socios estratégicos en la firma de seguridad cibernética SonicWall.
Estas historias se han estado gestando desde que OpenAI lanzó ChatGPT en noviembre pasado. Estos chatbots avanzados están entrenados con grandes cantidades de datos. Aprovechan grandes conjuntos de datos, incluidos libros, códigos, sitios web y artículos, pueden escribir códigos complejos e incluso mantener conversaciones basadas en las indicaciones del usuario. Este es un gran avance para OpenAI. En enero, tenía alrededor de 100 millones de usuarios activos mensuales, lo que la convierte en una de las aplicaciones de más rápido crecimiento en la historia. La gente ha comenzado a usarlo para todo, desde escribir perfiles de citas en línea hasta historias de terror, e incluso generar guiones de video y código de depuración. Los gigantes tecnológicos, incluidos Google y Meta, también están acelerando el desarrollo de sus propias herramientas de inteligencia artificial conversacional, como Bard y LLaMA.
En julio, el CEO de Tesla, Elon Musk, lanzó una nueva empresa llamada x.AI con el objetivo de crear una versión de ChatGPT que esté menos “despierta” que la versión de OpenAI. En la primera mitad de 2023, las empresas de inteligencia artificial recaudaron más de 25 000 millones de dólares de los inversores, según Crunchbase.
El lado oscuro de ChatGPT
En lugar de celebrar la victoria, el CEO de OpenAI, Sam Altman, realizó una gira mundial advirtiendo sobre los peligros de la inteligencia artificial sin restricciones. Ha testificado ante el Congreso de los EE. UU. y dijo a los periodistas que estaba perdiendo el sueño por temor a que OpenAI hubiera desatado su proverbial genio de la IA "para hacer cosas realmente malas". Aún no se sabe si sus comentarios fueron motivados por un miedo genuino o parte de una elaborada estrategia de relaciones públicas.
Cualquiera que sea la motivación detrás de los comentarios de Altman, las multitudes digitales ya están usando ChatGPT o herramientas similares para respaldar sus planes. Los ciberdelincuentes incluso afirman haber creado su propia versión de ChatGPT, inmune a las medidas de seguridad instaladas por OpenAI. Los anunciaron en la web oscura como herramientas para mejorar los ataques de phishing y escribir malware, informó Wired a principios de agosto. La comunidad de delincuentes cibernéticos y actores de amenazas es experta en tecnología y proactiva, y tiende a ser la primera en adoptar las nuevas tendencias tecnológicas a medida que ven los beneficios y las mejoras en la forma en que evolucionan sus herramientas, técnicas y prácticas.
Por lo tanto, no sorprende que los actores de amenazas estén adoptando IA generativa, ya que pueden obtener las mismas ganancias de productividad y mejorar potencialmente su capacidad para ocultarse, realizar reconocimientos, crear códigos maliciosos, engañar a las personas y al software de seguridad, y más. Estos desarrollos tienen expertos en seguridad cibernética y agencias de aplicación de la ley luchando para responder a la amenaza.
Las empresas de ciberseguridad deben "construir más inteligencia en nuestros sistemas para buscar contenido generado por IA", dijo Cornwell, y agregó que desarrollar tales contramedidas llevará tiempo. , y aunque ella y otras fuerzas del orden pueden advertir sobre estas amenazas, los grupos criminales detrás de la ola de asesinatos serán difíciles de acabar incluso antes de utilizar la inteligencia artificial.
Según el grupo global antifraude, muchas redes criminales operan desde lugares como Camboya, Laos y Myanmar. Sus crímenes han recaudado miles de millones de dólares, lo que les permite pagar a las autoridades locales y evitar sanciones internacionales. Es muy difícil luchar contra un grupo criminal tan grande y rico.
OpenAI no respondió a nuestra solicitud de comentarios.