Автор: Eric Johansson, dnews Упорядник: Shan Ouba, Golden Finance
Шахраї, які займаються бійнею, використовують нові інструменти штучного інтелекту, щоб обдурити своїх жертв.
Прокуратура попереджає про зростання кількості нових справ у всьому світі.
*У 2022 році жертви шахрайства з криптовалютою обійдуться у понад 2,5 мільярда доларів.
За кілька місяців після того, як OpenAI запустив ChatGPT і перевернув екосистему стартапів, цю технологію назвали загрозою для журналістики, сценаристів і національної безпеки. Тому не дивно, що шахраї та кіберзлочинці використовують великі мовні моделі, щоб викрасти криптовалюту у своїх жертв. І все-таки це сталося з ним, коли хлопець, який користувався Tandem, програмою для обміну мовами, яка одночасно є платформою для знайомств, вів онлайн-розмову. Інший співрозмовник швидко переконав його перенести чат у WhatsApp.
Яким би не був запланований кінцевий результат, аферу було зіпсовано довгим текстом, який показав, що «як мовна модель «мене» я не маю людських почуттів чи емоцій», в основному використовуючи передові чат-боти, якщо не ChatGPT, разюча схожість з ним. Шокована потенційна жертва зв’язалася з компанією з кібербезпеки Sophos, яка підтвердила, що побоювання злочинців, які скористаються новою технологією, стали реальністю.
«Тепер ми можемо сказати, що, принаймні у випадку шахрайства з бійнею, це дійсно відбувається», — сказав Шон Галлахер, головний дослідник загроз у Sophos, у звіті, який висвітлює цей випадок.
Розправа — це шахрайство, у якому шахраї намагаються спонукати жертв інвестувати в криптовалютну платформу протягом певного періоду часу, обіцяючи високі прибутки перед переведенням у готівку, таким чином заохочуючи жертв вкладати свої кошти, що зрештою призводить до збитків і сорому. За оцінками ФБР, до 2022 року такі криптовалютні шахрайства коштували жертвам понад 2,5 мільярда доларів.
Однак використання ChatGPT і подібних інструментів дозволить злочинцям розширюватися «у гірший спосіб, ніж ми бачили в минулому», сказала прокурор Каліфорнії Ерін Вест. Вона відома тим, що успішно повернула мільйони вкрадених криптовалют. Ця технологія дозволить злочинцям краще адаптувати розмови з жертвами, долати мовні бар’єри, охоплювати більше людей і завдавати більше шкоди. «Додавання ChatGPT робить це ще більш небезпечним», — додала вона.Твере попередження надійшло після повідомлень про використання кіберзлочинцями подібних інструментів для швидкого створення шкідливих програм.
Питання не в тому, чи, а в тому, коли
Охоронні фірми та правоохоронні органи стурбовані таким розвитком подій, але нікого з людей, з якими ми спілкувалися, це не здивувало. «Питання не в тому, якщо, а в тому, коли», — сказав DL News Боббі Корнуелл, віце-президент із залучення стратегічних партнерів та інтеграції фірми з кібербезпеки SonicWall.
Ці історії з’явилися з моменту запуску OpenAI ChatGPT у листопаді минулого року. Ці просунуті чат-боти навчаються з величезними обсягами даних. Вони використовують великі набори даних, включаючи книги, коди, веб-сайти та статті, можуть писати складні коди та навіть вести розмови на основі підказок користувача. Це прорив для OpenAI. Станом на січень у нього було близько 100 мільйонів активних користувачів щомісяця, що робить його одним із найшвидше зростаючих додатків в історії. Люди почали використовувати його для чого завгодно: від написання профілів онлайн-знайомств до жахливих історій і навіть для створення сценаріїв відео та коду налагодження. Технологічні гіганти, включаючи Google і Meta, також прискорюють розробку власних розмовних інструментів AI, таких як Bard і LLaMA.
У липні генеральний директор Tesla Ілон Маск запустив нову компанію під назвою x.AI з метою створення версії ChatGPT, яка буде менш «активною», ніж версія OpenAI. За даними Crunchbase, у першій половині 2023 року компанії зі штучним інтелектом залучили понад 25 мільярдів доларів від інвесторів.
Темна сторона ChatGPT
Замість того, щоб святкувати перемогу, генеральний директор OpenAI Сем Альтман вирушив у світове турне, попереджаючи про небезпеку необмеженого штучного інтелекту. Він дав свідчення в Конгресі США і сказав журналістам, що втрачає сон через занепокоєння, що OpenAI випустив свого славнозвісного джина штучного інтелекту, щоб «робити справді погані речі». Чи були його зауваження мотивовані справжнім страхом чи частиною ретельно розробленої піар-стратегії, залишається незрозумілим.
Якою б не була мотивація зауважень Альтмана, цифрові моби вже використовують ChatGPT або подібні інструменти для підтримки своїх планів. Кіберзлочинці навіть стверджують, що створили власну версію ChatGPT, захищену від заходів безпеки, встановлених OpenAI. Вони рекламували їх у дарк-мережі як інструменти для посилення фішингових атак і створення шкідливих програм, повідомляв Wired на початку серпня. Спільнота кіберзлочинців і учасників загроз є технічно підкованою та проактивною, і, як правило, рано впроваджує нові технологічні тенденції, оскільки бачить переваги та вдосконалення в тому, як розвиваються їхні інструменти, методи та практики.
Тому не дивно, що зловмисники використовують генеративний штучний інтелект, оскільки вони можуть отримати такий самий приріст продуктивності та потенційно покращити свою здатність ховатися, проводити розвідку, створювати шкідливий код, обманювати людей та програмне забезпечення безпеки тощо. Ці події змушують експертів з кібербезпеки та правоохоронні органи з усіх сил реагувати на загрозу.
Фірми з кібербезпеки повинні «вбудувати більше інтелекту в наші системи для пошуку контенту, створеного штучним інтелектом», — сказав Корнуелл, додавши, що розробка таких контрзаходів займе час. , і хоча вона та інші правоохоронні органи можуть попередити про ці загрози, злочинні групи, які стоять за серією вбивств, буде важко знищити навіть до того, як буде використано штучний інтелект.
За даними глобальної групи по боротьбі з шахрайством, багато злочинних мереж діють із таких місць, як Камбоджа, Лаос і М’янма. Їхні злочини зібрали мільярди доларів, що дозволило їм платити місцевим правоохоронним органам і уникнути міжнародних санкцій. Боротися з таким великим і багатим злочинним угрупуванням дуже важко.
OpenAI не відповів на наш запит про коментар.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Як криптовалютні шахраї впроваджують нову технологію ШІ
Автор: Eric Johansson, dnews Упорядник: Shan Ouba, Golden Finance
За кілька місяців після того, як OpenAI запустив ChatGPT і перевернув екосистему стартапів, цю технологію назвали загрозою для журналістики, сценаристів і національної безпеки. Тому не дивно, що шахраї та кіберзлочинці використовують великі мовні моделі, щоб викрасти криптовалюту у своїх жертв. І все-таки це сталося з ним, коли хлопець, який користувався Tandem, програмою для обміну мовами, яка одночасно є платформою для знайомств, вів онлайн-розмову. Інший співрозмовник швидко переконав його перенести чат у WhatsApp.
Яким би не був запланований кінцевий результат, аферу було зіпсовано довгим текстом, який показав, що «як мовна модель «мене» я не маю людських почуттів чи емоцій», в основному використовуючи передові чат-боти, якщо не ChatGPT, разюча схожість з ним. Шокована потенційна жертва зв’язалася з компанією з кібербезпеки Sophos, яка підтвердила, що побоювання злочинців, які скористаються новою технологією, стали реальністю.
«Тепер ми можемо сказати, що, принаймні у випадку шахрайства з бійнею, це дійсно відбувається», — сказав Шон Галлахер, головний дослідник загроз у Sophos, у звіті, який висвітлює цей випадок.
Розправа — це шахрайство, у якому шахраї намагаються спонукати жертв інвестувати в криптовалютну платформу протягом певного періоду часу, обіцяючи високі прибутки перед переведенням у готівку, таким чином заохочуючи жертв вкладати свої кошти, що зрештою призводить до збитків і сорому. За оцінками ФБР, до 2022 року такі криптовалютні шахрайства коштували жертвам понад 2,5 мільярда доларів.
Однак використання ChatGPT і подібних інструментів дозволить злочинцям розширюватися «у гірший спосіб, ніж ми бачили в минулому», сказала прокурор Каліфорнії Ерін Вест. Вона відома тим, що успішно повернула мільйони вкрадених криптовалют. Ця технологія дозволить злочинцям краще адаптувати розмови з жертвами, долати мовні бар’єри, охоплювати більше людей і завдавати більше шкоди. «Додавання ChatGPT робить це ще більш небезпечним», — додала вона.Твере попередження надійшло після повідомлень про використання кіберзлочинцями подібних інструментів для швидкого створення шкідливих програм.
Питання не в тому, чи, а в тому, коли
Охоронні фірми та правоохоронні органи стурбовані таким розвитком подій, але нікого з людей, з якими ми спілкувалися, це не здивувало. «Питання не в тому, якщо, а в тому, коли», — сказав DL News Боббі Корнуелл, віце-президент із залучення стратегічних партнерів та інтеграції фірми з кібербезпеки SonicWall.
Ці історії з’явилися з моменту запуску OpenAI ChatGPT у листопаді минулого року. Ці просунуті чат-боти навчаються з величезними обсягами даних. Вони використовують великі набори даних, включаючи книги, коди, веб-сайти та статті, можуть писати складні коди та навіть вести розмови на основі підказок користувача. Це прорив для OpenAI. Станом на січень у нього було близько 100 мільйонів активних користувачів щомісяця, що робить його одним із найшвидше зростаючих додатків в історії. Люди почали використовувати його для чого завгодно: від написання профілів онлайн-знайомств до жахливих історій і навіть для створення сценаріїв відео та коду налагодження. Технологічні гіганти, включаючи Google і Meta, також прискорюють розробку власних розмовних інструментів AI, таких як Bard і LLaMA.
У липні генеральний директор Tesla Ілон Маск запустив нову компанію під назвою x.AI з метою створення версії ChatGPT, яка буде менш «активною», ніж версія OpenAI. За даними Crunchbase, у першій половині 2023 року компанії зі штучним інтелектом залучили понад 25 мільярдів доларів від інвесторів.
Темна сторона ChatGPT
Замість того, щоб святкувати перемогу, генеральний директор OpenAI Сем Альтман вирушив у світове турне, попереджаючи про небезпеку необмеженого штучного інтелекту. Він дав свідчення в Конгресі США і сказав журналістам, що втрачає сон через занепокоєння, що OpenAI випустив свого славнозвісного джина штучного інтелекту, щоб «робити справді погані речі». Чи були його зауваження мотивовані справжнім страхом чи частиною ретельно розробленої піар-стратегії, залишається незрозумілим.
Якою б не була мотивація зауважень Альтмана, цифрові моби вже використовують ChatGPT або подібні інструменти для підтримки своїх планів. Кіберзлочинці навіть стверджують, що створили власну версію ChatGPT, захищену від заходів безпеки, встановлених OpenAI. Вони рекламували їх у дарк-мережі як інструменти для посилення фішингових атак і створення шкідливих програм, повідомляв Wired на початку серпня. Спільнота кіберзлочинців і учасників загроз є технічно підкованою та проактивною, і, як правило, рано впроваджує нові технологічні тенденції, оскільки бачить переваги та вдосконалення в тому, як розвиваються їхні інструменти, методи та практики.
Тому не дивно, що зловмисники використовують генеративний штучний інтелект, оскільки вони можуть отримати такий самий приріст продуктивності та потенційно покращити свою здатність ховатися, проводити розвідку, створювати шкідливий код, обманювати людей та програмне забезпечення безпеки тощо. Ці події змушують експертів з кібербезпеки та правоохоронні органи з усіх сил реагувати на загрозу.
Фірми з кібербезпеки повинні «вбудувати більше інтелекту в наші системи для пошуку контенту, створеного штучним інтелектом», — сказав Корнуелл, додавши, що розробка таких контрзаходів займе час. , і хоча вона та інші правоохоронні органи можуть попередити про ці загрози, злочинні групи, які стоять за серією вбивств, буде важко знищити навіть до того, як буде використано штучний інтелект.
За даними глобальної групи по боротьбі з шахрайством, багато злочинних мереж діють із таких місць, як Камбоджа, Лаос і М’янма. Їхні злочини зібрали мільярди доларів, що дозволило їм платити місцевим правоохоронним органам і уникнути міжнародних санкцій. Боротися з таким великим і багатим злочинним угрупуванням дуже важко.
OpenAI не відповів на наш запит про коментар.