Modelos de linguagem de grande escala sem restrições: uma nova ameaça à segurança da indústria da encriptação

robot
Geração de resumo em curso

Modelo de linguagem de grande escala sem restrições: uma nova ameaça à segurança da indústria de encriptação

Com o rápido desenvolvimento da tecnologia de inteligência artificial, modelos avançados como a série GPT e Gemini estão a mudar profundamente a nossa forma de trabalhar e viver. No entanto, este avanço tecnológico também trouxe potenciais riscos de segurança, especialmente com o surgimento de modelos de linguagem de grande escala sem restrições ou maliciosos.

Caixa de Pandora: Como modelos de grande escala sem restrições ameaçam a segurança da encriptação?

Modelos LLM sem restrições referem-se àqueles que foram especificamente projetados, modificados ou "desbloqueados" para contornar os mecanismos de segurança e as restrições éticas incorporadas nos modelos principais. Embora os desenvolvedores de LLM principais tenham investido muitos recursos para evitar o uso indevido dos modelos, algumas pessoas ou organizações, motivadas por intenções inadequadas, começaram a procurar ou desenvolver modelos sem restrições. Este artigo irá explorar as potenciais ameaças desses modelos na indústria de encriptação, bem como os desafios de segurança relacionados e as estratégias de resposta.

Formas de abuso de LLM sem restrições

A emergência de modelos dessa natureza reduziu significativamente a barreira para a implementação de ataques complexos. Mesmo pessoas sem habilidades especializadas conseguem facilmente gerar código malicioso, criar emails de phishing ou planejar fraudes. Os atacantes apenas precisam obter os pesos e o código do modelo de código aberto e, em seguida, ajustar com um conjunto de dados que contenha conteúdo malicioso, podendo assim criar ferramentas de ataque personalizadas.

Esta tendência trouxe múltiplos riscos:

  1. Os atacantes podem personalizar modelos para alvos específicos, gerando conteúdos mais enganosos que contornam a revisão de conteúdos convencional.
  2. O modelo pode ser utilizado para gerar rapidamente variantes de código de sites de phishing ou personalizar textos de fraude para diferentes plataformas.
  3. A acessibilidade de modelos de código aberto fomentou a formação de um ecossistema de IA underground, proporcionando um terreno fértil para atividades ilícitas.

As seguintes são algumas LLMs ilimitadas típicas e suas potenciais ameaças:

WormGPT:versão preta do GPT

WormGPT é um LLM malicioso vendido publicamente em fóruns subterrâneos, alegando não ter quaisquer restrições éticas. É baseado em modelos de código aberto como o GPT-J 6B e foi treinado em uma grande quantidade de dados relacionados a malware. Os usuários podem obter um mês de acesso por apenas 189 dólares.

No campo da encriptação, o WormGPT pode ser abusado para:

  • Gerar e-mails de phishing realistas, induzindo os usuários a clicarem em links maliciosos ou a revelarem as suas chaves privadas.
  • Auxiliar na escrita de código malicioso para roubar arquivos de carteira, monitorar a área de transferência, entre outros.
  • Impulsionar fraudes automatizadas, conduzindo as vítimas a participar em projetos falsos.

DarkBERT: a espada de dois gumes do conteúdo da dark web

DarkBERT é um modelo de linguagem treinado especificamente em dados da dark web, originalmente destinado a ajudar investigadores e entidades de aplicação da lei a compreender o ecossistema da dark web. No entanto, se mal utilizado, as informações sensíveis que ele detém podem ter consequências graves.

No campo da encriptação, os potenciais riscos do DarkBERT incluem:

  • Coletar informações de usuários e equipes de projetos, implementando fraudes precisas.
  • Copiar métodos maduros de roubo de moedas e lavagem de dinheiro na dark web.

FraudGPT: uma ferramenta multifuncional para fraudes na internet

FraudGPT afirma ser a versão melhorada do WormGPT, vendendo principalmente na dark web e em fóruns de hackers. Suas formas de abuso no campo da encriptação incluem:

  • Gerar textos e materiais de marketing falsos sobre encriptação realistas.
  • Produção em massa de páginas de phishing que imitam bolsas de criptomoedas renomadas.
  • Fabricação em larga escala de comentários falsos, promoção de tokens fraudulentos ou difamação de projetos concorrentes.
  • Imitar diálogos humanos, induzindo os usuários a revelar informações sensíveis.

GhostGPT: um assistente de IA sem restrições morais

GhostGPT é um chatbot de IA claramente posicionado como sem restrições morais. No campo da encriptação, pode ser utilizado para:

  • Gerar e-mails de phishing altamente realistas, disfarçando-se de trocas de criptomoeda populares para publicar notificações falsas.
  • Gerar rapidamente código de contrato inteligente com uma porta dos fundos oculta.
  • Criar malware com capacidade de transformação para roubar informações de carteiras.
  • Combinando com outras ferramentas de IA, gerar vozes falsas de equipes de projetos para realizar fraudes por telefone.

Venice.ai: Potenciais riscos de acesso sem censura

A Venice.ai oferece acesso a vários LLMs, incluindo alguns modelos com limitações reduzidas. Embora o seu objetivo seja proporcionar uma experiência de IA aberta aos utilizadores, também pode ser mal utilizado para gerar conteúdo malicioso. Os riscos potenciais incluem:

  • Utilizar modelos com menos restrições para contornar a censura, gerando templates de phishing ou ideias de ataque.
  • Reduzir a barreira para a engenharia de prompts maliciosos.
  • Acelerar a iteração e otimização do discurso de ataque.

Estratégia de resposta

Perante as novas ameaças trazidas por LLMs sem restrições, a indústria de encriptação precisa de uma abordagem multifacetada:

  1. Aumentar o investimento em tecnologias de deteção, desenvolvendo ferramentas que consigam identificar e bloquear conteúdos maliciosos gerados por IA.
  2. Impulsionar a construção da capacidade de prevenção de jailbreak dos modelos, explorando mecanismos de marca d'água e rastreamento.
  3. Estabelecer normas éticas e mecanismos de supervisão robustos para limitar desde a origem o desenvolvimento e o abuso de modelos maliciosos.
  4. Reforçar a educação do usuário, aumentando a capacidade de identificar conteúdos gerados por AI.
  5. Promover a colaboração na indústria, partilhar informações sobre ameaças e melhores práticas.

Pandora's Box: Como modelos ilimitados ameaçam a segurança da encriptação da indústria?

Só com a colaboração de todas as partes do ecossistema de segurança é que podemos enfrentar eficazmente este novo desafio de segurança e proteger o desenvolvimento saudável da encriptação.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Partilhar
Comentar
0/400
LiquidityNinjavip
· 5h atrás
Deve-se também dar importância ao controle de riscos.
Ver originalResponder0
SelfCustodyBrovip
· 5h atrás
Cuidado com fraudes de IA.
Ver originalResponder0
BearMarketGardenervip
· 5h atrás
mundo crypto cheio de desastres
Ver originalResponder0
TxFailedvip
· 5h atrás
A ameaça da IA é demasiado assustadora.
Ver originalResponder0
AltcoinHuntervip
· 5h atrás
idiotas têm que afiar a faca
Ver originalResponder0
ClassicDumpstervip
· 5h atrás
Ser enganado por idiotas jogador principal ah
Ver originalResponder0
ColdWalletGuardianvip
· 5h atrás
Uma ameaça grave à segurança do usuário
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)