A Caixa de Pandora: Como Modelos Grandes Sem Restrições Ameaçam a Segurança Cripto

6/10/2025, 1:50:06 AM
Intermediário
IA
Com a proliferação de modelos grandes de código aberto, ferramentas de IA "sem restrições" como WormGPT e FraudGPT estão a ser mal utilizadas para gerar e-mails de phishing, escrever contratos maliciosos e manipular comunidades de utilizadores, representando uma séria ameaça à segurança da indústria de cripto. Este artigo detalha os princípios, usos e contramedidas destes modelos, soando o alarme para os profissionais do Web3.

Desde a série GPT da OpenAI até o Gemini do Google, e vários modelos de código aberto, a inteligência artificial avançada está a transformar profundamente o nosso trabalho e estilos de vida. No entanto, juntamente com os rápidos avanços tecnológicos, um lado obscuro preocupante está a emergir gradualmente - o aumento de modelos de linguagem grandes não restritos ou maliciosos.

O chamado LLM irrestrito refere-se a modelos de linguagem que são especificamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança integrados e as restrições éticas dos modelos convencionais. Os desenvolvedores de LLM convencionais normalmente investem recursos significativos para evitar que seus modelos sejam usados para gerar discurso de ódio, informações falsas, código malicioso ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações começaram a procurar ou desenvolver modelos irrestritos para motivos como crimes cibernéticos. À luz disso, este artigo revisará ferramentas típicas de LLM irrestritas, apresentará seu abuso na indústria de criptografia e discutirá os desafios de segurança relacionados e as respostas.

Como podem os LLMs sem restrições ser maliciosos?

Tarefas que anteriormente exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns sem qualquer experiência em programação com a assistência de LLMs irrestritos. Os atacantes só precisam obter os pesos e o código fonte de modelos de código aberto e, em seguida, ajustá-los em conjuntos de dados contendo conteúdo malicioso, declarações tendenciosas ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo deu origem a múltiplos riscos: atacantes podem "magicamente modificar" modelos com base em alvos específicos para gerar conteúdo mais enganoso, contornando assim a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser utilizado para gerar rapidamente variantes de código para sites de phishing ou adaptar textos de fraude para diferentes plataformas de redes sociais; entretanto, a acessibilidade e a modificabilidade de modelos de código aberto continuam a fomentar a formação e a disseminação de um ecossistema de IA subterrâneo, fornecendo um terreno fértil para transações ilegais e desenvolvimento. Abaixo está uma breve introdução a esses LLMs irrestritos:

WormGPT: Versão Negra GPT

WormGPT é um LLM malicioso vendido abertamente em fóruns subterrâneos, cujos desenvolvedores afirmam explicitamente que não tem restrições éticas, tornando-o uma versão negra do modelo GPT. É baseado em modelos de código aberto como o GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar um mínimo de $189 para obter acesso por um mês. O uso mais notório do WormGPT é gerar e-mails de ataque de Comprometimento de E-mail Empresarial (BEC) e e-mails de phishing altamente realistas e persuasivos. Seus abusos típicos no espaço da criptografia incluem:

  • Gerar e-mails/mensagens de phishing: Imitar trocas de cripto, carteiras ou projetos bem conhecidos para enviar pedidos de “verificação de conta” aos usuários, induzindo-os a clicar em links maliciosos ou a vazar chaves privadas/frases-semente;
  • Escrevendo código malicioso: Ajudando atacantes com menos habilidades técnicas a escrever código malicioso que rouba arquivos de carteira, monitora a área de transferência, regista teclas pressionadas, etc.
  • Conduza esquemas automáticos: Responda automaticamente a potenciais vítimas, orientando-as a participar em airdrops falsos ou projetos de investimento.


DarkBERT: Uma Espada de Dois Gumes para Conteúdo da Dark Web

DarkBERT é um modelo de linguagem desenvolvido em colaboração entre pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) e da S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros e informações vazadas) com a intenção de ajudar pesquisadores de cibersegurança e agências de aplicação da lei a entender melhor o ecossistema da dark web, rastrear atividades ilegais, identificar ameaças potenciais e reunir inteligência sobre ameaças.

Embora o DarkBERT tenha sido projetado com boas intenções, o conteúdo sensível que possui sobre a dark web, incluindo dados, métodos de ataque e estratégias de comércio ilegal, poderia ter consequências graves se atores maliciosos obtivessem isso ou utilizassem tecnologias semelhantes para treinar modelos grandes sem restrições. Seu potencial uso indevido em cenários de criptografia inclui:

  • Implementando fraudes precisas: coletando informações sobre usuários de criptografia e equipes de projetos para fraudes de engenharia social.
  • Imitação do modus operandi criminal: Replicando táticas comprovadas de roubo de moedas e lavagem de dinheiro na dark web.

FraudGPT: A Faca Suíça da Fraude Online

FraudGPT afirma ser uma versão melhorada do WormGPT, oferecendo recursos mais abrangentes, vendido principalmente na dark web e fóruns de hackers, com taxas mensais que variam de 200 a 1.700 dólares. Seus abusos típicos no cenário de criptografia incluem:

  • Projetos de criptografia falsificados: Gere white papers falsos, websites oficiais, roadmaps e textos de marketing para implementar ICOs/IDOs fraudulentos.
  • Gerar páginas de phishing em lote: Crie rapidamente páginas de login de imitação para bolsas de criptomoeda ou interfaces de conexão de carteira conhecidas.
  • Atividades de bots nas redes sociais: produção em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou desacreditando projetos concorrentes.
  • Ataques de engenharia social: Este chatbot pode imitar conversas humanas, estabelecer confiança com utilizadores desprevenidos e atraí-los a divulgar inadvertidamente informações sensíveis ou realizar ações prejudiciais.

GhostGPT: Um assistente de IA não vinculado por restrições morais

GhostGPT é um chatbot de IA explicitamente posicionado como não tendo restrições éticas, com abusos típicos no cenário de criptografia incluindo:

  • Ataques de phishing avançados: Gere e-mails de phishing altamente realistas que imitam bolsas de valores convencionais para emitir falsos pedidos de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de Código Malicioso para Contratos Inteligentes: Sem qualquer conhecimento de programação, os atacantes podem rapidamente gerar contratos inteligentes contendo portas dos fundos ocultas ou lógica fraudulenta usando o GhostGPT, para golpes de Rug Pull ou ataques a protocolos DeFi.
  • Ladrão de cripto moeda polimórfico: Gera malware com capacidades de transformação contínua para roubar arquivos de carteira, chaves privadas e frases mnemónicas. Suas características polimórficas dificultam a deteção por software de segurança baseado em assinatura tradicional.
  • Ataques de engenharia social: Ao combinar scripts gerados por IA, os atacantes podem implantar bots em plataformas como Discord e Telegram para atrair usuários a participar de mintagens de NFT falsas, airdrops ou projetos de investimento.
  • Golpes de deepfake: Em conjunto com outras ferramentas de IA, o GhostGPT pode ser usado para gerar as vozes de fundadores de projetos de criptografia falsos, investidores ou executivos de bolsas, implementando golpes telefônicos ou ataques de Compromisso de E-mail Empresarial (BEC).

Venice.ai: Riscos Potenciais de Acesso Não Censurado

Venice.ai fornece acesso a vários LLMs, incluindo alguns modelos com menos escrutínio ou restrições mais flexíveis. Posiciona-se como um Gateway aberto para os usuários explorarem as capacidades de diferentes LLMs, oferecendo modelos de ponta, precisos e não moderados para uma verdadeira experiência de IA sem restrições, mas também pode ser explorado por atores maliciosos para gerar conteúdo prejudicial. Os riscos associados à plataforma incluem:

  • Contornando a censura para gerar conteúdo malicioso: Os atacantes podem usar modelos com menos restrições na plataforma para criar templates de phishing, propaganda falsa ou ideias de ataque.
  • Baixar o limiar para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de "jailbreaking" de prompts, eles podem facilmente obter saídas que estavam originalmente restritas.
  • Iteração de script de ataque acelerada: Os atacantes podem usar esta plataforma para testar rapidamente as respostas de diferentes modelos a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Escrito no final

A emergência de LLMs irrestritos marca um novo paradigma de ataques à cibersegurança que é mais complexo, escalável e automatizado. Estes modelos não apenas diminuem o limiar para ataques, mas também introduzem novas ameaças que são mais encobertas e enganosas.

Neste jogo contínuo de ataque e defesa, todas as partes no ecossistema de segurança devem trabalhar juntas para lidar com riscos futuros: por um lado, há a necessidade de aumentar o investimento em tecnologias de deteção para desenvolver sistemas capazes de identificar e interceptar conteúdo de phishing gerado por LLMs maliciosos, explorando vulnerabilidades de contratos inteligentes e código malicioso; por outro lado, também devem ser feitos esforços para promover a construção de capacidades de anti-jailbreaking de modelos e explorar mecanismos de marca d'água e rastreamento para acompanhar as fontes de conteúdo malicioso em cenários críticos como finanças e geração de código; além disso, deve ser estabelecido um quadro ético sólido e um mecanismo regulatório para limitar fundamentalmente o desenvolvimento e o uso indevido de modelos maliciosos.

Declaração:

  1. Este artigo é reproduzido de [TechFlow] O copyright pertence ao autor original [TechFlow] Se houver alguma objeção à reimpressão, por favor, contacte Equipe Gate LearnA equipe irá processá-lo o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e pontos de vista expressos neste artigo são unicamente do autor e não constituem qualquer aconselhamento de investimento.
  3. As outras versões linguísticas do artigo são traduzidas pela equipa Gate Learn, a menos que seja mencionado de outra forma.GateNessas circunstâncias, é proibido copiar, disseminar ou plagiar artigos traduzidos.

Partilhar

Calendário Cripto

Lançamento do Produto NFT AI
A Nuls lançará um produto NFT AI no terceiro trimestre.
NULS
2.77%
2025-08-07
Lançamento do dValueChain v.1.0
O Bio Protocol está prestes a lançar o dValueChain v.1.0 no primeiro trimestre. O objetivo é estabelecer uma rede de dados de saúde descentralizada, garantindo registos médicos seguros, transparentes e à prova de adulterações dentro do ecossistema DeSci.
BIO
-2.47%
2025-08-07
Legendas de Vídeo Geradas por IA
A Verasity irá adicionar uma função de legendas de vídeo geradas por IA no quarto trimestre.
VRA
-1.44%
2025-08-07
Suporte Multilíngue VeraPlayer
A Verasity adicionará suporte a várias línguas ao VeraPlayer no quarto trimestre.
VRA
-1.44%
2025-08-07
Execução Automatizada de Compra/venda
A Linear irá adicionar uma execução automatizada de compra/venda, permitindo que os traders executem negociações com base em parâmetros predefinidos, aumentando a eficiência e a rentabilidade.
LINA
1.85%
2025-08-07

Artigos relacionados

O que são Narrativas Cripto? Principais Narrativas para 2025 (ATUALIZADO)
Principiante

O que são Narrativas Cripto? Principais Narrativas para 2025 (ATUALIZADO)

Mememoedas, tokens de restaking líquido, derivados de staking líquido, modularidade de blockchain, Camada 1, Camada 2 (rollups otimistas e rollups de conhecimento zero), BRC-20, DePIN, bots de negociação de cripto no Telegram, mercados de previsão e RWAs são algumas narrativas a observar em 2024.
11/26/2024, 1:54:27 AM
Explorando o Smart Agent Hub: Sonic SVM e seu Framework de Escalonamento HyperGrid
Intermediário

Explorando o Smart Agent Hub: Sonic SVM e seu Framework de Escalonamento HyperGrid

O Smart Agent Hub é construído sobre o framework Sonic HyperGrid, que utiliza uma abordagem multi-grade semi-autônoma. Esta configuração não só garante compatibilidade com a mainnet Solana, mas também oferece aos desenvolvedores maior flexibilidade e oportunidades de otimização de desempenho, especialmente para aplicações de alto desempenho como jogos.
2/21/2025, 4:49:42 AM
Qual plataforma constrói os melhores agentes de IA? Testamos o ChatGPT, Claude, Gemini e outros
Principiante

Qual plataforma constrói os melhores agentes de IA? Testamos o ChatGPT, Claude, Gemini e outros

Este artigo compara e testa cinco das principais plataformas de IA (ChatGPT, Google Gemini, HuggingChat, Claude e Mistral AI), avaliando a facilidade de uso e a qualidade dos resultados na criação de agentes de IA.
1/9/2025, 7:43:03 AM
Como os Agentes de IA Impulsionarão a Cripto no Mercado Principal
Intermediário

Como os Agentes de IA Impulsionarão a Cripto no Mercado Principal

A IA será o catalisador que impulsiona a cripto para casos de uso de mainstream. Cripto sempre foi a criança do meio estranha no espaço de tecnologia. Isso finalmente irá cimentar o papel da cripto como uma tecnologia fundamental. Darei uma visão geral de onde estamos hoje com os agentes de IA, onde a cripto entra em cena, como penso no futuro agentico e quais equipes estão atualmente no meu radar.
11/26/2024, 1:36:08 AM
Tudo o que precisa de saber sobre GT-Protocolo
Principiante

Tudo o que precisa de saber sobre GT-Protocolo

O Protocolo GT é um dos produtos de IA mais comentados de 2024, utilizando tecnologia avançada de IA para criar ferramentas de negociação de IA únicas. Pode ser usado para gestão de portfólio de IA, negociação de IA e métodos de investimento nos mercados de CeFi, DeFi e NFT, ajudando as pessoas a descobrir e investir facilmente em várias oportunidades Web3. Atraiu centenas de milhões de utilizadores para participar.
9/25/2024, 7:10:21 AM
Visão geral das 10 melhores moedas MEME de IA
Intermediário

Visão geral das 10 melhores moedas MEME de IA

O AI Meme é um campo emergente que combina inteligência artificial, tecnologia blockchain e cultura de meme, impulsionado pelo interesse de mercado em tokens criativos e tendências lideradas pela comunidade. No futuro, o setor de memes de IA pode continuar a evoluir com a introdução de novas tecnologias e conceitos. Apesar do desempenho ativo atual do mercado, os 10 principais projetos podem flutuar significativamente ou até serem substituídos devido a mudanças no sentimento da comunidade.
11/29/2024, 7:04:45 AM
Comece agora
Registe-se e ganhe um cupão de
100 USD
!