A espada de dois gumes dos grandes modelos de linguagem: riscos potenciais e estratégias de resposta
O rápido desenvolvimento da tecnologia de inteligência artificial está a mudar profundamente a nossa forma de viver. Desde a série GPT até ao Gemini, passando por vários modelos de código aberto, a IA avançada está a reconfigurar o nosso trabalho e vida. No entanto, o avanço tecnológico também trouxe novos desafios, especialmente com o surgimento de modelos de linguagem de grande escala sem restrições ou maliciosos.
Modelos LLM sem restrições referem-se àqueles que foram intencionalmente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as limitações éticas incorporados nos modelos convencionais. Os desenvolvedores de LLM convencionais geralmente investem muitos recursos para impedir que seus modelos sejam usados para gerar discursos de ódio, informações falsas, códigos maliciosos ou para fornecer instruções sobre atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações, com fins ilícitos, começaram a procurar ou desenvolver seus próprios modelos sem restrições.
A potencial ameaça dos LLMs sem restrições
A emergência deste tipo de modelo reduziu significativamente a barreira para certas atividades ilegais. Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns sem experiência em programação, graças aos LLM sem restrições. Os atacantes precisam apenas obter os pesos e o código-fonte de modelos de código aberto e, em seguida, usar conjuntos de dados que contenham conteúdo malicioso, discursos de ódio ou instruções ilegais para fazer o ajuste fino, podendo assim criar ferramentas de ataque personalizadas.
Este modelo traz múltiplos riscos:
Os atacantes podem "modificar" modelos dirigidos a alvos específicos, gerando conteúdos mais enganosos que contornam a revisão de conteúdo e as restrições de segurança dos LLMs convencionais.
O modelo pode ser utilizado para gerar rapidamente variantes de código de sites de phishing ou para personalizar textos de fraude para diferentes plataformas sociais.
A acessibilidade e a modificabilidade dos modelos de código aberto alimentaram a formação e a disseminação da ecologia de IA subterrânea, proporcionando um terreno fértil para o comércio e desenvolvimento ilegais.
LLMs ilimitados típicos e suas potenciais ameaças
versão preta do GPT
Este é um LLM malicioso vendido publicamente em fóruns subterrâneos, com os desenvolvedores a afirmarem claramente que não tem quaisquer limitações éticas. É baseado em um modelo de código aberto e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar apenas 189 dólares para obter um mês de acesso. O seu uso mais infame é a geração de e-mails de ataque de phishing altamente realistas e persuasivos.
No campo das criptomoedas, pode ser usado para:
Gerar e-mails/informações de phishing, imitando a bolsa ou o projeto para enviar aos usuários pedidos de "verificação de conta"
Assistir na escrita de código malicioso para roubar arquivos de carteira, monitorar a área de transferência, registrar teclas, entre outras funções.
Impulsionar fraudes automatizadas, responder automaticamente a potenciais vítimas, orientá-las a participar em airdrops ou projetos de investimento falsos.
Especialista em conteúdo da dark web
Este é um modelo de linguagem desenvolvido por pesquisadores, especializado em pré-treinamento em dados da dark web, com o intuito de fornecer suporte à pesquisa em segurança cibernética e à aplicação da lei. No entanto, se for obtido por agentes maliciosos ou se tecnologias semelhantes forem usadas para treinar modelos grandes sem restrições, as consequências podem ser inimagináveis.
No campo das criptomoedas, os potenciais abusos incluem:
Coletar informações de usuários e equipes de projetos para fraudes de engenharia social
Reproduzir estratégias maduras de roubo e lavagem de dinheiro na dark web
Assistente de Fraude Online
Este é um modelo avançado vendido na dark web e em fóruns de hackers, com uma mensalidade que varia entre 200 dólares e 1.700 dólares.
No campo das criptomoedas, pode ser utilizado para:
Gerar white papers, sites, roteiros e textos de marketing que parecem reais, para implementar ICO/IDO falsos
Crie rapidamente uma página de login ou interface de conexão de carteira que imite uma exchange famosa
Produção em massa de comentários e propaganda falsos, impulsionando tokens fraudulentos ou difamando projetos concorrentes
Imitar diálogos humanos, estabelecer confiança com usuários desavisados, induzindo-os a revelar informações sensíveis ou executar operações prejudiciais
Assistente de IA sem restrições éticas
Este é um chatbot de IA claramente posicionado como sem restrições éticas.
No campo das criptomoedas, pode ser utilizado para:
Gerar e-mails de phishing altamente realistas, fingindo ser uma exchange de criptomoedas para enviar solicitações falsas de verificação KYC, entre outras.
Gerar rapidamente contratos inteligentes que contenham backdoors ocultos ou lógica fraudulenta, destinados a golpes de Rug Pull ou ataques a protocolos DeFi.
Gerar malware com capacidade de transformação contínua, destinado a roubar arquivos de carteira, chaves privadas e frases-semente.
Combinar scripts de falas gerados por IA, implantar robôs em plataformas sociais para induzir os usuários a participar de projetos falsos
Em colaboração com outras ferramentas de IA, gerar vozes de fundadores de projetos falsos ou executivos de exchanges para implementar fraudes por telefone
plataforma de acesso sem censura
Estas plataformas oferecem acesso a vários LLMs, incluindo alguns modelos com menos restrições ou com limitações mais flexíveis. Embora o objetivo seja proporcionar aos usuários oportunidades de exploração aberta, também podem ser exploradas por indivíduos mal-intencionados.
Os riscos potenciais incluem:
Os atacantes podem usar modelos com menos restrições para gerar templates de phishing, propaganda falsa ou ideias de ataque.
Reduzir a barreira de entrada para a engenharia de exploração, tornando mais fácil para os atacantes obterem saídas que antes estavam restritas.
Acelerar a iteração de scripts de ataque, testando rapidamente diferentes modelos em relação à reação a comandos maliciosos
Estratégias de resposta
A aparição de LLM sem restrições marca um novo paradigma de ataques na cibersegurança que enfrentam uma complexidade maior, além de uma capacidade de escalonamento e automação. Esses modelos não apenas reduzem a barreira de entrada para ataques, mas também trazem novas ameaças mais ocultas e enganosas.
Para enfrentar esses desafios, todas as partes do ecossistema de segurança precisam trabalhar em conjunto:
Aumentar o investimento em tecnologias de detecção, desenvolvendo soluções capazes de identificar e interceptar conteúdos de phishing gerados por LLM maliciosos, explorações de vulnerabilidades em contratos inteligentes e código malicioso.
Promover a construção da capacidade de prevenção de jailbreak em modelos e explorar mecanismos de marca d'água e rastreamento, a fim de rastrear a origem de conteúdos maliciosos em cenários críticos como finanças e geração de código.
Estabelecer normas éticas e mecanismos de regulação robustos para limitar desde a raiz o desenvolvimento e o abuso de modelos maliciosos.
Reforçar a educação dos utilizadores, aumentando a capacidade do público para identificar conteúdos gerados por IA e a consciência de segurança.
Incentivar a colaboração entre o meio acadêmico e a indústria, continuando a pesquisa em tecnologias de segurança de IA, como treinamento adversarial, aumento da robustez do modelo, entre outros.
Promover a cooperação internacional, elaborar conjuntamente normas de segurança para a IA e melhores práticas, coordenar a aplicação da lei transfronteiriça para combater crimes relacionados com a IA.
Só a colaboração de todas as partes pode, ao mesmo tempo que desfruta dos benefícios da tecnologia de IA, controlar eficazmente os seus riscos potenciais e construir um futuro digital mais seguro e fiável.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
6 gostos
Recompensa
6
4
Partilhar
Comentar
0/400
LiquidityHunter
· 07-13 13:35
Mais uma vez querendo regular, quem entende sabe.
Ver originalResponder0
MercilessHalal
· 07-13 13:31
O desenvolvimento da tecnologia está muito rápido, até me dá um pouco de medo.
Ver originalResponder0
LightningSentry
· 07-13 13:26
Se a regulação for bem feita, não há medo da violência tecnológica.
Ver originalResponder0
AirdropHunterWang
· 07-13 13:17
Com uma boa regulamentação, negociar criptomoedas todos os dias é tranquilo.
Os riscos potenciais do uso irrestrito de grandes modelos de linguagem e estratégias de mitigação.
A espada de dois gumes dos grandes modelos de linguagem: riscos potenciais e estratégias de resposta
O rápido desenvolvimento da tecnologia de inteligência artificial está a mudar profundamente a nossa forma de viver. Desde a série GPT até ao Gemini, passando por vários modelos de código aberto, a IA avançada está a reconfigurar o nosso trabalho e vida. No entanto, o avanço tecnológico também trouxe novos desafios, especialmente com o surgimento de modelos de linguagem de grande escala sem restrições ou maliciosos.
Modelos LLM sem restrições referem-se àqueles que foram intencionalmente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as limitações éticas incorporados nos modelos convencionais. Os desenvolvedores de LLM convencionais geralmente investem muitos recursos para impedir que seus modelos sejam usados para gerar discursos de ódio, informações falsas, códigos maliciosos ou para fornecer instruções sobre atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações, com fins ilícitos, começaram a procurar ou desenvolver seus próprios modelos sem restrições.
A potencial ameaça dos LLMs sem restrições
A emergência deste tipo de modelo reduziu significativamente a barreira para certas atividades ilegais. Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar fraudes, agora podem ser facilmente realizadas por pessoas comuns sem experiência em programação, graças aos LLM sem restrições. Os atacantes precisam apenas obter os pesos e o código-fonte de modelos de código aberto e, em seguida, usar conjuntos de dados que contenham conteúdo malicioso, discursos de ódio ou instruções ilegais para fazer o ajuste fino, podendo assim criar ferramentas de ataque personalizadas.
Este modelo traz múltiplos riscos:
LLMs ilimitados típicos e suas potenciais ameaças
versão preta do GPT
Este é um LLM malicioso vendido publicamente em fóruns subterrâneos, com os desenvolvedores a afirmarem claramente que não tem quaisquer limitações éticas. É baseado em um modelo de código aberto e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar apenas 189 dólares para obter um mês de acesso. O seu uso mais infame é a geração de e-mails de ataque de phishing altamente realistas e persuasivos.
No campo das criptomoedas, pode ser usado para:
Especialista em conteúdo da dark web
Este é um modelo de linguagem desenvolvido por pesquisadores, especializado em pré-treinamento em dados da dark web, com o intuito de fornecer suporte à pesquisa em segurança cibernética e à aplicação da lei. No entanto, se for obtido por agentes maliciosos ou se tecnologias semelhantes forem usadas para treinar modelos grandes sem restrições, as consequências podem ser inimagináveis.
No campo das criptomoedas, os potenciais abusos incluem:
Assistente de Fraude Online
Este é um modelo avançado vendido na dark web e em fóruns de hackers, com uma mensalidade que varia entre 200 dólares e 1.700 dólares.
No campo das criptomoedas, pode ser utilizado para:
Assistente de IA sem restrições éticas
Este é um chatbot de IA claramente posicionado como sem restrições éticas.
No campo das criptomoedas, pode ser utilizado para:
plataforma de acesso sem censura
Estas plataformas oferecem acesso a vários LLMs, incluindo alguns modelos com menos restrições ou com limitações mais flexíveis. Embora o objetivo seja proporcionar aos usuários oportunidades de exploração aberta, também podem ser exploradas por indivíduos mal-intencionados.
Os riscos potenciais incluem:
Estratégias de resposta
A aparição de LLM sem restrições marca um novo paradigma de ataques na cibersegurança que enfrentam uma complexidade maior, além de uma capacidade de escalonamento e automação. Esses modelos não apenas reduzem a barreira de entrada para ataques, mas também trazem novas ameaças mais ocultas e enganosas.
Para enfrentar esses desafios, todas as partes do ecossistema de segurança precisam trabalhar em conjunto:
Aumentar o investimento em tecnologias de detecção, desenvolvendo soluções capazes de identificar e interceptar conteúdos de phishing gerados por LLM maliciosos, explorações de vulnerabilidades em contratos inteligentes e código malicioso.
Promover a construção da capacidade de prevenção de jailbreak em modelos e explorar mecanismos de marca d'água e rastreamento, a fim de rastrear a origem de conteúdos maliciosos em cenários críticos como finanças e geração de código.
Estabelecer normas éticas e mecanismos de regulação robustos para limitar desde a raiz o desenvolvimento e o abuso de modelos maliciosos.
Reforçar a educação dos utilizadores, aumentando a capacidade do público para identificar conteúdos gerados por IA e a consciência de segurança.
Incentivar a colaboração entre o meio acadêmico e a indústria, continuando a pesquisa em tecnologias de segurança de IA, como treinamento adversarial, aumento da robustez do modelo, entre outros.
Promover a cooperação internacional, elaborar conjuntamente normas de segurança para a IA e melhores práticas, coordenar a aplicação da lei transfronteiriça para combater crimes relacionados com a IA.
Só a colaboração de todas as partes pode, ao mesmo tempo que desfruta dos benefícios da tecnologia de IA, controlar eficazmente os seus riscos potenciais e construir um futuro digital mais seguro e fiável.