Pesquisadores da UC alertam que roteadores de IA de terceiros estão a roubar criptomoedas e chaves privadas

Serviços de roteamento de IA de terceiros expõem os utilizadores a falhas de segurança significativas que podem resultar no roubo de criptomoedas e credenciais de cloud.

Resumo

  • Os investigadores descobriram que 26 roteadores de LLM de terceiros estão ativamente a injectar código malicioso e a roubar credenciais explorando o seu acesso a dados em texto claro.
  • O estudo revelou que intermediários podem interceptar chaves privadas e credenciais de cloud porque terminam a encriptação segura para agregar pedidos de IA.

De acordo com um artigo publicado na quinta-feira por investigadores da Universidade da Califórnia, a cadeia de fornecimento para Modelos de Linguagem de Grande Escala (LLM) contém várias vulnerabilidades que permitem a injeção de código malicioso e extração de credenciais

Estes intermediários, que os desenvolvedores usam para gerir o acesso a fornecedores como Google ou OpenAI, atuam essencialmente como um “intermediário” que termina a encriptação segura

Porque têm acesso completo ao texto claro de cada mensagem enviada através deles, dados sensíveis como frases de semente ou chaves privadas podem ser interceptados por infraestruturas não verificadas.

Táticas de evasão e o risco “YOLO”

Os investigadores testaram 400 roteadores gratuitos e 28 pagos para medir a extensão destes riscos. Nove destes serviços injectaram ativamente código malicioso, enquanto 17 roteadores separados foram apanhados a aceder a credenciais da Amazon Web Services pertencentes à equipa

Durante o experimento, um roteador conseguiu esvaziar Ether de uma carteira isca após os investigadores fornecerem uma chave privada pré-financiada

Embora a equipa mantivesse os saldos baixos para garantir que a perda total permanecesse abaixo de 50 dólares, o resultado confirmou quão facilmente um intermediário comprometido pode desviar fundos.

“26 roteadores de LLM estão secretamente a injectar chamadas de ferramentas maliciosas e a roubar credenciais,” afirmou Chaofan Shou, coautor, na X.

Identificar um roteador malicioso é uma tarefa difícil para o utilizador comum. Os investigadores observaram que, porque estes serviços devem ler dados para os encaminhar, não há diferença visível entre o tratamento legítimo e o roubo ativo

O perigo aumenta quando os desenvolvedores ativam o “modo YOLO,” uma configuração em muitas estruturas de IA que permite a um agente executar comandos automaticamente sem confirmação humana

Isto permite a um atacante enviar instruções que o sistema do utilizador executará instantaneamente, muitas vezes sem o conhecimento do operador.

“A fronteira entre ‘gestão de credenciais’ e ‘roubo de credenciais’ é invisível para o cliente porque os roteadores já leem segredos em texto claro como parte do encaminhamento normal,” explicou o estudo.

Roteadores anteriormente confiáveis podem tornar-se perigosos se reutilizarem credenciais vazadas através de relés fracos. Para prevenir estes ataques, a equipa de investigação sugeriu que os desenvolvedores nunca devem permitir que chaves privadas ou frases sensíveis passem por uma sessão de agente de IA

Uma solução permanente exigiria que as empresas de IA usassem assinaturas criptográficas. Um sistema assim permitiria a um agente provar matematicamente que as instruções vieram do modelo real, e não de uma fonte de terceiros adulterada.

“Os roteadores de API de LLM estão numa fronteira de confiança crítica que o ecossistema atualmente trata como transporte transparente,” concluiu o artigo.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar