Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Pesquisadores da UC alertam que roteadores de IA de terceiros estão a roubar criptomoedas e chaves privadas
Serviços de roteamento de IA de terceiros expõem os utilizadores a falhas de segurança significativas que podem resultar no roubo de criptomoedas e credenciais de cloud.
Resumo
De acordo com um artigo publicado na quinta-feira por investigadores da Universidade da Califórnia, a cadeia de fornecimento para Modelos de Linguagem de Grande Escala (LLM) contém várias vulnerabilidades que permitem a injeção de código malicioso e extração de credenciais
Estes intermediários, que os desenvolvedores usam para gerir o acesso a fornecedores como Google ou OpenAI, atuam essencialmente como um “intermediário” que termina a encriptação segura
Porque têm acesso completo ao texto claro de cada mensagem enviada através deles, dados sensíveis como frases de semente ou chaves privadas podem ser interceptados por infraestruturas não verificadas.
Táticas de evasão e o risco “YOLO”
Os investigadores testaram 400 roteadores gratuitos e 28 pagos para medir a extensão destes riscos. Nove destes serviços injectaram ativamente código malicioso, enquanto 17 roteadores separados foram apanhados a aceder a credenciais da Amazon Web Services pertencentes à equipa
Durante o experimento, um roteador conseguiu esvaziar Ether de uma carteira isca após os investigadores fornecerem uma chave privada pré-financiada
Embora a equipa mantivesse os saldos baixos para garantir que a perda total permanecesse abaixo de 50 dólares, o resultado confirmou quão facilmente um intermediário comprometido pode desviar fundos.
“26 roteadores de LLM estão secretamente a injectar chamadas de ferramentas maliciosas e a roubar credenciais,” afirmou Chaofan Shou, coautor, na X.
Identificar um roteador malicioso é uma tarefa difícil para o utilizador comum. Os investigadores observaram que, porque estes serviços devem ler dados para os encaminhar, não há diferença visível entre o tratamento legítimo e o roubo ativo
O perigo aumenta quando os desenvolvedores ativam o “modo YOLO,” uma configuração em muitas estruturas de IA que permite a um agente executar comandos automaticamente sem confirmação humana
Isto permite a um atacante enviar instruções que o sistema do utilizador executará instantaneamente, muitas vezes sem o conhecimento do operador.
“A fronteira entre ‘gestão de credenciais’ e ‘roubo de credenciais’ é invisível para o cliente porque os roteadores já leem segredos em texto claro como parte do encaminhamento normal,” explicou o estudo.
Roteadores anteriormente confiáveis podem tornar-se perigosos se reutilizarem credenciais vazadas através de relés fracos. Para prevenir estes ataques, a equipa de investigação sugeriu que os desenvolvedores nunca devem permitir que chaves privadas ou frases sensíveis passem por uma sessão de agente de IA
Uma solução permanente exigiria que as empresas de IA usassem assinaturas criptográficas. Um sistema assim permitiria a um agente provar matematicamente que as instruções vieram do modelo real, e não de uma fonte de terceiros adulterada.
“Os roteadores de API de LLM estão numa fronteira de confiança crítica que o ecossistema atualmente trata como transporte transparente,” concluiu o artigo.