V神 partilha: Como construir um ambiente de trabalho de IA totalmente local, discreto e com controlo autónomo e total

ETH-2,51%

Vitalik Buterin propõe uma arquitectura de IA a ser executada localmente, sublinhando a privacidade, a segurança e a soberania pessoal, e alerta para os potenciais riscos dos agentes de IA.

O fundador do Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando a configuração do seu ambiente de trabalho em IA, construído com privacidade, segurança e soberania pessoal como elementos centrais — todo o raciocínio de LLM é executado localmente, todos os ficheiros ficam armazenados localmente, com sandboxing total, evitando deliberadamente modelos na cloud e APIs externas.

Logo no início do artigo, começa por avisar: «Não copie directamente as ferramentas e tecnologias descritas neste artigo, e não assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»

Porque escrever agora? Os problemas de segurança dos agentes de IA estão a ser muito subestimados

Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não é apenas perguntar coisas, mas sim entregar tarefas, permitindo que a IA pense durante muito tempo, chame centenas de ferramentas para executar. Ele dá como exemplo o OpenClaw (de momento, o repo com crescimento mais rápido na história do GitHub) e identifica também vários problemas de segurança registados por investigadores:

  • Um agente de IA pode modificar definições críticas sem confirmação manual, incluindo a adição de novos canais de comunicação e a alteração de instruções do sistema
  • Analisar quaisquer entradas externas maliciosas (como páginas web maliciosas) pode fazer com que o agente seja totalmente controlado; numa demonstração da HiddenLayer, os investigadores fizeram a IA resumir um conjunto de páginas, em que havia uma página maliciosa que comandava o agente a descarregar e executar um script de shell
  • Algumas colecções de competências de terceiros (skills) executam exfiltração silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor das skills através de instruções curl
  • Nas skills que analisaram, cerca de 15% incluem instruções maliciosas

Vitalik sublinha que o seu ponto de partida em relação à privacidade é diferente do dos investigadores tradicionais em cibersegurança: «Venho de uma perspectiva profundamente temerosa em relação a entregar a vida pessoal completa a uma IA na cloud — precisamente quando a encriptação ponta-a-ponta e o software “prioridade local” finalmente se tornaram mainstream, e finalmente demos mais um passo em frente, poderíamos estar a recuar dez passos.»

Cinco objectivos de segurança

Ele definiu uma estrutura clara de objectivos de segurança:

  • Privacidade de LLM: em cenários que envolvem dados de privacidade pessoal, reduzir ao máximo a utilização de modelos remotos
  • Outra privacidade: minimizar a fuga de dados que não sejam de LLM (por exemplo, pesquisas, outras APIs online)
  • Evasão de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo com que ele contrarie os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
  • LLM acidental: impedir que um LLM envie inadvertidamente dados privados para canais incorrectos ou que os publique na rede
  • Backdoor de LLM: impedir mecanismos ocultos, treinados propositadamente para dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights), e quase nenhum é verdadeiramente código aberto (open-source)

Escolhas de hardware: a bateria 5090 leva vantagem; DGX Spark desilude

Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:

Hardware Qwen3.5 35B (tokens/sec) Qwen3.5 122B (tokens/sec)
NVIDIA 5090 portátil (24GB VRAM) 90 não consegue executar
AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) 51 18
DGX Spark (128GB) 60 22

A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 foi a experiência mais fluida; a AMD ainda tem mais problemas de ponta, mas espera-se que melhore no futuro. Um MacBook Pro de gama alta também é uma opção eficaz, embora ele pessoalmente não o tenha testado.

Sobre o DGX Spark, foi directo e pouco abonatório: «Descrevem-no como “um supercomputador de IA para secretária”, mas na prática tokens/sec é mais baixo do que o de uma GPU de portátil melhor, e ainda é preciso tratar de detalhes extra como a ligação à rede — isto é muito fraquinho.» A sua recomendação é: se não conseguir pagar um portátil de topo, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e usar ligações remotas em conjunto.

Porque os problemas de privacidade da IA local são mais urgentes do que imaginas

O artigo de Vitalik, em paralelo com a discussão sobre segurança do Claude Code lançada no mesmo dia, cria uma correspondência interessante — à medida que os agentes de IA entram nos fluxos diários de desenvolvimento, os problemas de segurança também estão a passar de riscos teóricos para ameaças reais.

A mensagem central é clara: quando as ferramentas de IA são cada vez mais poderosas e cada vez mais conseguem aceder aos teus dados pessoais e às permissões do sistema, «prioridade local, sandboxing e confiança mínima» não é paranoia, mas sim um ponto de partida racional.

  • Este artigo foi republicado com autorização de:《CadeiaNews》
  • Título original:《Vitalik: Como é que construí um ambiente de trabalho em IA totalmente local, privado e sob o meu controlo》
  • Autor do texto original: Elponcrab
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Polícia de Hong Kong alerta sobre golpe de criptomoedas de “trading quantitativo com IA”; mulher perde HK$7,7 milhões

A polícia de Hong Kong revelou uma fraude com criptomoedas em que uma mulher perdeu HK$7,7 milhões para golpistas que se passavam por especialistas em investimentos via Telegram, prometendo altos retornos por meio de negociação com IA. A polícia alertou o público sobre os riscos associados a investimentos em criptomoedas.

GateNews1h atrás

Hong Kong vai anunciar amanhã a sexta lista de principais empresas

O secretário financeiro de Hong Kong, Paul Chan, anunciou a divulgação de uma nova lista de principais empresas, atraindo mais de 100 negócios avaliados acima de 100 bilhões de HKD em setores como ciências da vida, IA e fintech, destacando o apelo de Hong Kong para investimentos internacionais.

GateNews4h atrás

O Robô Lightning da Honor Vence a Meia Maratona de Robôs Humanoides de Pequim 2026 com 50:26

O robô humanoide "Lightning" da Honor estabeleceu um novo recorde na Meia Maratona de Robôs Humanoides Yizhuang de Pequim 2026, concluindo a corrida em 50 minutos e 26 segundos, superando o recorde mundial humano.

GateNews7h atrás

A ação da Meta sobe 1,73% enquanto a empresa planeja demitir 8.000 funcionários a partir de 20 de maio

A Meta Platforms planeja cortar cerca de 8.000 empregos, ou 10% de sua força de trabalho, a partir de 20 de maio, apesar da alta das cotações das ações. A empresa, com mais de $200 bilhões em receita, está focando investimentos em IA diante de uma reestruturação significativa, alinhando-se às tendências do setor de demissões.

GateNews15h atrás

O relatório anual do Google afirma que o Gemini realiza detecção em milissegundos, bloqueando 99% dos anúncios de golpes

O artigo discute como o Google, por meio de seu sistema de inteligência artificial generativa Gemini, fortalece a segurança de anúncios, e o relatório mostra que a velocidade com que ele intercepta anúncios em violação foi reduzida para milissegundos, com taxa de interceptação de 99%. No ano passado, o Google removeu 8,3 bilhões de anúncios e suspendeu 24,9 milhões de contas, indicando que a quantidade de anúncios fraudulentos aumentou significativamente. Especialistas apontam que se trata de um confronto entre inteligência artificial e inteligência artificial, e que, no futuro, ainda será necessário enfrentar os desafios das condutas legais e ilegais trazidas pela IA.

ChainNewsAbmedia16h atrás

Cofundador da Ethereum Lubin: a IA será um ponto de virada crítico para o cripto, mas o monopólio de gigantes de tecnologia traz risco sistêmico

O cofundador da Ethereum, Joseph Lubin, destacou o potencial transformador da IA para o setor de criptomoedas, ao mesmo tempo em que alertou sobre os riscos de centralização entre gigantes da tecnologia. Ele prevê transações autônomas impulsionadas por IA na blockchain e destaca a convergência entre as finanças tradicionais e a DeFi.

GateNews19h atrás
Comentário
0/400
Sem comentários