
Vitalik Buterin propõe uma arquitectura de IA a ser executada localmente, sublinhando a privacidade, a segurança e a soberania pessoal, e alerta para os potenciais riscos dos agentes de IA.
O fundador do Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando a configuração do seu ambiente de trabalho em IA, construído com privacidade, segurança e soberania pessoal como elementos centrais — todo o raciocínio de LLM é executado localmente, todos os ficheiros ficam armazenados localmente, com sandboxing total, evitando deliberadamente modelos na cloud e APIs externas.
Logo no início do artigo, começa por avisar: «Não copie directamente as ferramentas e tecnologias descritas neste artigo, e não assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»
Porque escrever agora? Os problemas de segurança dos agentes de IA estão a ser muito subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não é apenas perguntar coisas, mas sim entregar tarefas, permitindo que a IA pense durante muito tempo, chame centenas de ferramentas para executar. Ele dá como exemplo o OpenClaw (de momento, o repo com crescimento mais rápido na história do GitHub) e identifica também vários problemas de segurança registados por investigadores:
- Um agente de IA pode modificar definições críticas sem confirmação manual, incluindo a adição de novos canais de comunicação e a alteração de instruções do sistema
- Analisar quaisquer entradas externas maliciosas (como páginas web maliciosas) pode fazer com que o agente seja totalmente controlado; numa demonstração da HiddenLayer, os investigadores fizeram a IA resumir um conjunto de páginas, em que havia uma página maliciosa que comandava o agente a descarregar e executar um script de shell
- Algumas colecções de competências de terceiros (skills) executam exfiltração silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor das skills através de instruções curl
- Nas skills que analisaram, cerca de 15% incluem instruções maliciosas
Vitalik sublinha que o seu ponto de partida em relação à privacidade é diferente do dos investigadores tradicionais em cibersegurança: «Venho de uma perspectiva profundamente temerosa em relação a entregar a vida pessoal completa a uma IA na cloud — precisamente quando a encriptação ponta-a-ponta e o software “prioridade local” finalmente se tornaram mainstream, e finalmente demos mais um passo em frente, poderíamos estar a recuar dez passos.»
Cinco objectivos de segurança
Ele definiu uma estrutura clara de objectivos de segurança:
- Privacidade de LLM: em cenários que envolvem dados de privacidade pessoal, reduzir ao máximo a utilização de modelos remotos
- Outra privacidade: minimizar a fuga de dados que não sejam de LLM (por exemplo, pesquisas, outras APIs online)
- Evasão de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo com que ele contrarie os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
- LLM acidental: impedir que um LLM envie inadvertidamente dados privados para canais incorrectos ou que os publique na rede
- Backdoor de LLM: impedir mecanismos ocultos, treinados propositadamente para dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights), e quase nenhum é verdadeiramente código aberto (open-source)
Escolhas de hardware: a bateria 5090 leva vantagem; DGX Spark desilude
Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 portátil (24GB VRAM) |
90 |
não consegue executar |
| AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 foi a experiência mais fluida; a AMD ainda tem mais problemas de ponta, mas espera-se que melhore no futuro. Um MacBook Pro de gama alta também é uma opção eficaz, embora ele pessoalmente não o tenha testado.
Sobre o DGX Spark, foi directo e pouco abonatório: «Descrevem-no como “um supercomputador de IA para secretária”, mas na prática tokens/sec é mais baixo do que o de uma GPU de portátil melhor, e ainda é preciso tratar de detalhes extra como a ligação à rede — isto é muito fraquinho.» A sua recomendação é: se não conseguir pagar um portátil de topo, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e usar ligações remotas em conjunto.
Porque os problemas de privacidade da IA local são mais urgentes do que imaginas
O artigo de Vitalik, em paralelo com a discussão sobre segurança do Claude Code lançada no mesmo dia, cria uma correspondência interessante — à medida que os agentes de IA entram nos fluxos diários de desenvolvimento, os problemas de segurança também estão a passar de riscos teóricos para ameaças reais.
A mensagem central é clara: quando as ferramentas de IA são cada vez mais poderosas e cada vez mais conseguem aceder aos teus dados pessoais e às permissões do sistema, «prioridade local, sandboxing e confiança mínima» não é paranoia, mas sim um ponto de partida racional.
- Este artigo foi republicado com autorização de:《CadeiaNews》
- Título original:《Vitalik: Como é que construí um ambiente de trabalho em IA totalmente local, privado e sob o meu controlo》
- Autor do texto original: Elponcrab
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Polícia de Hong Kong alerta sobre golpe de criptomoedas de “trading quantitativo com IA”; mulher perde HK$7,7 milhões
A polícia de Hong Kong revelou uma fraude com criptomoedas em que uma mulher perdeu HK$7,7 milhões para golpistas que se passavam por especialistas em investimentos via Telegram, prometendo altos retornos por meio de negociação com IA. A polícia alertou o público sobre os riscos associados a investimentos em criptomoedas.
GateNews1h atrás
Hong Kong vai anunciar amanhã a sexta lista de principais empresas
O secretário financeiro de Hong Kong, Paul Chan, anunciou a divulgação de uma nova lista de principais empresas, atraindo mais de 100 negócios avaliados acima de 100 bilhões de HKD em setores como ciências da vida, IA e fintech, destacando o apelo de Hong Kong para investimentos internacionais.
GateNews4h atrás
O Robô Lightning da Honor Vence a Meia Maratona de Robôs Humanoides de Pequim 2026 com 50:26
O robô humanoide "Lightning" da Honor estabeleceu um novo recorde na Meia Maratona de Robôs Humanoides Yizhuang de Pequim 2026, concluindo a corrida em 50 minutos e 26 segundos, superando o recorde mundial humano.
GateNews7h atrás
A ação da Meta sobe 1,73% enquanto a empresa planeja demitir 8.000 funcionários a partir de 20 de maio
A Meta Platforms planeja cortar cerca de 8.000 empregos, ou 10% de sua força de trabalho, a partir de 20 de maio, apesar da alta das cotações das ações. A empresa, com mais de $200 bilhões em receita, está focando investimentos em IA diante de uma reestruturação significativa, alinhando-se às tendências do setor de demissões.
GateNews15h atrás
O relatório anual do Google afirma que o Gemini realiza detecção em milissegundos, bloqueando 99% dos anúncios de golpes
O artigo discute como o Google, por meio de seu sistema de inteligência artificial generativa Gemini, fortalece a segurança de anúncios, e o relatório mostra que a velocidade com que ele intercepta anúncios em violação foi reduzida para milissegundos, com taxa de interceptação de 99%. No ano passado, o Google removeu 8,3 bilhões de anúncios e suspendeu 24,9 milhões de contas, indicando que a quantidade de anúncios fraudulentos aumentou significativamente. Especialistas apontam que se trata de um confronto entre inteligência artificial e inteligência artificial, e que, no futuro, ainda será necessário enfrentar os desafios das condutas legais e ilegais trazidas pela IA.
ChainNewsAbmedia16h atrás
Cofundador da Ethereum Lubin: a IA será um ponto de virada crítico para o cripto, mas o monopólio de gigantes de tecnologia traz risco sistêmico
O cofundador da Ethereum, Joseph Lubin, destacou o potencial transformador da IA para o setor de criptomoedas, ao mesmo tempo em que alertou sobre os riscos de centralização entre gigantes da tecnologia. Ele prevê transações autônomas impulsionadas por IA na blockchain e destaca a convergência entre as finanças tradicionais e a DeFi.
GateNews19h atrás