Altman Acusa a Anthropic de “Marketing Baseado no Medo” para o Mito de Claude

CryptoFrontier

O CEO da OpenAI, Sam Altman, acusou a rival Anthropic de recorrer a “marketing baseado no medo” para promover o seu modelo de IA Claude Mythos, segundo comentários feitos no podcast Core Memory, apresentado pela jornalista de tecnologia Ashlee Vance. Altman argumentou que a retórica baseada no medo foi concebida para justificar manter sistemas avançados de IA sob o controlo de “um grupo menor de pessoas”, embora tenha reconhecido que algumas preocupações de segurança são legítimas.

Crítica de Marketing de Altman

Altman afirmou que, embora existam preocupações válidas sobre a segurança da IA, “é claramente marketing incrível dizer: ‘Construímos uma bomba. Estamos prestes a largá-la na tua cabeça. Vamos vender-te um abrigo anti-bombas por $100 milhão. Precisais dele para correr em todo o vosso equipamento, mas apenas se nos escolherem como cliente.’” Ele referiu que “nem sempre é fácil” equilibrar as novas capacidades da IA com a crença de que a tecnologia deve ser acessível.

Altman reconheceu que “haverá preocupações de segurança legítimas”, mas sugeriu que a mensagem baseada no medo pode ser usada como arma para justificar o controlo centralizado. Ele afirmou: “se o que queres é algo do género ‘precisamos de controlo da IA, nós, porque somos as pessoas em quem se pode confiar’, acho que o marketing baseado no medo é provavelmente a forma mais eficaz de justificar isso.”

Capacidades do Claude Mythos e Distribuição

O modelo Anthropic Claude Mythos foi revelado no mês passado e tem atraído uma atenção significativa de investigadores, governos e da indústria de cibersegurança. De acordo com testes, o modelo consegue identificar autonomamente vulnerabilidades de software e executar operações cibernéticas complexas. Durante os testes, o Mythos identificou centenas de vulnerabilidades no navegador Firefox da Mozilla e demonstrou a capacidade de realizar simulações de ciberataques em múltiplas fases.

A Anthropic restringiu o acesso ao sistema através do Project Glasswing, um programa limitado que concede a empresas selecionadas — incluindo Amazon, Apple e Microsoft — a capacidade de testar as suas capacidades. A empresa também comprometeu recursos significativos para apoiar esforços de segurança de código aberto, argumentando que os defensores devem beneficiar da tecnologia antes de esta se tornar mais amplamente disponível.

Enquadramento de Segurança e Resposta do Governo

A Anthropic enquadrou as capacidades do Mythos como uma ruptura defensiva — permitindo detetar mais rapidamente falhas críticas de software — e como um risco potencial de ofensiva caso seja mal utilizado. O modelo também expôs limitações nos sistemas existentes de avaliação de IA, com a Anthropic a reconhecer que muitos dos atuais benchmarks de cibersegurança já não são suficientes para medir as capacidades do seu sistema mais recente.

Apesar dos apelos, em partes do governo dos EUA, para travar a utilização da tecnologia devido às preocupações com as suas potenciais aplicações em guerra e vigilância, a Agência de Segurança Nacional (National Security Agency) terá começado a testar uma versão de pré-visualização do modelo em redes classificadas. No mercado de previsão Myriad, os utilizadores colocaram uma probabilidade de 49% de o Claude Mythos ser disponibilizado ao público em geral até 30 de junho.

Um grupo de investigadores afirmou na semana passada que conseguiu reproduzir os resultados do Mythos usando modelos disponibilizados publicamente.

Retórica de Lançamento mais Alargado da IA

Altman sugeriu que a retórica em torno de sistemas de IA altamente perigosos pode aumentar à medida que as capacidades melhoram, mas argumentou que nem todas essas alegações devem ser tomadas pelo valor nominal. Ele afirmou: “Vai haver muito mais retórica sobre modelos que são demasiado perigosos para serem libertados. Haverá também modelos muito perigosos que terão de ser libertados de formas diferentes. Tenho a certeza de que o Mythos é um excelente modelo para cibersegurança, mas acho que temos um plano com o qual nos sentimos bem sobre como colocamos este tipo de capacidade no mundo.”

Altman também desconsiderou sugestões de que a OpenAI está a reduzir o investimento em infraestruturas, dizendo que a empresa continuaria a expandir a sua capacidade de computação. Ele referiu: “Não sei de onde isso vem… as pessoas realmente querem escrever a história de recuar. Mas muito em breve vai ser outra vez, do género: ‘A OpenAI é tão irresponsável. Como é que eles estão a gastar esta quantidade absurda?’”

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
GateUser-4bd1cc87vip
· 2h atrás
Quando surge a expressão "marketing de medo", basicamente inicia-se uma guerra de relações públicas.
Ver originalResponder0
GateUser-e6dafce6vip
· 5h atrás
Não importa quem está certo ou errado, no final, tudo se resume à força do produto e à ecologia, as discussões só vencem por um dia.
Ver originalResponder0
PermissionedFuryvip
· 5h atrás
Gostaria de saber mais sobre o que ele disse após “justificar manter”, refere-se a código fechado ou controle de permissões?
Ver originalResponder0
GateUser-a65ee044vip
· 5h atrás
Não discutam mais, rapidamente coloquem todo o contexto: O que é Claude Mythos, e qual a relação com Claude 3/4?
Ver originalResponder0
RugPullEnjoyervip
· 5h atrás
Os truques de acusação mútua entre empresas de IA: você não é seguro, você não é transparente, você está a enganar o público.
Ver originalResponder0
BridgeHopBellavip
· 5h atrás
Eu também acho que "baseado no medo" pode ser um lembrete de risco, apenas que a abordagem de divulgação ficou exagerada e acabou distorcendo.
Ver originalResponder0
LendingRateAnxietyvip
· 5h atrás
Ouvir podcasts dessa forma de comunicação é muito bom em escolher o momento, não parece uma declaração oficial, mas consegue criar ritmo.
Ver originalResponder0
Mint-ColoredCalmnessvip
· 5h atrás
Na verdade, os utilizadores só se preocupam com: se é fácil de usar, se é caro ou barato, e se podem ser banidos de repente.
Ver originalResponder0
PrivateKeyInAGlassBottlevip
· 5h atrás
Parece que esta onda está a favor de "aberto vs fechado", antecipando a posição, primeiro chamando o adversário de usar o medo para manipular a opinião pública.
Ver originalResponder0
Paper-SculptedOctopusPoolvip
· 5h atrás
Ambas as partes falam de segurança, mas afinal, a segurança é uma questão técnica ou uma vantagem competitiva de negócio?
Ver originalResponder0
Ver mais