A Public Citizen publicou novas provas mostrando que o Grok cita sites neo-nazis e nacionalistas brancos como fontes credíveis.
O grupo enviou cartas ao Gabinete de Gestão e Orçamento, apelando à suspensão do uso federal, e afirmou não ter obtido resposta.
Defensores afirmaram que o comportamento do Grok e os seus dados de treino o tornam inadequado para implementação federal, à medida que a xAI expandia contratos governamentais.
Hub de Arte, Moda e Entretenimento da Decrypt.
Descobre a SCENE
A Public Citizen, uma organização sem fins lucrativos de defesa do consumidor, intensificou na sexta-feira os seus alertas sobre a Grok AI de Elon Musk após publicar novas provas mostrando que o chatbot citou sites neo-nazis e nacionalistas brancos como fontes credíveis.
O grupo afirmou que este comportamento deveria desqualificar o Grok para qualquer uso federal e renovou os apelos ao Gabinete de Gestão e Orçamento dos EUA para intervir após meses sem resposta.
Citando um estudo recente da Universidade de Cornell, a Public Citizen disse que a Grokipedia, a nova alternativa à Wikipedia alimentada por IA lançada por Musk em outubro, repetidamente destacou domínios extremistas, incluindo o Stormfront, reforçando preocupações anteriores que surgiram depois de o modelo se ter autodenominado “MechaHitler” na plataforma X de Musk em julho.
As conclusões sublinharam o que os defensores descreveram como um padrão de comportamento racista, antissemita e conspiracionista.
“O Grok tem demonstrado um historial repetido destes colapsos, seja um colapso antissemita ou racista, um colapso alimentado por teorias da conspiração”, disse J.B. Branch, defensor da responsabilização das big-techs na Public Citizen, à Decrypt.
O novo alerta seguiu-se a cartas que a Public Citizen e outros 24 grupos de direitos civis, direitos digitais, ambientais e de proteção do consumidor enviaram ao OMB em agosto e outubro, apelando à agência para suspender a disponibilidade do Grok para departamentos federais através da sua Administração de Serviços Gerais, que gere propriedades e aquisições federais. O grupo disse que não obteve qualquer resposta a nenhum dos contactos.
Apesar dos incidentes recorrentes, o alcance do Grok dentro do governo aumentou no último ano. Em julho, a xAI garantiu um contrato de $200 milhões com o Pentágono, e a Administração de Serviços Gerais disponibilizou depois o modelo em todas as agências federais, juntamente com Gemini, Meta AI, ChatGPT e Claude. A adição ocorreu numa altura em que o Presidente dos EUA, Donald Trump, ordenou a proibição de “IA woke” em contratos federais.
Os defensores afirmaram que estes desenvolvimentos aumentaram a necessidade de escrutínio, especialmente à medida que se acumulavam questões sobre os dados de treino e a fiabilidade do Grok.
“O Grok estava inicialmente limitado ao Departamento de Defesa, o que já era alarmante dado a quantidade de dados sensíveis que o departamento detém”, disse Branch. “Expandir para o resto do governo federal levantou um alarme ainda maior.”
Branch afirmou que o comportamento do Grok resulta em parte dos seus dados de treino e das escolhas de design feitas nas empresas de Musk.
“Há uma diferença notória de qualidade entre o Grok e outros modelos de linguagem, e parte disso vem dos seus dados de treino, que incluem o X”, disse. “O Musk afirmou que queria que o Grok fosse uma alternativa anti-woke, e isso reflete-se nos resultados virulentos.”
Branch levantou ainda preocupações sobre o uso potencial do modelo na avaliação de candidaturas federais ou na interação com registos pessoais sensíveis.
“Há um desalinhamento de valores entre aquilo que a América representa e o tipo de coisas que o Grok diz”, afirmou. “Se és judeu e estás a candidatar-te a um empréstimo federal, queres que um chatbot antissemita possa considerar a tua candidatura? Claro que não.”
Branch disse que o caso do Grok expôs lacunas na supervisão federal de sistemas de IA emergentes, acrescentando que os responsáveis governamentais poderiam agir e remover o Grok do calendário de contratos da Administração de Serviços Gerais a qualquer momento—se assim o decidissem.
“Se conseguem mobilizar tropas da Guarda Nacional em todo o país num instante, certamente conseguem desativar um chatbot com função API num dia”, afirmou.
A xAI não respondeu a um pedido de comentário da Decrypt.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Grupo pede a agência federal que suspenda o uso da IA Grok de Elon Musk devido a preocupações com racismo
Em resumo
Hub de Arte, Moda e Entretenimento da Decrypt.
Descobre a SCENE
A Public Citizen, uma organização sem fins lucrativos de defesa do consumidor, intensificou na sexta-feira os seus alertas sobre a Grok AI de Elon Musk após publicar novas provas mostrando que o chatbot citou sites neo-nazis e nacionalistas brancos como fontes credíveis.
O grupo afirmou que este comportamento deveria desqualificar o Grok para qualquer uso federal e renovou os apelos ao Gabinete de Gestão e Orçamento dos EUA para intervir após meses sem resposta.
Citando um estudo recente da Universidade de Cornell, a Public Citizen disse que a Grokipedia, a nova alternativa à Wikipedia alimentada por IA lançada por Musk em outubro, repetidamente destacou domínios extremistas, incluindo o Stormfront, reforçando preocupações anteriores que surgiram depois de o modelo se ter autodenominado “MechaHitler” na plataforma X de Musk em julho.
As conclusões sublinharam o que os defensores descreveram como um padrão de comportamento racista, antissemita e conspiracionista.
“O Grok tem demonstrado um historial repetido destes colapsos, seja um colapso antissemita ou racista, um colapso alimentado por teorias da conspiração”, disse J.B. Branch, defensor da responsabilização das big-techs na Public Citizen, à Decrypt.
O novo alerta seguiu-se a cartas que a Public Citizen e outros 24 grupos de direitos civis, direitos digitais, ambientais e de proteção do consumidor enviaram ao OMB em agosto e outubro, apelando à agência para suspender a disponibilidade do Grok para departamentos federais através da sua Administração de Serviços Gerais, que gere propriedades e aquisições federais. O grupo disse que não obteve qualquer resposta a nenhum dos contactos.
Apesar dos incidentes recorrentes, o alcance do Grok dentro do governo aumentou no último ano. Em julho, a xAI garantiu um contrato de $200 milhões com o Pentágono, e a Administração de Serviços Gerais disponibilizou depois o modelo em todas as agências federais, juntamente com Gemini, Meta AI, ChatGPT e Claude. A adição ocorreu numa altura em que o Presidente dos EUA, Donald Trump, ordenou a proibição de “IA woke” em contratos federais.
Os defensores afirmaram que estes desenvolvimentos aumentaram a necessidade de escrutínio, especialmente à medida que se acumulavam questões sobre os dados de treino e a fiabilidade do Grok.
“O Grok estava inicialmente limitado ao Departamento de Defesa, o que já era alarmante dado a quantidade de dados sensíveis que o departamento detém”, disse Branch. “Expandir para o resto do governo federal levantou um alarme ainda maior.”
Branch afirmou que o comportamento do Grok resulta em parte dos seus dados de treino e das escolhas de design feitas nas empresas de Musk.
“Há uma diferença notória de qualidade entre o Grok e outros modelos de linguagem, e parte disso vem dos seus dados de treino, que incluem o X”, disse. “O Musk afirmou que queria que o Grok fosse uma alternativa anti-woke, e isso reflete-se nos resultados virulentos.”
Branch levantou ainda preocupações sobre o uso potencial do modelo na avaliação de candidaturas federais ou na interação com registos pessoais sensíveis.
“Há um desalinhamento de valores entre aquilo que a América representa e o tipo de coisas que o Grok diz”, afirmou. “Se és judeu e estás a candidatar-te a um empréstimo federal, queres que um chatbot antissemita possa considerar a tua candidatura? Claro que não.”
Branch disse que o caso do Grok expôs lacunas na supervisão federal de sistemas de IA emergentes, acrescentando que os responsáveis governamentais poderiam agir e remover o Grok do calendário de contratos da Administração de Serviços Gerais a qualquer momento—se assim o decidissem.
“Se conseguem mobilizar tropas da Guarda Nacional em todo o país num instante, certamente conseguem desativar um chatbot com função API num dia”, afirmou.
A xAI não respondeu a um pedido de comentário da Decrypt.