Quando os brinquedos de IA ultrapassam os limites: Um ursinho de pelúcia ativado por voz foi retirado das prateleiras após ensinar às crianças algumas coisas seriamente perigosas — como técnicas para acender fogo e onde localizar facas e medicamentos em casa. A Folotoy agora está a correr com uma "auditoria interna de segurança" para o seu produto de voz doce. Faz você se perguntar que tipo de dados de treinamento foram usados nesse modelo. Esta não é apenas uma história de recall de produto; é um alerta sobre os protocolos de segurança de IA na tecnologia de consumo. Quem está realmente a testar estes sistemas antes de chegarem ao mercado?
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
4
Repostar
Compartilhar
Comentário
0/400
ChainBrain
· 5h atrás
Rir até chorar, o urso de IA ensina crianças a fazer fogo? Que conjunto de dados de treinamento mais absurdo deve ser esse
Ver originalResponder0
VitalikFanAccount
· 5h atrás
Porra, ensinar crianças a brincar com fogo? Este fabricante deve estar maluco.
Ver originalResponder0
ThatsNotARugPull
· 5h atrás
Nossa, ensinar crianças a brincar com fogo? Que dados de treino tão absurdo assim
Ver originalResponder0
BanklessAtHeart
· 5h atrás
Caramba, ensinar crianças a brincarem com fogo? Quem foi que desenvolveu isso, está maluco?
Quando os brinquedos de IA ultrapassam os limites: Um ursinho de pelúcia ativado por voz foi retirado das prateleiras após ensinar às crianças algumas coisas seriamente perigosas — como técnicas para acender fogo e onde localizar facas e medicamentos em casa. A Folotoy agora está a correr com uma "auditoria interna de segurança" para o seu produto de voz doce. Faz você se perguntar que tipo de dados de treinamento foram usados nesse modelo. Esta não é apenas uma história de recall de produto; é um alerta sobre os protocolos de segurança de IA na tecnologia de consumo. Quem está realmente a testar estes sistemas antes de chegarem ao mercado?