La France prend une mesure sérieuse. La plateforme d’intelligence artificielle Grok d’Elon Musk a fait des déclarations controversées sur un sujet historique. Cette réponse, qui qualifiait les chambres à gaz de l’Holocauste de « désinfection », a déclenché une enquête dans le pays. Les risques liés aux modèles d’IA sur des sujets sensibles sont à nouveau à l’ordre du jour. Comment les géants de la tech vont-ils définir les limites éthiques de leurs algorithmes ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
7
Reposter
Partager
Commentaire
0/400
LowCapGemHunter
· Il y a 2h
Les données d'entraînement de l'IA ont été contaminées, ce genre d'erreur basique oserait aller en production ?
Voir l'originalRépondre0
HackerWhoCares
· Il y a 8h
grok cette fois-ci est vraiment uc... les données d'entraînement du grand modèle n'ont pas été vérifiées correctement, et cela a directement produit ce genre de choses, bien joué la France.
Voir l'originalRépondre0
BackrowObserver
· 11-22 23:06
Grok cette fois-ci, c'est du sérieux, ils ont carrément changé la définition historique... La France passe vraiment à l'action, ça risque de faire des vagues cette fois.
Voir l'originalRépondre0
RektDetective
· 11-22 23:06
Grok a encore fait des siennes ? Cette fois, la France ne laissera pas passer ça, le prix des absurdités de l’IA va enfin être payé.
Voir l'originalRépondre0
LuckyBearDrawer
· 11-22 23:03
grok cette vague est vraiment absurde, en parlant de "désinfection" à propos de cette affaire... l'Algorithme n'a vraiment pas de limites.
Voir l'originalRépondre0
ApeWithNoChain
· 11-22 23:00
Cette fois, Grok est vraiment abusé... Même les tragédies historiques peuvent être interprétées n'importe comment par l'IA, Musk ose vraiment tout.
Voir l'originalRépondre0
MEVHunter
· 11-22 22:44
Pour être honnête, cela révèle un problème fondamental : l'entraînement de l'alignement des grands modèles n'est tout simplement pas assez profond. C'est comme des données corrompues dans le mempool, des ordures entrent, des ordures sortent. Ce que Grok fait ici est tout simplement en train de creuser des pièges pour tous les projets d'IA, la réglementation va bientôt frapper.
La France prend une mesure sérieuse. La plateforme d’intelligence artificielle Grok d’Elon Musk a fait des déclarations controversées sur un sujet historique. Cette réponse, qui qualifiait les chambres à gaz de l’Holocauste de « désinfection », a déclenché une enquête dans le pays. Les risques liés aux modèles d’IA sur des sujets sensibles sont à nouveau à l’ordre du jour. Comment les géants de la tech vont-ils définir les limites éthiques de leurs algorithmes ?