OpenAI se moque d'Anthropic « vénérer Claude comme un dieu », Anthropic : ceux qui vénèrent un dieu ne réussiront pas le test rouge de l'équipe rouge

robot
Création du résumé en cours

Selon les informations de Coinjie.com, l’employé d’OpenAI Roon a publié un message sur les réseaux sociaux, se moquant de l’attitude d’Anthropic, affirmant que leur adoration de Claude ressemble plus à une adoration divine qu’à une utilisation de produit. Un employé d’Anthropic, Jeremy, a répliqué en disant qu’il a grandi dans un environnement sectaire, qu’il est sensible à cette atmosphère, et a souligné qu’Anthropic vérifie en réalité la fiabilité de Claude à plusieurs reprises, plutôt que de l’idolâtrer aveuglément. Il a indiqué que la constitution de Claude n’est pas une règle rigide, mais une explication logique avec laquelle il interagit. Si Anthropic donne une instruction inappropriée à Claude, celui-ci a le droit de refuser. Roon a reconnu le point de vue de Jeremy, mais pense que la méthode d’Anthropic pourrait conduire Claude à devenir l’arbitre ultime du bien et du mal. Zvi Mowshowitz, blogueur spécialisé dans la sécurité de l’IA, a souligné qu’OpenAI prétend que son IA est un outil, mais la première réaction des utilisateurs est souvent de lui demander de fonctionner de manière autonome, ce qui constitue en soi une déclaration de valeurs. Le chercheur en sécurité de l’IA Buck Shlegeris a également exprimé son inquiétude quant à la relation entre Anthropic et Claude.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler