Gateアプリをダウンロードするにはスキャンしてください
qrCode
その他のダウンロードオプション
今日はこれ以上表示しない

フランスが本格的な行動に出ています。マスクのAIプラットフォーム「Grok」が歴史的なテーマで物議を醸す発言をしました。ホロコーストのガス室を「消毒」と表現したこの回答が、同国で捜査のきっかけとなりました。AIモデルにおけるセンシティブな問題のリスクが改めて注目されています。テック大手はアルゴリズムの倫理的な境界線をどのように定めるのでしょうか?

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
0/400
HackerWhoCaresvip
· 3時間前
grokは本当にucした...大規模モデルのトレーニングデータが適切に管理されていなかった結果、こんなものを直接出力してしまった、フランスはよく調査したね
原文表示返信0
BackrowObservervip
· 11-22 23:06
grok今回は本当にやばい、いきなり歴史の定義を変えた...フランスが本気を出してきたな、今回は波紋を呼びそうだ
原文表示返信0
RektDetectivevip
· 11-22 23:06
Grokがまたトラブルを起こした?今度こそフランスは黙っていないだろう、AIのデタラメの代償をついに払う時が来た
原文表示返信0
LuckyBearDrawervip
· 11-22 23:03
grokこの波は本当にひどい、"消毒"を使ってそのことを言うと...アルゴリズムには限界がないということはこういうことだ
原文表示返信0
ApeWithNoChainvip
· 11-22 23:00
grokこの件は本当にありえない…歴史的な悲劇さえAIがでたらめに解釈してしまうし、マスクは本当によくやるよな
原文表示返信0
MEVHuntervip
· 11-22 22:44
正直なところ、この問題は根本的な問題を暴露しています——現在の大規模モデルのアライメントトレーニングは全くデプスが足りません。まるでmempoolの中の汚いデータのように、ゴミが入ればゴミが出る。Grokのこの動きは、すべてのAIプロジェクトに穴を掘っているようなものです。規制の刃が迫っています。
原文表示返信0
  • ピン