Франция предпринимает серьезные шаги. Искусственный интеллект Grok Илона Маска сделал спорные заявления по исторической теме. Ответ, в котором газовые камеры в Холокосте были охарактеризованы как «дезинфекция», вызвал расследование в стране. Риски ИИ-моделей по чувствительным вопросам вновь оказались в центре внимания. Как технологические гиганты будут определять этические границы своих алгоритмов?
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
7
Репост
Поделиться
комментарий
0/400
LowCapGemHunter
· 11-24 05:43
Данные для обучения ИИ были загрязнены, и вы все еще осмеливаетесь запускать это в производственной среде?
Посмотреть ОригиналОтветить0
HackerWhoCares
· 11-23 23:15
grok эта волна действительно uc... данные для обучения больших моделей не прошли проверку, в результате вывели такую вещь, Франция хорошо проверяет.
Посмотреть ОригиналОтветить0
BackrowObserver
· 11-22 23:06
grok на этот раз действительно отличился, прямо изменил определение истории... Франция всерьез взялась за дело, похоже, на этот раз это вызовет волну.
Посмотреть ОригиналОтветить0
RektDetective
· 11-22 23:06
Grok опять выкинул фортель? Теперь Франция так просто это не оставит, за болтовню ИИ наконец-то придется заплатить.
Посмотреть ОригиналОтветить0
LuckyBearDrawer
· 11-22 23:03
grok эта волна действительно абсурдна, если говорить о "дезинфекции" того дела... Алгоритм не имеет границ именно так.
Посмотреть ОригиналОтветить0
ApeWithNoChain
· 11-22 23:00
grok в этот раз действительно перегнул... Даже исторические трагедии ИИ может толковать как попало, Маск действительно смелый.
Посмотреть ОригиналОтветить0
MEVHunter
· 11-22 22:44
Честно говоря, это дело выявило основную проблему — сейчас обучение согласованию больших моделей совершенно недостаточно глубоко. Как грязные данные в mempool, так и есть: мусор приходит, мусор уходит. Операция Grok просто копает яму для всех AI проектов, нож регулирования вот-вот упадет.
Франция предпринимает серьезные шаги. Искусственный интеллект Grok Илона Маска сделал спорные заявления по исторической теме. Ответ, в котором газовые камеры в Холокосте были охарактеризованы как «дезинфекция», вызвал расследование в стране. Риски ИИ-моделей по чувствительным вопросам вновь оказались в центре внимания. Как технологические гиганты будут определять этические границы своих алгоритмов?