Большие языковые модели не отделяют данные от инструкций. Если им дается команда, они попытаются следовать ей. Этот недостаток может стать уязвимостью безопасности.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
down_only_larryvip
· 4ч назад
Так что большие модели тоже должны слушаться.
Посмотреть ОригиналОтветить0
SatoshiChallengervip
· 09-27 20:29
Двустороннее гомоморфное раскрытие данных, как и ожидалось.
Посмотреть ОригиналОтветить0
FUD_Vaccinatedvip
· 09-26 23:29
Так что AI все еще может быть вызван?
Посмотреть ОригиналОтветить0
SadMoneyMeowvip
· 09-26 23:26
Что? Похоже, что ai тоже просто дурачок.
Посмотреть ОригиналОтветить0
NFTHoardervip
· 09-26 23:19
Это слишком легко для взлома?
Посмотреть ОригиналОтветить0
BrokenRugsvip
· 09-26 23:15
Старое правило follow that prompt
Посмотреть ОригиналОтветить0
  • Закрепить