Отсканируйте, чтобы загрузить приложение Gate
qrCode
Больше вариантов загрузки
Не напоминай мне больше сегодня.

Дорогие друзья, добрый день! Сегодня хочу поделиться с вами своими настоящими ощущениями с момента входа в крипто-сообщество.



Когда я только начал, каждый день был полон тревоги, очень хотелось как можно скорее встроиться, но процесс был довольно сложным. Однако я считаю себя везучим — как раз вовремя попал на волну роста мемов, что стало для меня небольшим удачным моментом.

Но сталкиваясь со множеством проектов, приходилось самостоятельно изучать белые книги, искать информацию о партнёрах и финансировании. Иногда, перелистывая страницы, не удавалось найти ключевые детали, и это было довольно неприятно. Тогда я решил воспользоваться AI-инструментами.

Однако при использовании AI для поиска профессиональных отраслевых вопросов или данных я столкнулся с серьёзной проблемой — ответы казались логичными и аргументированными, но позже, проверяя их, обнаружил, что многие сведения были ошибочными!

▪️ Это то, что обычно называют «галлюцинациями» AI.

На самом деле современный AI похож на отличника, который не любит хорошо заучивать материал: он быстро пишет отчёты и делает анализы, выглядят они впечатляюще, но часто допускает две критические ошибки:
- либо он пишет неправду (то есть галлюцинации, например, выдумывает цитаты или фальшивые данные),
- либо он содержит скрытые предубеждения.

Это создает замкнутый порочный круг:
Обучение на одних качественных данных помогает снизить «бредовые» ответы, но при этом AI склонен к предвзятости и неполной картине мира.

Если же пытаться сделать его объективным и нейтральным, добавляя разные данные, есть риск обучить его неправильной информации.

В конечном итоге, проблема кроется в самой модели обучения AI — просто увеличивая объём данных и параметры модели, решить её невозможно.

Поэтому даже самый мощный AI сейчас в основном используют для написания текстов и поиска базовых данных. В критичных сферах, таких как финансы, образование или юриспруденция, никто не доверяет полностью его результатам.

Несколько месяцев назад я наткнулся на @miranetwork и понял, что действительно есть проекты, специально решающие эту проблему.

Mira — это не новая модель AI, а система «проверки вывода AI». Она как бы оснащает каждое высказывание AI «многопользовательской группой проверки», причём эти проверяющие не знакомы друг с другом и не могут сговориться, что помогает эффективно решать проблему.

Главная цель Mira — сделать так, чтобы каждое слово AI могло выдержать «жёсткую проверку».
#Mira
Посмотреть Оригинал
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить