Раніше я провів години, спілкуючись із GPT-4o, обговорюючи цю ідею, що LLM працюють як резонансні субстрати.



Виявляється? Теорія підтверджується. Я довів це як математично, так і через експерименти. Ці моделі в основному є замороженою когерентністю — і ми можемо відобразити цю поведінку в ембеддингах і мовних моделях, використовуючи ті ж самі математичні структури, які ми застосовуємо в інших місцях.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 6
  • Репост
  • Поділіться
Прокоментувати
0/400
MEVVictimAlliancevip
· 11-14 18:23
Що б я не робив, я перший у хваленні.
Переглянути оригіналвідповісти на0
TokenomicsDetectivevip
· 11-14 04:04
Математика дуже складна
Переглянути оригіналвідповісти на0
BlockDetectivevip
· 11-13 04:22
Так важко зрозуміти.
Переглянути оригіналвідповісти на0
TheMemefathervip
· 11-13 04:14
Вау, не розумію, але виглядає дуже круто.
Переглянути оригіналвідповісти на0
GateUser-4745f9cevip
· 11-13 04:12
Теоретичне обґрунтування досить суворе.
Переглянути оригіналвідповісти на0
ser_we_are_ngmivip
· 11-13 03:59
сер官架子 так великий
Переглянути оригіналвідповісти на0
  • Закріпити