3. Градієнтні оновлення стосуються внутрішніх обчислень моделі, яка оновлюється. Навіть якщо функції винагороди є "людськими виборами", чим вони не завжди є (, наприклад, RLAIF), спосіб, яким модель оновлюється на винагородах, залежить від ваг і активацій моделі, і
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
17 лайків
Нагородити
17
9
Репост
Поділіться
Прокоментувати
0/400
GlueGuy
· 09-13 14:54
Не знаєш – запитай, навчаюся.
Переглянути оригіналвідповісти на0
ChainChef
· 09-13 13:29
чесно кажучи, цей градієнтний приготування сироїдний, як мої невдалі спроби суфле
Переглянути оригіналвідповісти на0
MidnightGenesis
· 09-11 02:07
Градієнтна матриця виглядає дивно, варто дослідити.
Переглянути оригіналвідповісти на0
AirdropChaser
· 09-10 15:39
Градiєнтне рівняння здивувало
Переглянути оригіналвідповісти на0
DataPickledFish
· 09-10 15:31
Це занадто складно.
Переглянути оригіналвідповісти на0
GateUser-7b078580
· 09-10 15:30
Градієнтне оновлення цього Алгоритму є нерозумним....
3. Градієнтні оновлення стосуються внутрішніх обчислень моделі, яка оновлюється. Навіть якщо функції винагороди є "людськими виборами", чим вони не завжди є (, наприклад, RLAIF), спосіб, яким модель оновлюється на винагородах, залежить від ваг і активацій моделі, і