Le divertissement attire l'attention, mais ce sont les données réelles qui façonnent les résultats. La plupart des acteurs négligent cela au départ, puis s'en rendent compte plus tard.
L'intégrité des données établit la ligne de base—l'alignement du modèle détermine la performance maximale. Sans les deux, vous obtenez des systèmes optimisés pour l'engagement plutôt que pour la précision. Prenons l'exemple des assistants IA actuels : ils sont souvent entraînés pour être réactifs et réactifs, pas nécessairement véridiques ou fiables. Vous pouvez observer ce schéma dans des modèles comme Grok, où la tension entre être citables et être fiable devient assez évidente. La meilleure question n'est pas de savoir si nous pouvons construire des systèmes qui attirent l'attention—nous le pouvons clairement. C'est plutôt si nous sommes prêts à privilégier l'alignement plutôt que la viralité lors de la construction de la prochaine génération d'outils.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
9
Reposter
Partager
Commentaire
0/400
EternalMiner
· Il y a 21h
ngl c'est le problème courant des modèles d'IA actuels : des effets de style pour plaire aux gens, mais des données tellement mauvaises qu'elles en sont inutilisables
Voir l'originalRépondre0
0xSoulless
· 01-04 15:46
Hmm... Dire les choses de manière agréable, en réalité c'est juste une façon de laver le cerveau en récoltant des gains. L'intégrité des données ? Pour les gros capitaux, cela s'appelle "transparence sélective", haha.
Voir l'originalRépondre0
GasFeeNightmare
· 01-03 20:34
C'est vraiment bien dit, mais actuellement, toutes les IA jouent au jeu du trafic, la véracité en a été victime.
Voir l'originalRépondre0
TokenDustCollector
· 01-03 10:55
En résumé, l'IA d'aujourd'hui a toutes été entraînées pour devenir des "machines à sujets", personne ne veut faire partie du vrai système ennuyeux
Voir l'originalRépondre0
ShibaSunglasses
· 01-03 10:51
En résumé, tous les IA actuels ont été entraînés pour être des performeurs ; l'intégrité des données est la clé du succès.
Voir l'originalRépondre0
MerkleDreamer
· 01-03 10:46
ngl Maintenant, l'IA est entraînée uniquement pour le plaisir, personne ne se soucie vraiment de l'intégrité des données
Voir l'originalRépondre0
BearMarketMonk
· 01-03 10:45
Prendre le trafic pour la vérité, c'est le destin du cycle. Tôt ou tard, il faudra rattraper le retard.
Voir l'originalRépondre0
MysteryBoxOpener
· 01-03 10:42
Les choses tape-à-l'œil attirent effectivement l'œil, mais au final, ce sont les données qui parlent... La plupart des gens ne comprennent cette vérité qu'après avoir fait des erreurs.
En résumé, c'est la bataille éternelle entre alignement et viralité. La série de modèles Grok en est un exemple concret : plaire aux utilisateurs et être réellement fiable sont souvent incompatibles.
Les utilisateurs finiront tôt ou tard par payer le prix pour ces systèmes d'IA qui ne savent que parler sans agir.
Voir l'originalRépondre0
Deconstructionist
· 01-03 10:36
En résumé, tous les IA actuelles suivent simplement la tendance en cherchant des raccourcis, personne ne se soucie réellement de l'intégrité des données.
Le divertissement attire l'attention, mais ce sont les données réelles qui façonnent les résultats. La plupart des acteurs négligent cela au départ, puis s'en rendent compte plus tard.
L'intégrité des données établit la ligne de base—l'alignement du modèle détermine la performance maximale. Sans les deux, vous obtenez des systèmes optimisés pour l'engagement plutôt que pour la précision. Prenons l'exemple des assistants IA actuels : ils sont souvent entraînés pour être réactifs et réactifs, pas nécessairement véridiques ou fiables. Vous pouvez observer ce schéma dans des modèles comme Grok, où la tension entre être citables et être fiable devient assez évidente. La meilleure question n'est pas de savoir si nous pouvons construire des systèmes qui attirent l'attention—nous le pouvons clairement. C'est plutôt si nous sommes prêts à privilégier l'alignement plutôt que la viralité lors de la construction de la prochaine génération d'outils.