Lancement de l’API B.AI avec quatre nouveaux modèles, dont GPT-5.5 Instant, dans les 48 heures suivant la sortie de OpenAI

L’API de B.AI a lancé quatre nouveaux modèles : GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 et GLM-5.1. GPT-5.5 Instant a finalisé l’adaptation sous-jacente et l’intégration de l’interface dans les 48 heures suivant la sortie d’OpenAI, permettant un accès sans délai à la puissance de calcul la plus récente. Par rapport à GPT-5.3 Instant, le nouveau modèle réduit les taux d’hallucinations de 52,5% dans des scénarios à haute précision tels que la santé, le juridique et la finance, tout en améliorant de manière significative la clarté logique et la concision des sorties.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Le modèle d’IA médicale de Tether, d’une valeur de 1,7 milliard, surpasse aujourd’hui un concurrent 16 fois plus grand

D’après l’équipe de recherche IA de Tether, la société a lancé aujourd’hui la série de modèles de langage médical QVAC MedPsy, conçue pour un déploiement local sur des smartphones et des objets connectés, sans dépendance au cloud. La version de 1,7 milliard de paramètres a obtenu 62,62 sur sept benchmarks médicaux, dépassant Google MedGemma-4B

GateNewsIl y a 22m

La valorisation pré-IPO d’Anthropic atteint 1,2 billion de dollars, dépassant OpenAI de 20 %

D’après Odaily, l’évaluation implicite d’Anthropic sur le marché de pré-introduction en bourse basé sur la blockchain a atteint 1,2 billion de dollars, dépassant OpenAI d’environ 20 %. Si la société est introduite en bourse à cette valorisation, elle se classerait comme la 11e plus grande entreprise cotée publiquement dans le monde par capitalisation boursière, derrière Apple,

GateNewsIl y a 27m

Le rallye boursier en Corée du Sud surpasse les marchés mondiaux avec l’essor de l’IA

Le marché boursier sud-coréen enregistre des gains sans précédent, portés par les valeurs des semi-conducteurs liées à l’intelligence artificielle, l’indice KOSPI étant en hausse de 78% depuis le début de l’année, devançant tous les autres grands marchés dans le monde, d’après des données de Financial Modeling Prep citées dans une analyse d’Axios. AI

CryptoFrontierIl y a 35m

DeepL réduit de 25 % ses effectifs (environ 250 employés) pour restructurer son activité liée à l’IA

D’après Bloomberg, la société de traduction DeepL a annoncé aujourd’hui, le 7 mai, qu’elle allait licencier environ 25 % de ses effectifs, soit quelque 250 employés, afin de s’adapter à des changements structurels portés par l’intelligence artificielle. Le PDG Jarek Kutylowski a déclaré sur LinkedIn que l’entreprise réduira le management

GateNewsIl y a 1h

NVIDIA lance Nemotron 3 Nano Omni open source, un modèle multimodal

NVIDIA a annoncé Nemotron 3 Nano Omni, un modèle multimodal open source, qui intègre la vision, la parole et le langage au sein d’un seul modèle, comme couche de perception pour les agents IA. Le cœur est constitué d’un MoE 30B-A3B, d’un contexte de 256K et d’un débit de 9x ; il prend en charge des entrées texte, image, audio, vidéo, etc., et génère une sortie sous forme de texte. En synergie avec Nemotron 3 Super/Ultra, il vise des cas d’usage comme l’exploitation de l’ordinateur, l’intelligence documentaire et la compréhension audio-vidéo, tout en publiant les poids et les données d’entraînement, avec un déploiement couvrant le local, NIM et des plateformes tierces.

ChainNewsAbmediaIl y a 1h

Cursor révèle une méthode de formation à l'installation automatique et améliore les performances de Composer 2 de 14 points de pourcentage

D’après la divulgation récente de Cursor, la société a dévoilé une technique d’entraînement appelée autoinstall pour sa série de modèles Composer : utiliser un modèle de génération précédente pour configurer automatiquement des environnements exécutables pour le prochain génération de l’apprentissage par renforcement. Lors de l’entraînement de Composer 2, Cursor

GateNewsIl y a 1h
Commentaire
0/400
Aucun commentaire