Ant Group a publié en open source le modèle multimodal complet Ming-Flash-Omni 2.0, le premier modèle de génération audio unifié pour tous les scénarios dans l’industrie. Il peut générer simultanément la parole, les effets sonores ambiants et la musique sur une même piste audio. Les utilisateurs peuvent donner des instructions en langage naturel pour contrôler la tonalité, la vitesse, l’intonation, le volume, l’émotion et le dialecte. Le modèle atteint un taux de fréquence d’inférence extrêmement faible de 3,1 Hz lors de la phase d’inférence, permettant une génération en temps réel de longues pistes audio de plusieurs minutes avec une haute fidélité. (Journal du Conseil scientifique et technologique)
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Ant Group publie en open source le modèle multimodal complet Ming-Flash-Omni 2.0
Ant Group a publié en open source le modèle multimodal complet Ming-Flash-Omni 2.0, le premier modèle de génération audio unifié pour tous les scénarios dans l’industrie. Il peut générer simultanément la parole, les effets sonores ambiants et la musique sur une même piste audio. Les utilisateurs peuvent donner des instructions en langage naturel pour contrôler la tonalité, la vitesse, l’intonation, le volume, l’émotion et le dialecte. Le modèle atteint un taux de fréquence d’inférence extrêmement faible de 3,1 Hz lors de la phase d’inférence, permettant une génération en temps réel de longues pistes audio de plusieurs minutes avec une haute fidélité. (Journal du Conseil scientifique et technologique)