Ant Group lançou open source o modelo multimodal completo Ming-Flash-Omni 2.0, o primeiro modelo de geração unificada de áudio para todos os cenários do setor. Ele pode gerar simultaneamente fala, efeitos ambientais e música na mesma faixa de áudio. Os usuários podem usar comandos em linguagem natural para controlar tom, velocidade, entonação, volume, emoção e dialeto. Durante a fase de inferência, o modelo alcançou uma taxa de quadros de inferência extremamente baixa de 3,1Hz, permitindo a geração em tempo real de áudios longos de minutos com alta fidelidade. (Jornal da Banca de Inovação e Tecnologia)
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Ant Group lança open source o modelo multimodal completo Ming-Flash-Omni 2.0
Ant Group lançou open source o modelo multimodal completo Ming-Flash-Omni 2.0, o primeiro modelo de geração unificada de áudio para todos os cenários do setor. Ele pode gerar simultaneamente fala, efeitos ambientais e música na mesma faixa de áudio. Os usuários podem usar comandos em linguagem natural para controlar tom, velocidade, entonação, volume, emoção e dialeto. Durante a fase de inferência, o modelo alcançou uma taxa de quadros de inferência extremamente baixa de 3,1Hz, permitindo a geração em tempo real de áudios longos de minutos com alta fidelidade. (Jornal da Banca de Inovação e Tecnologia)