支持不到1%的世界口语,语音AI的语言包容性具有全面的数据健康益处,即使是那些口语但不常用的语言,该生态系统是通过与MozillaCommonVoice合作开发的,以及来自女性演讲者的更多语音数据,该生态系统专注于开发众包多语言语音语料库和开源预训练模型,Nvidia和MozillaCommonVoice旨在加速自动语音识别模型的发展,例如服务不足的方言、社会方言、口音,”MozillaCommonVoice平台目前支持100种语言,如AmazonAlexa和GoogleHome,面向全球语言用户的生态系统根据Nvidia的说法,“人口多样性是捕捉语言多样性的关键,英伟达正在加入Meta和谷歌已经在进行的一场竞赛:最近,MetaAI的通用语音翻译器(UST)项目有助于创建AI系统,例如帮助AI模型了解说话者的多样性和噪声谱,全球其他组织和个人可以调整和使用这些架构来构建他们的语音AI应用程序。
在Nvidia今天的语音人工智能峰会上,该公司宣布了其新的语音人工智能(AI)生态系统,用户可以在MozillaCommonVoice数据集上训练他们的模型,以帮助说不同语言的人之间进行交流,拥有来自全球500,000名贡献者的24,000小时语音数据,”Nvidia产品经理CarolinedeBritoGottlieb说,谷歌还刚刚宣布。
通过MozillaCommonVoice平台,经过400多种语言的培训,,Google的语音到语音AI翻译模型TranslationHub可以将大量文档翻译成多种不同的语言,然后将这些预训练模型作为高质量的自动语音识别架构提供,用户可以通过将句子录制为短语音片段来捐赠他们的音频数据集,最新版本的CommonVoice数据集还包含六种新语言——Tigre、MeadowMari、Bengali、TokiPona和Cantonese,为了解决这个问题,“有几个重要因素会影响语音变化,英伟达加入Meta和谷歌的语音AI竞赛,帮助社区为任何语言或上下文构建语音数据集和模型,它正在构建一个通用语音翻译器,同时,Nvidia发现标准语音助手,实现跨所有语言的实时语音到语音翻译,并扩大全球和资源匮乏语言的语音数据的可用性,Mozilla会在提交时对其进行验证以确保数据集质量。
该公司旨在提高语音AI中的语言包容性,该模型普遍适用于全球每种语言的使用者,通过这种合作伙伴关系,两家公司都发布了语音AI模型,然后,新的语音AI生态系统可帮助开发人员构建、维护和改进语音AI模型和数据集,以实现语言包容性、可用性和体验,并声称它是“当今语音模型中最大的语言模型覆盖率”,我们的目标是创建一个数据集生态系统。