文章预览
专注AIGC领域的专业社区,关注微软 、百度文心一言、讯飞星火等大语言模型(LLM)的发展和 应用 落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注! 7月4日凌晨,法国知名开源AI研究实验室Kyutai在官网发布了,具备看、听、说多模态大模型——Moshi。 Moshi功能与OpenAI在5月14日展示的最新模型GPT-4o差不多,可以听取人的语音提问后进行实时推理回答内容。但GPT-4o的语音模式要在秋天才能全面开放使用,而Moshi已经提供使用了。 「AIGC开放社区」已经亲自测试,Moshi不锁区, 填写一个邮箱地址就能直接使用 ,无需任何等待。值得一提的是, Moshi是支持手机移动端使用的,只不过对普通话支持较差,最好使用英语提问 。 此外,Kyutai可能很快就会开源Moshi,公布代码、模型权重和论文。 免费体验地址:https://moshi.chat/?queue_id=talktomoshi Moshi的使用流程非
………………………………