今天看啥  ›  专栏  ›  AI蓝媒汇

Kimi 开始回本了

AI蓝媒汇  · 公众号  ·  · 2024-08-12 18:36
    

主要观点总结

Kimi开始发力B端市场,发布了企业级API和降价缓存存储费用。这是基于其技术成熟度和市场需求做出的决策。同时,大模型应用在B端市场的潜力正在被开发,未来将有更多定制化智能体出现。初创公司和科技大厂在大模型领域各有策略,而投资人也纷纷下注。关于常用的大模型,读者可以在评论区讨论。

关键观点总结

关键观点1: Kimi发布企业级API并支持并发处理大规模数据需求。

Kimi针对企业内部的复杂工作流和大规模数据处理需求发布了企业级模型推理API,提供更高等级的数据安全保障和并发速率。

关键观点2: Kimi降低缓存存储费用以提高竞争力。

为提高竞争力,Kimi降低了上下文缓存存储费用,并确保了服务器在高负载情况下的稳定性和可靠性,以吸引B端市场。

关键观点3: 大模型应用在B端市场的潜力正在被开发。

未来在医疗、金融、教育等各个领域,将依据场景特点定制开发出各种智能体,大模型应用在B端市场的潜力巨大。

关键观点4: 初创公司和科技大厂在大模型领域的策略不同。

初创公司如月之暗面注重技术开发和市场应用,而科技大厂如百度则更多采取自主研发和外部投资并重的策略。

关键观点5: 投资人通过投资大模型初创企业参与行业布局。

腾讯等投资人通过参与初创公司的大模型项目融资,以获取未来行业格局的话语权和投资回报。


文章预览

作者|陶然   编辑|魏晓 to C业务狂飙大半年的Kimi,开始在B端发力了。 八月尚未过半,两则直接关联其商业化进程的消息,在市场中传开: 二日,Kimi母公司月之暗面官宣Kimi企业级API正式发布。相较于覆盖to C需求的通用模型,企业级模型推理API有着更高等级的数据安全保障和并发速率,用以支持企业内部的复杂工作流和大规模的数据处理需求。 五天后,公司再次放出商业化动作,宣布Kimi开放平台的上下文缓存Cache存储费用降低50%,由10元/1M tokens/min降低至5元/1M tokens/min,价格生效时间为2024年8月7日。 这项技术实际上早在在7月1日就已通过开放平台启动公测,通过预存那些可能会被反复引用、频繁请求的文本或数据等信息来给模型推理过程“降本增效”。 Kimi现今在B端谋求AI变现的动作,绝非此前应用内上线“打赏功能灰度测试”那般仍有试探意味 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览