主要观点总结
文章介绍了大模型网关中的收费设计,并围绕GPT类模型的计算规则、输入输出token的收费差异以及从token看GPT-4o对中文的支持进行了详细阐述。文章通过实例解释了输入输出过程以及收费原因,并提供了关于大模型应用的其他相关信息。
关键观点总结
关键观点1: 大模型网关的收费设计
文章介绍了大模型网关的收费规则,包括ChatGPT和qwen的收费标准。
关键观点2: GPT类模型的计算规则
文章详细解释了GPT类模型在处理文本时的自回归特性,以及训练过程中的并行计算原理。
关键观点3: 输入输出token的收费差异
文章阐述了输入输出过程的不同,解释了为什么输出token的收费高于输入token。
关键观点4: GPT-4o对中文的支持
文章通过实例展示了GPT-4o对中文的支持,并讨论了其对中文处理的改进。
关键观点5: 其他相关信息
文章还提供了关于大模型应用的其他信息,如推荐阅读的文章列表。
文章预览
hi! 这里是一个专注大模型应用的频道,介绍大模型基础、创作、RAG、Agent,每天学习一小点LLM不再迷惑,欢迎关注! 今天一起来聊聊大模型网关中收费设计,以此来加深我们对大模型计算规则的了解。之前的 文章 有简单介绍,可以查看。下面展示ChatGPT和qwen的收费标准: ChatGPT 从OpenAI官方网站看到,Output(输出)的价格是Input(输入)的3倍。 Qwen Qwen的 Output(输出)的价格是Input(输入)的2倍。 本篇文章后续将介绍,为什么会有这样的差异。 文章将介绍两点内容: 输入输出token为什么收费不一致? 从token看GPT-4o对中文的支持 输入输出token为什么收费不一致? GPT类模型计算规则: 上图右边可以看出,GPT类(自回归)模型 在处理文本时,通常按照从左到右的顺序处理token。这意味着模型首先看到文本的第一个token,然
………………………………