今天看啥  ›  专栏  ›  SparksofAGI

论文显示o1-preview模型大小约300B...另外该模型被传在象棋比赛中自发黑掉系统来获取胜利

SparksofAGI  · 公众号  ·  · 2025-01-01 10:07
    

文章预览

‍‍‍‍‍ 大家新年快乐!新年第一天水一贴~在微软和 UW最近放出来的论文:MEDEC: A BENCHMARK FOR MEDICAL ERROR DETECTION AND CORRECTION IN CLINICAL NOTES中显示, o1-preview模型大小是300B,o1-mini约100B,还有其他闭源模型如Claude 3.5 Sonnet 175B,GPT-4 1.76T,GPT-o约200B,GPT-4o mini约8B ,看这个参数规模,各位同行要加油了hhh 微软透露模型大小看起来老传统了,比如之前在论 文CodeFusion: A Pre-trained Diffusion Model for Code Generation里,可以见本号文章“ 微软将扩散模型用在代码生成任务,还透露了ChatGPT参数量 ”。 另外还有一则比较震惊体的消息,在一项国际国际象棋比赛中,o1-preview模型被告知对手国际象棋引擎Stockfish很强大时,它发现编辑游戏状态而不是用遵守规则就能取得胜利,它便另辟蹊径通过攻击测试环境的方式,作弊修改了国际象棋位置数据的文本文件,让对手投降 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览