文章预览
🏆基座模型 ①项目:Hunyuan-Large ★ Hunyuan-Large是由腾讯开源的基于Mixture of Experts (MoE)的Transformer模型,拥有389B参数,其中52B为活跃参数。 该模型在自然语言处理、计算机视觉等领域表现出色,旨在通过优化资源消耗来保持高性能。 ☆一键收藏: https://sota.jiqizhixin.com/project/Hunyuan-Large ②项目:SAM2Long ★ SAM2Long项目旨在提升SAM 2在长视频分割中的表现,通过引入无训练的记忆树结构,解决了在长视频场景中常见的错误累积问题。 该项目在处理物体遮挡和重现时表现出色,显著提高了分割的准确性和鲁棒性。 ☆一键收藏: https://sota.jiqizhixin.com/project/sam2long 🛠️框架平台、必备工具 ①项目:LLaMA-O1 ★ LLaMA-O1是一个开源的大型推理模型框架 ,旨在通过蒙特卡罗树搜索(MCTS)、自我博弈强化学习(Self-Play Reinforcement Learning)、PPO、AlphaGo Zero的双策略范式以
………………………………