文章预览
2024-08-20 05:45
本条微博链接
欢迎使用 SmolLM Instruct v0.2 - 135M、360M 和 1.7B 参数指令调整小型 LM,Apache 2.0 许可。缩小差距,让智能更接近思维(每代 500 毫秒)! 🔥 这些模型经过优化,可在具有 WebGPU 支持(来自 MLC 和 ONNX Runtime)和 llama.cpp 的设备上运行。 在您的 Mac、浏览器、GPU、CPU 上运行它们 - 运行速度极快。 我们提供已转换/量化的 GGUF、MLC 和 ONNX 检查点🐐 什么是新的? 我们在一个新的合成数据集上训练 SmolLM 基础
………………………………