关键功能

15 亿参数的密集语言模型,具备高效的推理能力
利用“谱到信号原理”(SSP)来改进训练和推理
开发成本效益高,总训练支出仅为 7,800 美元
在数学和代码生成基准测试中超越更大的模型
根据 MIT 许可证开源,可用于研究和商业用途
使用探索多样性的蒸馏和强化学习的两阶段训练方法
紧凑的尺寸,允许较低的基础设施要求

尽管规模适中,VibeThinker-1.5B 在数学和代码生成基准测试中表现出行业领先的结果,超越或匹敌 Mistral AI 的 Magistral Medium、Anthropic 的 Claude Opus4 和 OpenAI 的 GPT 模型等知名大型模型。该模型的训练成本效益极高,总训练投入仅约 7,800 美元,远低于同等性能模型通常所需的成本。这使得 VibeThinker 不仅强大,而且对研究人员和开发人员(包括那些对商业应用感兴趣的人)也具有可及性,因为它根据 MIT 许可证发布,鼓励广泛采用和创新。


VibeThinker-1.5B 的设计目标是挑战参数数量和重计算资源对于高性能语言模型是必需的这一假设。通过战略性的训练技术和优化,该模型在模型规模和效率方面的推理能力扩展了帕累托前沿。这意味着 VibeThinker-1.5B 可以在显著减少的基础设施下实现高推理准确性,非常适合那些要求强大人工智能能力但又不想承担超大型模型带来的成本和资源强度的用户。它在 GitHub 和 Hugging Face 等平台上公开可用,便于集成、实验和应用程序开发。

在您的网站添加此徽章,以获得更多点赞并登上搜索结果顶部!

嵌入按钮预览 - 浅色主题
嵌入按钮预览 - 深色主题

Subscribe to the AI Search Newsletter

Get top updates in AI to your inbox every weekend. It's free!