Cohere发布Tiny Aya系列开源模型,手机端也能运行的高性能多语言AI
talkingdev • 2026-02-18
1934 views
Cohere的研究部门Cohere Labs近日正式发布了Tiny Aya系列开源模型,这是目前在其参数量级上性能最强的多语言开源模型。该系列包括基础模型TinyAya-Base(35亿参数)以及经过指令微调的TinyAya-Global和多个区域变体,旨在在消费级硬件(甚至包括手机)上实现对约67种语言的均衡高质量处理。Tiny Aya在多项关键能力上达到了先进水平:它提供了业界领先的翻译质量、强大的多语言理解能力、高质量的目标语言生成响应,并且覆盖了广泛的语言范围。此次发布不仅包含模型本身,还同步公开了一个用于多语言微调的数据集、一套新的性能评估基准以及一份详细的技术报告,以支持可复现的多语言AI实验。这一举措显著降低了高性能多语言AI的应用门槛,使得开发者能够在资源受限的环境中部署先进的翻译和理解功能,有望推动AI技术在更广泛语言社区和边缘计算场景中的普及与应用。
核心要点
- Cohere Labs发布Tiny Aya系列开源模型,包含35亿参数的基础版和指令微调版,支持约67种语言。
- 模型设计目标是在消费级硬件甚至手机上本地高效运行,实现了先进的翻译质量和多语言理解能力。
- 此次发布配套提供了多语言微调数据集、新评估基准和技术报告,旨在推动可复现的多语言AI研究与应用。