Hugging Face最新推出的SmolLM3是一款完全开源的3B参数语言模型,支持六种语言,具备强大的推理能力和长上下文处理能力。该模型旨在小型模型领域实现高性能,为多语言处理和复杂推理任务提供了新的解决方案。SmolLM3...
Read More艾伦人工智能研究所(AI2)近日推出OLMo 2全开源语言模型家族,标志着大模型开源生态取得重大突破。该系列包含32B、13B、7B和1B四种参数规模,其中旗舰型号OLMo 2 32B成为首个在主流基准测试中同时超越GPT-3.5 Turbo...
Read MoreNotebookLLaMa是一个完全开源的项目,旨在提供NotebookLM的替代方案。该项目利用LlamaCloud进行文档处理,结合OpenAI的内容生成能力和ElevenLabs的语音合成技术,构建了一个功能强大的知识管理平台。作为开源社区的...
Read More开源项目Helicone近日发布了一款专为大型语言模型(LLM)设计的可观测性平台,该平台仅需一行代码即可实现对LLM的监控、评估和实验功能。作为Y Combinator W23批次的入选项目,Helicone致力于为开发者和企业提供高效...
Read More近日,研究人员发布了新一代商业级大语言模型Mercury,该模型基于扩散模型技术,采用Transformer架构进行参数化,并能够并行预测多个token。报告重点介绍了Mercury Coder,这是首套专为编程应用设计的扩散大语言模型...
Read MoreMorph团队近日推出了一款名为Morph的AI代码编辑工具,其核心创新在于能够以每秒4500个令牌(tokens)的速度直接应用AI生成的代码编辑到现有文件中,解决了传统全文件重写或搜索替换方法速度慢、易出错的问题。该工具...
Read More德国知名技术咨询公司TNG Technology Consulting GmbH近日发布了其最新研发的DeepSeek-TNG R1T2 Chimera模型。这一突破性进展在人工智能领域引起广泛关注,该模型不仅显著提升了处理速度达200%,同时大幅减少了输出t...
Read MoreSakana AI最新发布的TreeQuest技术通过创新的多模型协作框架(Multi-LLM AB-MCTS),实现了比单一大型语言模型(LLM)性能提升30%的突破。该技术采用自适应分支蒙特卡洛树搜索(Adaptive Branching Monte Carlo Tree...
Read More