漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-16 talkingdev

AllenAI发布数据筛选工具Data Decide,助力预训练数据选择

AllenAI最新推出的Data Decide工具为预训练过程中的数据筛选提供了创新解决方案。这一框架能够帮助研究人员和开发者更科学地评估和选择预训练数据,显著提升模型训练效率和质量。该工具通过系统化的评估指标,量化不...

Read More
2025-04-16 talkingdev

MoonDream 2.0重磅升级:2B参数小模型性能超越主流开源与闭源模型

近日,轻量级视觉语言模型MoonDream迎来2.0版本重大更新。这款仅含20亿参数的VLM(Vision-Language Model)在最新测试中展现出惊人实力,其性能不仅超越多个同量级开源模型,甚至在部分基准测试中优于参数规模更大的...

Read More
2025-04-16 talkingdev

图灵公司发布白皮书:如何最大化提升大型语言模型(LLM)的投资回报率

图灵公司最新发布的《最大化您的LLM投资回报率》白皮书揭示了影响大型语言模型(LLM)实际应用效果的关键因素。研究表明,模型性能不足往往并非源于算力限制,而是由训练目标偏差、评估体系缺陷和优化策略缺失等隐形...

Read More
2025-04-15 talkingdev

[论文推荐]ThinkLite-VL:仅用1.1万训练样本实现视觉语言模型高效推理

近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...

Read More
2025-04-07 talkingdev

[论文推荐]DeepSeek提出推理时缩放技术,革新通用奖励模型训练范式

DeepSeek最新研究论文《Inference-Time Scaling for Generalist Reward Modeling》提出了一种创新方法,通过推理时缩放技术优化奖励模型,从而引导更强大的推理模型生成。该技术标志着这家中国初创公司的一项战略布...

Read More
2025-04-02 talkingdev

Open Hands推出32B代码模型,在代理编码任务中超越更大规模模型

Open Hands团队最新发布的32B参数代码模型(Open Hands LM-32B)在强化学习(RL)训练框架下,基于Qwen架构实现了突破性进展。该模型在代理编码任务(agentic coding tasks)中的表现已超越许多参数规模更大的竞品,...

Read More
2025-04-01 talkingdev

[论文推荐]LLM敏感内容选择性遗忘技术取得突破

最新发表在arXiv的论文提出了一种创新的模型融合技术,能够从大型语言模型(LLM)中精准移除敏感内容,同时保持模型的通用知识能力。这项突破性研究通过参数空间分析,识别并分离与敏感信息相关的神经网络连接,实现了...

Read More
2025-03-28 talkingdev

Continue (YC S23)发布:打造定制化AI代码助手

近日,Continue (YC S23)正式发布了一款创新产品——支持用户创建定制化AI代码助手的平台。该平台旨在通过灵活的配置和强大的AI能力,帮助开发者根据自身需求打造专属的编程助手,从而提升开发效率。Continue的核心技...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page