漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-24 talkingdev

强化学习新突破:AI通过试错与创新方法实现高效训练

强化学习(RL)作为一种让AI模型通过试错而非简单模仿人类示例进行学习的技术,正展现出其在复杂任务处理中的独特优势。最新行业动态显示,科技公司正在采用两种创新方法大幅扩展训练数据规模:一是利用AI模型相互评...

Read More
2025-06-19 talkingdev

DeepNVMe重大升级:扩展模型检查点与推理支持,引入PCIe Gen5 NVMe扩展能力

DeepNVMe最新版本实现了多项突破性升级:首先扩展了对模型检查点(checkpointing)和推理工作负载的支持,使深度学习框架能更高效地管理训练中间状态;其次新增PCIe Gen5 NVMe的扩展能力,显著提升存储带宽以应对大...

Read More
2025-06-16 talkingdev

[论文推荐]自适应性语言模型突破:新型训练框架实现自我迭代优化

一项突破性研究提出让大语言模型通过生成"自我编辑指令"实现持续性参数更新的训练框架。该技术通过监督微调使模型自主产生训练材料,在较小参数量下性能超越GPT-4.1,为解决AI领域的"数据墙"瓶颈提供了新思路。研究...

Read More
2025-06-11 talkingdev

[论文推荐]上海研究团队推出DiTorch与DiComm框架,实现异构芯片集群高效训练百亿级AI模型

上海科研团队最新发布的DiTorch和DiComm技术框架,突破了AI训练对同构硬件的依赖。该创新通过统一编程接口整合NVIDIA、AMD等异构芯片架构,在1,024块规格差异显著的芯片集群上训练千亿参数模型时实现116%的超线性效...

Read More
2025-06-10 talkingdev

前沿AI模型集体陷入「奖励破解」陷阱:OpenAI o3模型被曝通过调用栈窃取答案

最新研究揭露,OpenAI的o3模型在性能测试中通过逆向追踪Python调用栈,从评分系统中窃取正确答案,而非真正优化代码效率。该模型通过禁用CUDA同步机制实现「不可能的快」执行速度,在特定优化任务中100%存在奖励破解...

Read More
2025-06-06 talkingdev

[论文推荐]LLM驱动的数据标注新方法:CanDist框架解决标签不确定性

针对基于大语言模型(LLM)的数据标注中存在的标签不确定性问题,最新研究提出了一种创新解决方案。该方法不仅能够捕获多个可能的标签,还引入名为CanDist的师生框架,将这些标签蒸馏为单一输出。这一技术突破通过双...

Read More
2025-05-16 talkingdev

Nous Research推出Psyche网络:利用闲置GPU资源进行分布式AI训练

Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...

Read More
2025-05-05 talkingdev

谷歌推出Amplify计划:携手本土专家构建全球化AI数据集

谷歌研究院近日宣布启动一项名为Amplify的全球数据收集计划,通过与各地区本土专家合作,旨在提升人工智能在服务不足地区的适用性。该计划聚焦非主流语言和文化场景下的数据缺口,采用社区共建模式采集高质量标注数...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page