漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-22 talkingdev

[开源]MoonshotAI发布Kimi K2技术报告:突破万亿参数模型训练瓶颈

月之暗面(MoonshotAI)团队最新发布的Kimi K2技术报告揭示了其大型语言模型系列的重大技术突破。该团队创新性地开发出MuonClip技术,通过将token高效的Muon优化器与新型QK-Clip技术相结合,成功解决了万亿参数模型训...

Read More
2025-07-22 talkingdev

无需解析文档:直接使用图像进行RAG检索

从复杂的PDF中提取信息一直是个棘手的问题。行业在OCR(光学字符识别)、布局检测和解析流程上投入了大量精力和资金,却仍可能丢失最关键的信息。如今,视觉语言模型(Vision Language Models)已经足够强大,能够直...

Read More
2025-07-18 talkingdev

[论文推荐] 突破长文本限制:新型“Power”注意力机制实现高效训练

一项名为“Power”注意力的创新技术通过引入超参数p,实现了对状态大小的独立控制,有效解决了长上下文训练中计算成本平衡的难题。该机制在长序列任务中表现优于标准注意力,并支持定制GPU内核,在64k上下文长度下速度...

Read More
2025-07-15 talkingdev

[论文推荐]基于能量的Transformer模型:可扩展的学习与思考者

一项名为'基于能量的Transformer'(Energy-Based Transformers)的新型架构在机器学习领域取得突破性进展。该技术摒弃了传统的直接预测方式,转而采用学习验证函数来评估输入与候选输出之间的兼容性得分。这种创新架...

Read More
2025-07-10 talkingdev

[论文推荐]猫咪干扰大模型推理:无关信息触发推理模型错误率激增300%

最新研究发现,在数学问题中插入诸如'有趣的事实:猫一生大部分时间在睡觉'等无关短语,会导致大语言模型的错误应答率较基准水平飙升300%。这种与查询无关的对抗性触发现象具有跨模型规模的迁移性,且蒸馏版模型表现...

Read More
2025-06-27 talkingdev

[论文推荐]Meta FAIR团队突破:无需归一化层的Transformer模型通过Dynamic Tanh实现同等性能

Meta旗下FAIR研究团队在arXiv最新论文中提出重大架构革新,通过名为Dynamic Tanh(DyT)的逐元素操作替代传统归一化层,使Transformer模型在保持性能的同时摆脱了对归一化层的依赖。这种S型曲线模拟技术能够自然复现...

Read More
2025-06-18 talkingdev

OpenAI发布构建智能体(Agent)的实用指南

OpenAI最新发布的《构建智能体的实用指南》为开发者提供了从单智能体系统到多智能体系统的进阶路径。指南强调,在构建多智能体系统前,应先掌握单智能体的开发,并推荐使用管理者模式,即通过工具调用或去中心化的任...

Read More
2025-06-17 talkingdev

NanonetsOCR:将文档转为结构化Markdown模型

Hugging Face平台上的Nanonets-OCR-s项目近日引发技术社区关注,该OCR模型能够将复杂文档(如PDF、扫描件)高效转换为结构化Markdown格式,解决了传统OCR输出非结构化数据的行业痛点。其技术亮点包括基于深度学习的...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page