漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-18 talkingdev

大型模型实现实时动作分块处理:突破机器人实时响应瓶颈

在机器人技术领域,实时性至关重要——输入与输出之间的延迟会直接影响机器人的性能表现。尽管视觉-语言-动作(VLA)模型在开放世界泛化方面取得了令人瞩目的成果,但其运行速度往往较慢。近日,一项名为“实时分块”的...

Read More
2025-06-16 talkingdev

[论文推荐]自适应性语言模型突破:新型训练框架实现自我迭代优化

一项突破性研究提出让大语言模型通过生成"自我编辑指令"实现持续性参数更新的训练框架。该技术通过监督微调使模型自主产生训练材料,在较小参数量下性能超越GPT-4.1,为解决AI领域的"数据墙"瓶颈提供了新思路。研究...

Read More
2025-06-16 talkingdev

ParetoQ算法突破低比特量化技术瓶颈,统一二元、三元及2至4位量化方案

PyTorch官方博客最新发布的ParetoQ训练算法在低比特量化领域取得重大突破。该技术首次实现了二元(1-bit)、三元(1.58-bit)和2至4位量化的统一框架,并在所有量化级别上均达到当前最优性能。这一突破性进展尤其适...

Read More
2025-06-12 talkingdev

[开源]Weak-to-Strong Decoding:小模型引导大模型实现高效对齐的新方法

近日,GitHub上开源了一项名为Weak-to-Strong Decoding(WSD)的创新技术,该方法通过让小型的对齐模型(aligned model)生成回答的开头部分,再由大型基础模型(base model)继续完成后续内容,从而在保持模型性能...

Read More
2025-06-11 talkingdev

[论文推荐]JavelinGuard:面向大语言模型安全的低成本Transformer架构

JavelinGuard是一套专为检测大语言模型(LLM)交互中恶意意图而设计的低成本高性能模型架构。该研究提出了多种具有不同速度、可解释性和资源需求权衡的架构方案,并特别针对生产环境部署进行了优化。论文详细探讨了这...

Read More
2025-06-11 talkingdev

[开源]LLaVA-STF:高效多模态推理技术实现75%的视觉令牌压缩

LLaVA-STF项目通过创新的相邻令牌合并技术和多区块令牌融合模块,成功将视觉令牌序列压缩75%,显著提升了多模态推理效率。该技术突破性地解决了视觉语言模型中长序列处理带来的计算资源消耗问题,通过动态合并语义相...

Read More
2025-06-11 talkingdev

OpenAI发布o3-pro模型:性能升级且价格大幅下调80%

OpenAI正式推出o3-pro模型,作为o3模型的迭代升级版本,该模型在科学计算、编程辅助及商业任务处理能力上均有显著提升。值得注意的是,OpenAI此次将o3-pro的定价策略调整为降价80%,大幅降低企业及开发者的使用门槛...

Read More
2025-06-02 talkingdev

开发者指南:何时需要对大型语言模型进行微调?

近日,Kiln公司发布了一篇关于大型语言模型(LLM)微调的深度指南,引发了开发者社区的广泛讨论。文章详细探讨了在什么情况下需要对预训练的大型语言模型进行微调,以及如何开始这一过程的技术细节。随着ChatGPT等大模...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page