漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-18 talkingdev

大型模型实现实时动作分块处理:突破机器人实时响应瓶颈

在机器人技术领域,实时性至关重要——输入与输出之间的延迟会直接影响机器人的性能表现。尽管视觉-语言-动作(VLA)模型在开放世界泛化方面取得了令人瞩目的成果,但其运行速度往往较慢。近日,一项名为“实时分块”的...

Read More
2025-06-13 talkingdev

[论文推荐]自适应性语言模型SEAL:让大模型学会自我更新

斯坦福大学研究团队提出突破性框架SEAL(Self-Adapting LLMs),首次实现大型语言模型的自主适应性进化。传统LLM虽功能强大但参数固化,SEAL通过生成自我微调数据和更新指令,使模型能根据新任务、知识或案例动态调...

Read More
2025-06-11 talkingdev

[论文推荐]强化学习预训练(RPT):大语言模型与强化学习融合的新范式

强化学习预训练(Reinforcement Pre-Training, RPT)作为大语言模型(LLM)与强化学习(RL)协同进化的前沿技术,提出了一种革命性的规模化训练范式。该技术通过创新性地利用海量文本数据进行通用强化学习预训练,在...

Read More
2025-06-10 talkingdev

顶级AI创始人如何构建与SaaS时代完全相反的产品

在人工智能领域,一场颠覆传统软件开发范式的变革正在悄然发生。与SaaS时代'客户需求导向'的产品开发模式截然不同,新一代AI创始人正采用全新的方法论——他们不再被动询问客户需求,而是主动探索如何将AI能力和模型深...

Read More
2025-06-03 talkingdev

[论文推荐]语言模型究竟记住了多少?揭秘记忆与泛化的边界

一项突破性研究通过对比模型在随机数据(无法泛化)和真实文本上的训练表现,开发出区分记忆与泛化的新方法。研究发现,模型会先记忆训练数据直至容量饱和,随后转向学习通用模式。以GPT类Transformer为例,每个参数...

Read More
2025-05-23 talkingdev

[论文推荐]超越语义:无意义中间标记的惊人有效性

近期大型推理模型的显著成果常被归功于思维链(CoT)技术,尤其是通过从基础大语言模型(LLM)中采样CoT进行训练以发现新推理模式的过程。然而,一项最新研究对这种解释提出了质疑。该研究通过系统性地调查中间标记...

Read More
2025-05-21 talkingdev

KumoRFM:无需特定任务训练即可跨数据库工作的关系型基础模型

KumoRFM是一种预训练的关系型基础模型,其设计初衷是能够在任何数据库和预测任务上工作,而无需进行特定任务的训练。这一技术的突破性在于其通用性和适应性,能够显著降低企业在不同数据场景下部署AI模型的复杂性和...

Read More
2025-05-14 talkingdev

开源Muscle-Mem:让AI智能体重复任务执行更高效

Pig.dev团队近日开源了Muscle-Mem项目,这是一个专为AI智能体设计的行为缓存SDK。该技术能够记录智能体在解决任务时的工具调用模式,并在再次遇到相同任务时确定性地重放这些学习到的行为轨迹。如果检测到边缘情况,...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page