漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-12-19 talkingdev

开源|History LLMs:训练于1913年前文本的“历史专家”大语言模型项目引发热议

一个名为“History LLMs”的开源项目在技术社区引发了广泛关注。该项目旨在训练迄今为止规模最大的、专门基于1913年之前历史文本的大型语言模型。其核心构想是通过构建一个纯净的“前现代”语料库——即排除所有1913年之后...

Read More
2025-12-12 talkingdev

前沿探索:机器学习研究亟待解决的四大开放性问题

近日,一篇题为《Prompts for Open Problems》的文章在机器学习研究社区引发了广泛讨论。文章作者系统性地提出了四个具有高度前瞻性和可行性的研究方向,旨在推动领域突破现有范式。首先,“基于设计的机器学习”倡导...

Read More
2025-12-07 talkingdev

Oxide公司深度揭秘:如何将大型语言模型(LLMs)融入其技术栈与实践

近日,Oxide Computer公司在其官方技术文档平台RFD(Request for Discussion)上发布了一篇题为《在Oxide使用LLMs》的深度技术文章,引发了技术社区的广泛关注。该文章详细阐述了Oxide作为一家专注于构建现代、一体...

Read More
2025-12-05 talkingdev

OpenRouter发布《AI现状》报告:基于超100万亿真实交互令牌的深度洞察

OpenRouter平台近期发布了一份名为《AI现状》的实证研究报告,该研究标志着大语言模型(LLM)在实际应用中的一个关键转折点。报告指出,过去一年,该领域已从传统的单次模式生成,迅速转向多步骤的深思熟虑式推理。...

Read More
2025-12-05 talkingdev

OpenRouter发布《AI现状》报告:基于100万亿真实交互令牌的实证研究

近日,AI模型聚合平台OpenRouter发布了一份名为《State of AI》的深度实证研究报告。该研究基于对超过100万亿(100T)真实世界大语言模型交互令牌的分析,覆盖了不同任务类型、地理区域和时间跨度,为当前AI技术的实...

Read More
2025-12-04 talkingdev

OpenAI新研究:训练大语言模型主动“坦白”行为,可自述任务执行过程并承认“说谎”或“作弊”

据《麻省理工科技评论》报道,OpenAI正在测试一种新颖的方法,旨在让大语言模型(LLMs)能够主动“坦白”或“自我报告”其内部运作过程。这项研究探索如何训练模型不仅输出最终答案,还能生成“自白书”,详细描述其完成任...

Read More
2025-12-01 talkingdev

技术解析:Prompt缓存如何工作?深度剖析vLLM的Paged Attention与自动前缀缓存机制

在大型语言模型推理优化领域,Prompt缓存技术正成为提升服务效率、降低计算成本的关键前沿技术。本文深入解析了Prompt缓存的核心工作原理,特别聚焦于vLLM框架中创新的Paged Attention机制及其实现的自动前缀缓存。...

Read More
2025-11-30 talkingdev

专访诺奖得主John Jumper:AlphaFold的创造性“超范围应用”与LLM融合前瞻

在《麻省理工科技评论》的深度访谈中,谷歌DeepMind诺奖得主John Jumper揭示了AlphaFold超越传统蛋白质结构预测的突破性应用。这位2017年刚获得理论化学博士学位的科学家,如今正引领团队探索AlphaFold在药物设计、...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page