漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-12-19 talkingdev

开源|History LLMs:训练于1913年前文本的“历史专家”大语言模型项目引发热议

一个名为“History LLMs”的开源项目在技术社区引发了广泛关注。该项目旨在训练迄今为止规模最大的、专门基于1913年之前历史文本的大型语言模型。其核心构想是通过构建一个纯净的“前现代”语料库——即排除所有1913年之后...

Read More
2025-12-09 talkingdev

OpenAI利用稀疏自编码器与潜在归因技术,精准调试语言模型对齐问题

OpenAI的研究团队近期在模型可解释性领域取得重要进展,通过结合稀疏自编码器与创新的潜在归因方法,系统性地定位和解决大型语言模型中的行为错位问题。该研究提出的归因方法能够有效识别稀疏自编码器潜在空间中导致...

Read More
2025-12-07 talkingdev

Oxide公司深度揭秘:如何将大型语言模型(LLMs)融入其技术栈与实践

近日,Oxide Computer公司在其官方技术文档平台RFD(Request for Discussion)上发布了一篇题为《在Oxide使用LLMs》的深度技术文章,引发了技术社区的广泛关注。该文章详细阐述了Oxide作为一家专注于构建现代、一体...

Read More
2025-12-01 talkingdev

提升AI编程效率:如何编写高质量的CLAUDE.md配置文件

在AI辅助编程日益普及的今天,如何高效地将大型语言模型(如Claude)集成到软件开发流程中,已成为提升工程师生产力的关键。`CLAUDE.md`文件正是这一趋势下的重要配置工具,它充当了AI代理(Agent)进入代码库的“入...

Read More
2025-12-01 talkingdev

技术解析:Prompt缓存如何工作?深度剖析vLLM的Paged Attention与自动前缀缓存机制

大型语言模型推理优化领域,Prompt缓存技术正成为提升服务效率、降低计算成本的关键前沿技术。本文深入解析了Prompt缓存的核心工作原理,特别聚焦于vLLM框架中创新的Paged Attention机制及其实现的自动前缀缓存。...

Read More
2025-11-30 talkingdev

专访诺奖得主John Jumper:AlphaFold的创造性“超范围应用”与LLM融合前瞻

在《麻省理工科技评论》的深度访谈中,谷歌DeepMind诺奖得主John Jumper揭示了AlphaFold超越传统蛋白质结构预测的突破性应用。这位2017年刚获得理论化学博士学位的科学家,如今正引领团队探索AlphaFold在药物设计、...

Read More
2025-11-12 talkingdev

空间智能:AI从语言大师迈向世界构建者的下一前沿

当前大型语言模型虽在文本生成领域表现卓越,却存在根本性认知缺陷——缺乏人类与生俱来的空间智能。最新研究指出,构建具备几何一致性与物理规律模拟能力的“世界模型”将成为突破这一瓶颈的关键。这类模型能通过处理图...

Read More
2025-11-10 talkingdev

开源|runc项目面临LLM生成内容激增,社区正讨论制定审查政策

近日,容器运行时核心项目runc在GitHub官方仓库中发布重要议题,针对人工智能生成内容(LLM-generated)的代码提交和问题报告激增现象展开政策讨论。该项目维护者指出,近期接收的拉取请求和错误报告中明显出现由大...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page