漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-20 talkingdev

LLM编译技术重大突破:单核化Megakernel实现低延迟推理

传统大型语言模型(LLM)系统普遍存在硬件利用率低下的问题,主要源于GPU内核的序列化启动及跨设备通信开销。一支研究团队创新性地开发出专用编译器,可将LLM推理过程自动编译为单一megakernel(超级内核),通过三大...

Read More
2025-06-20 talkingdev

将大语言模型编译为MegaKernel:低延迟推理的新路径

近日,一篇关于将大语言模型(LLMs)编译为单一MegaKernel以实现低延迟推理的技术文章引发广泛讨论。该技术通过优化编译器设计,将传统需要多个内核调用的LLM推理过程整合为高度融合的单一内核,显著减少了内核启动...

Read More
2025-06-19 talkingdev

企业级AI的未来是智能体?Glean与451 Research联合解析行业趋势

6月25日,知名分析机构451 Research与AI企业Glean将联合举办线上研讨会,深度探讨企业级AI向智能体(Agentic)转型的技术路径与市场机遇。本次会议将发布基于全球500强企业的AI应用调研数据,揭示智能体技术在自动化...

Read More
2025-06-19 talkingdev

[论文推荐]AI智能体任务成功率存在半衰期?科学家发现指数级衰减规律

最新研究发现,AI智能体在执行长时间任务时的成功率遵循一个惊人的简单数学模型——每分钟的失败率保持恒定,这意味着任务成功率会随任务时长呈指数级下降。该研究通过数学建模揭示,当人类完成相同任务需要的时间每增...

Read More
2025-06-19 talkingdev

AI文档撰写最佳实践:提升RAG系统效能的关键

Kapa.ai最新发布的文档《Writing documentation for AI: best practices》详细探讨了为AI系统撰写高效文档的核心原则,尤其针对检索增强生成(RAG)技术栈的优化需求。文章指出,RAG系统的性能高度依赖知识库文档的...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More
2025-06-17 talkingdev

美国职场AI使用率两年内翻倍,白领与技术岗位成主力军

盖洛普最新调查显示,美国职场AI应用呈现爆发式增长,目前已有40%的员工在工作中使用人工智能技术,较两年前实现近翻倍增长。这一技术渗透呈现出明显的职业分层特征:技术岗位员工以50%的高使用率领跑,而生产一线员...

Read More
2025-06-10 talkingdev

Chonkie:超轻量级闪电式文本分块,支持多语言与云端部署

Chonkie是一款革命性的开源文本分块库,以其超轻量级架构和闪电般的处理速度重新定义了文本预处理效率。作为GitHub上的明星项目,它具备多语言处理能力、云端就绪特性以及丰富的功能集,支持主流分词器、嵌入模型和A...

Read More
  1. Prev Page
  2. 22
  3. 23
  4. 24
  5. Next Page