漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2026-01-26 talkingdev

开源|TTT-Discover:推理时强化学习新范式,让大模型实时自适应任务

近日,一个名为TTT-Discover的开源项目在GitHub上发布,其核心创新在于将强化学习(Reinforcement Learning)技术应用于大型语言模型(LLMs)的推理(Inference)阶段,而非传统的训练阶段。这一“测试时训练”(Test-...

Read More
2026-01-15 talkingdev

Claude Code引入MCP工具搜索功能,实现动态上下文加载

Anthropic公司近期为其Claude Code开发工具推出了一项名为“MCP工具搜索”的重要功能更新。该功能的核心创新在于,它允许Claude Code根据实际需求,动态地将模型上下文协议工具加载到工作上下文中,而非传统的一次性全...

Read More
2025-12-30 talkingdev

开源|Crawl4AI:专为大型语言模型设计的开源网页抓取与解析工具

近日,一个名为Crawl4AI的开源项目在GitHub上发布,旨在为大型语言模型(LLM)提供友好、高效的网页抓取与内容解析解决方案。该项目由开发者unclecode主导,其核心目标是简化从复杂网页中提取结构化信息的流程,并将...

Read More
2025-12-25 talkingdev

开源|Crawl4AI:专为大型语言模型设计的开源网络爬虫与抓取工具

近日,一个名为Crawl4AI的开源项目在GitHub上发布,旨在为大型语言模型(LLM)提供友好的网络爬虫与数据抓取解决方案。该项目由开发者unclecode主导,其核心目标是简化从网页中提取结构化信息的过程,并将这些数据高...

Read More
2025-10-24 talkingdev

开源|谷歌Angular团队推出Web Codegen Scorer:大模型网页代码质量评估工具

谷歌Angular团队正式开源Web Codegen Scorer工具,专门用于评估大语言模型生成的网页代码质量。该工具通过构建成功率、安全漏洞检测、编码规范遵循等核心维度,对LLM生成的HTML/CSS/JavaScript代码进行量化评分。开...

Read More
2025-10-06 talkingdev

LoRA无憾:低秩适配技术全面匹敌全参数微调,突破大模型高效训练瓶颈

思维机器实验室最新研究揭示了低秩适配技术(LoRA)在大语言模型微调领域的突破性表现。这项发表于权威平台的研究表明,当LoRA应用于模型所有层(尤其是MLP层)且不受数据集规模限制时,其性能可完全媲美传统全参数...

Read More
2025-09-15 talkingdev

LLM后训练全流程深度解析:从SFT到RLHF与评估最佳实践

这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...

Read More
2025-08-01 talkingdev

Gemini Embedding技术解析:如何驱动RAG与上下文工程革新

谷歌开发者博客最新发布的Gemini Embedding技术引发行业广泛关注,该技术通过增强检索增强生成(RAG)和上下文工程能力,为AI模型理解复杂语义关系提供了新范式。官方博文详细介绍了其多模态嵌入特性,支持文本、图...

Read More
  1. Next Page