漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-18 talkingdev

Shopify内部AI应用策略:无限预算与"MCP全覆盖"

Shopify在获得法务团队对AI工具的默认支持后,豪购3000个Cursor许可证并开放无限令牌使用额度,随后构建了一个连接所有数据源的内部LLM代理系统,通过MCP(多连接点)实现全平台整合。这一战略使得非技术销售代表能...

Read More
2025-07-16 talkingdev

开源Goose AI代理:支持任意LLM后端,覆盖全流程开发

Block公司近日在GitHub开源了Goose AI代理项目,这是一个突破性的开源AI开发工具。与传统代码建议工具不同,Goose作为可扩展的AI代理,支持包括本地模型在内的任意大型语言模型(LLM)作为后端,提供桌面和命令行(C...

Read More
2025-06-11 talkingdev

[论文推荐]JavelinGuard:面向大语言模型安全的低成本Transformer架构

JavelinGuard是一套专为检测大语言模型(LLM)交互中恶意意图而设计的低成本高性能模型架构。该研究提出了多种具有不同速度、可解释性和资源需求权衡的架构方案,并特别针对生产环境部署进行了优化。论文详细探讨了这...

Read More
2025-05-23 talkingdev

基于LLM的智能体开发框架:评估驱动的新范式

近日,一篇关于构建基于大语言模型(LLM)的智能体系统的实践框架引发业内关注。该框架提出以评估为核心的开发方法论(Evaluation-centric Development),为AI智能体的研发提供了系统性指导。文章深入探讨了如何通...

Read More
2025-05-22 talkingdev

专家指出:LLM函数调用难以扩展,代码编排更简单高效

近日,一篇技术文章指出,当前在处理大语言模型(LLM)的工具调用(MCP工具)时,常见的做法是将工具的输出结果重新输入到LLM中,并询问LLM下一步操作。然而,这种做法在扩展性上存在明显不足。相比之下,采用代码编...

Read More
2025-05-06 talkingdev

资深LLM用户自述:生成式大模型并非我的常用工具

近日,一位长期使用大语言模型(LLM)的资深用户在个人博客中分享了他的使用心得。尽管生成式LLM(如GPT系列)在业界引起广泛关注,但该作者表示自己并不频繁使用这类模型。相反,他更倾向于将LLM应用于特定场景,如...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-04-16 talkingdev

图灵公司发布白皮书:如何最大化提升大型语言模型(LLM)的投资回报率

图灵公司最新发布的《最大化您的LLM投资回报率》白皮书揭示了影响大型语言模型(LLM)实际应用效果的关键因素。研究表明,模型性能不足往往并非源于算力限制,而是由训练目标偏差、评估体系缺陷和优化策略缺失等隐形...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page