漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-09-04 talkingdev

开源|AgentScope:面向智能体编程的LLM应用开发框架

清华大学团队开源AgentScope框架,为大型语言模型应用开发提供全新范式。该框架采用智能体导向编程(Agent-Oriented Programming)设计理念,显著提升LLM应用的透明度和实时可控性。其核心特性包括工具管理、长时记...

Read More
2025-09-04 talkingdev

开源|Awesome Agentic LLM+RL Papers:大语言模型与强化学习智能体前沿论文精选集

GitHub上最新开源项目“Awesome Agentic LLM+RL Papers”系统性地整理了大语言模型(LLM)与强化学习(RL)结合的智能体研究领域的关键论文资源。该资源库聚焦于Agentic AI这一前沿方向,涵盖了LLM作为决策核心与RL训...

Read More
2025-09-03 talkingdev

防范提示注入攻击:六大设计模式守护AI智能体安全

提示注入攻击正成为大型语言模型面临的新型安全威胁,这种攻击通过操纵自然语言处理能力来利用系统漏洞,其原理类似于传统的SQL注入攻击。研究人员最新提出了六种核心设计模式来强化AI智能体的安全防护:行动选择器...

Read More
2025-09-03 talkingdev

MCP安全指南:早期采用者必读的安全实践与风险解析

随着Model Context Protocol(MCP)迅速成为连接大语言模型与外部工具数据的核心标准,其安全风险正引发行业高度关注。Wiz最新发布的研究指南指出,尽管MCP能显著提升LLM与外部系统的集成效率,但许多团队在缺乏明确...

Read More
2025-09-01 talkingdev

深度解析并行化策略:PyTorch与JAX设备网格架构揭秘

当前深度学习训练规模不断扩大,如何高效利用多GPU资源成为关键挑战。最新技术分析揭示了并行化策略的核心在于设备网格(Device Mesh)的智能架构设计。设备网格作为PyTorch和JAX框架的核心抽象,将GPU集群组织为N维...

Read More
2025-09-01 talkingdev

解密LLM工作机制:机制可解释性研究揭示大语言模型内部架构

最新研究通过机制可解释性方法深入解析了基于Transformer架构的大语言模型(LLM)的工作原理。研究表明,LLM并非简单的统计预测器,而是通过形成涌现电路结构来实现复杂任务处理。这些电路整合了学习统计规律、信息传...

Read More
2025-08-29 talkingdev

开源|oLLM:轻量级Python库实现消费级GPU运行100K上下文大模型

近日,GitHub上开源项目oLLM引发开发者社区广泛关注。该项目是一个专为大上下文语言模型推理设计的轻量级Python库,其核心突破在于仅需8GB显存的消费级GPU即可运行Llama-3.1-8B-Instruct等模型处理长达10万token的上...

Read More
2025-08-27 talkingdev

开源|微软发布Minecraft MCP Server:AI助手可实时控制游戏角色进行建造与探索

微软通过GitHub开源项目yuniko-software/minecraft-mcp-server,推出基于Mineflayer API的Minecraft MCP服务器。该技术突破允许Claude等大型语言模型实时控制游戏角色,实现自然语言指令驱动的自动化建造、环境探索...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page