漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-26 talkingdev

重大安全漏洞曝光:HiddenLayer发现影响GPT-4等主流大语言模型的通用提示注入绕过技术

网络安全公司HiddenLayer最新研究揭示了一种影响GPT-4、Claude、Gemini等主流大语言模型(LLM)的通用提示注入绕过技术,该发现暴露了当前LLM安全架构中的重大缺陷。这项被称为'策略木偶提示'(Policy Puppetry Prompt)...

Read More
2025-04-24 talkingdev

MCPs未来展望:下一代智能体通信架构的突破方向

探讨了MCPs(模型上下文协议)在人工智能领域的应用前景。作者Charlie Graham深入研究了MCPs,构建了实验性的MCP服务器,并分析了其潜力和局限性。文章指出,MCPs有望将LLMs(大型语言模型)转变为能够执行实际任务...

Read More
2025-04-24 talkingdev

突破性研究:如何教会大语言模型进行实体建模

近日,一项关于大语言模型(LLMs)在实体建模领域应用的研究引发了科技界的广泛关注。该研究探索了如何让LLMs掌握实体建模这一传统上需要专业CAD软件技能的复杂任务。研究者通过创新的训练方法,使LLMs能够理解三维...

Read More
2025-04-18 talkingdev

Hugging Face发布SIFT-50M语音指令微调数据集,支持多语言语音文本大模型训练

Hugging Face平台最新发布的SIFT-50M(Speech Instruction Fine-Tuning)数据集,是一个包含5000万样本的大规模语音指令微调数据集,专为语音-文本大语言模型(LLMs)的指令微调和预训练而设计。该数据集基于公开可...

Read More
2025-03-25 talkingdev

[论文推荐] LLaVA-MORE:多模态大语言模型的系统性评估框架

LLaVA-MORE 是一项关于多模态大语言模型(Multimodal Large Language Models, MLLMs)的系统性研究,旨在评估不同语言模型和视觉骨干网络在 MLLMs 中的表现,并提供一个可复现的框架来比较这些架构。通过该研究,研...

Read More
2025-03-24 talkingdev

[开源] 探索潜在多跳推理:大语言模型的多知识连接能力研究

近期,一项关于大语言模型(LLMs)的研究揭示了其在处理复杂提示时是否具备多跳推理能力——即连接多个知识片段的推理过程。研究发现,这种潜在的推理过程确实存在,尤其在初始步骤中表现明显。然而,模型对连接知识的...

Read More
2025-03-20 talkingdev

微软推出KBLAM:为LLM引入即插即用的外部知识

微软研究院最近推出了一项名为KBLAM的创新技术,旨在为大型语言模型(LLMs)引入即插即用的外部知识。这项技术的主要亮点在于,它无需重新训练模型即可实现知识的无缝集成,从而支持在线和实时学习。KBLAM的核心优势...

Read More
2025-03-20 talkingdev

Zoom的AI进化:从基础会议工具到基于LLMs和SLMs的智能生产力平台

Zoom正通过开发一套自主AI基础设施,将其业务从视频会议扩展到行动导向的工作流程。这一创新包括AI Companion 2.0,它提供了任务管理和文档创建等功能,以及通过新的AI Studio定制的AI代理。Zoom采用联合方法,将公...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page