漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-06 talkingdev

LRAGE-法律领域大语言模型评估框架开源

LRAGE(Legal RAG Evaluation Toolkit)是一个开源的评估框架,专门用于在法律领域的检索增强生成(RAG)任务中评估大语言模型(LLM)的性能。该工具包集成了多种数据集和评估工具,为研究人员提供了一个全面的平台...

Read More
2025-05-06 talkingdev

Jure Leskovec提出STaRK、AvaTaR和CollabLLM框架,推动AI代理实现推理与协作

在The Web Conference的主题演讲中,斯坦福大学教授Jure Leskovec介绍了三种创新框架——STaRK、AvaTaR和CollabLLM,这些框架旨在提升AI代理的推理能力、协作效率和假设检验功能。STaRK通过知识图谱增强AI的知识检索与...

Read More
2025-05-06 talkingdev

资深LLM用户自述:生成式大模型并非我的常用工具

近日,一位长期使用大语言模型(LLM)的资深用户在个人博客中分享了他的使用心得。尽管生成式LLM(如GPT系列)在业界引起广泛关注,但该作者表示自己并不频繁使用这类模型。相反,他更倾向于将LLM应用于特定场景,如...

Read More
2025-05-05 talkingdev

现代LLM采样技术入门指南:从原理到实践

一篇题为《Dummy's Guide to Modern LLM Sampling》的技术指南近期在开发者社区引发热议,该文章系统性地解读了现代大语言模型(LLM)中的采样技术。作为自然语言生成的核心组件,采样策略直接决定了文本输出的质量和...

Read More
2025-05-04 talkingdev

Anemll开源-在苹果神经引擎上运行大语言模型

GitHub最新开源项目Anemll(Artificial Neural Engine Machine Learning Library)引发开发者社区广泛关注,该项目实现了在苹果设备神经引擎(ANE)上高效运行大语言模型(LLMs)的技术突破。作为专为ANE优化的机器学习...

Read More
2025-05-03 talkingdev

[开源] BLAST:斯坦福大学发布高性能浏览器-LLM自动扩展服务引擎

斯坦福大学MAST实验室推出的BLAST项目,是一款专为浏览器增强型大语言模型(LLM)设计的高性能服务引擎。该技术旨在简化网页浏览AI代理的部署流程,显著提升响应速度并优化成本管理。其核心创新包括:1)自动并行化...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-05-02 talkingdev

RAG智能体可观测性技术深度解析

本文系统介绍了如何结合检索增强生成(RAG)技术与大语言模型运维(LLMOps)构建高仿真智能体的技术路径。作为当前AI领域的前沿方向,该方案通过实时监控智能体的决策过程、知识检索准确性和生成质量等关键指标,显...

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page