漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-10-17 talkingdev

Gemini 3.0通过A/B测试意外曝光:SVG生成质量成关键指标

近日,开发者通过Google AI Studio的A/B测试功能,意外捕捉到尚未正式发布的Gemini 3.0模型踪迹。该测试以SVG矢量图形生成作为核心评估标准,通过对比不同版本模型的输出质量,间接验证了新一代模型在复杂结构化数据...

Read More
2025-09-19 talkingdev

GPT-5重大更新:模型具备时间感知能力,安全测试面临新挑战

OpenAI最新发布的GPT-5 API展现出突破性特性——该模型成为首个具备实时时间感知能力的大型语言模型。这一技术演进引发学术界高度关注,因为当模型知晓当前日期时,能够识别出自身正处于测试环境中。研究表明,AI模型...

Read More
2025-09-17 talkingdev

谷歌发布Genkit Go 1.0:开源AI开发框架正式投入生产环境,同步推出AI辅助编程工具

谷歌开发者博客正式宣布Genkit Go 1.0开源AI开发框架达到生产就绪状态,这是专为Go语言打造的企业级AI应用开发解决方案。该框架支持快速构建、测试和部署生成式AI应用,集成了Firebase、Google Cloud等云服务生态。...

Read More
2025-09-15 talkingdev

LLM后训练全流程深度解析:从SFT到RLHF与评估最佳实践

这篇技术长文系统性地剖析了大语言模型(LLM)的后训练完整生命周期,涵盖了监督微调(SFT)、奖励建模(Reward Modeling)以及强化学习方法(如RLHF)三大核心阶段。作者不仅详细阐述了如何通过人类反馈的强化学习...

Read More
2025-08-28 talkingdev

OpenAI与Anthropic达成AI安全互测协议,共筑行业安全新标准

OpenAI与Anthropic近日达成一项突破性合作,双方开放内部API接口进行交叉安全测试,旨在通过第三方视角发现彼此模型评估中的盲点。这一举措标志着AI行业从封闭式自查向开放式协作安全验证的重要转变。通过技术互鉴,...

Read More
2025-05-09 talkingdev

[论文推荐]排行榜幻觉:Chatbot Arena基准测试中的隐藏偏差

最新研究发现,知名聊天机器人竞技平台Chatbot Arena的基准测试存在系统性偏差,主要源于未公开的私有测试和选择性数据访问机制。科技巨头如Google和OpenAI凭借数据特权形成垄断优势,其模型可获得充分调优,而开源...

Read More
2025-05-06 talkingdev

LRAGE-法律领域大语言模型评估框架开源

LRAGE(Legal RAG Evaluation Toolkit)是一个开源的评估框架,专门用于在法律领域的检索增强生成(RAG)任务中评估大语言模型(LLM)的性能。该工具包集成了多种数据集和评估工具,为研究人员提供了一个全面的平台...

Read More
2025-04-24 talkingdev

ARC-AGI基准测试揭示OpenAI新模型o3与o4-mini推理能力差异

ARC Prize基金会近期采用ARC-AGI基准对OpenAI最新发布的o3-medium和o4-mini模型进行了系统评估。测试结果显示,o3-medium在基础版ARC-AGI-1测试中表现突出,但在需要高阶推理能力的ARC-AGI-2挑战集上未能取得突破性...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page