Deno公司近日正式推出Deno Sandbox平台,这是一项专为安全执行不可信代码设计的前沿基础设施服务,尤其针对当前大语言模型(LLM)生成代码的安全运行难题提供了创新解决方案。该平台的核心技术在于采用轻量级Linux微...
Read More近日,NVIDIA研究团队提出了一种名为“金鹅”(Golden Goose)的创新方法,旨在解决大语言模型(LLM)强化学习领域的一个关键瓶颈。当前,基于可验证奖励的强化学习(RLVR)是解锁LLM复杂推理能力的重要基石,但其发展...
Read More一项最新研究显示,通过对开源大语言模型进行高效的微调,其性能可以超越顶尖的闭源模型。研究团队采用直接偏好优化方法,仅使用5400对偏好数据对GPT-OSS 120B模型进行训练,使其在RewardBench 2评估基准的人类偏好...
Read More近日,GitHub上开源了一个名为Dash的自学习数据代理项目,其设计灵感来源于OpenAI的内部实现。该项目旨在解决原始大型语言模型在生成SQL时普遍存在的痛点,例如因上下文缺失、缺乏团队内部知识(Tribal Knowledge)...
Read More名为“daily_stock_analysis”的开源项目在利用大型语言模型(LLM)技术,为个人投资者打造一个功能全面且完全免费的智能股票分析工具。其核心设计理念是“零成本,纯白嫖”,通过整合多数据源行情、实时新闻资讯,并调...
Read More近日,开发者jmuncor在GitHub上开源了一个名为Sherlock的工具,它是一个专门用于拦截和可视化大型语言模型API流量的中间人代理。该工具源于开发者对Claude Code等AI开发工具实际API通信内容的好奇心。Sherlock部署在...
Read More字节跳动Seed团队在GitHub上开源了Stable-DiffCoder项目,这是一个基于扩散模型(Diffusion Model)构建的轻量级代码大语言模型(Code DLLM)家族。该项目创新性地将扩散模型的生成范式引入代码建模领域,通过“块扩...
Read More近日,一个名为TTT-Discover的开源项目在GitHub上发布,其核心创新在于将强化学习(Reinforcement Learning)技术应用于大型语言模型(LLMs)的推理(Inference)阶段,而非传统的训练阶段。这一“测试时训练”(Test-...
Read More