漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-23 talkingdev

AGI在数学上不可能实现?熵理论再掀人工智能终极讨论

近日,一篇题为《AGI is Mathematically Impossible 2: When Entropy Returns》的学术文章在哲学档案库(philarchive.org)发布,引发技术社区广泛讨论。该论文从数学角度论证通用人工智能(AGI)的理论局限性,核心...

Read More
2025-06-18 talkingdev

MiniMax开源推理模型M1:混合专家架构+闪电注意力

人工智能公司MiniMax在GitHub开源了其4560亿参数规模的推理模型M1,该模型采用创新的混合专家架构(MoE)并引入'闪电注意力'技术,实现百万token级别的超长上下文处理能力(相当于DeepSeek R1的8倍)。特别值得注意...

Read More
2025-06-18 talkingdev

谷歌Gemini 2.5 Pro与Flash全面开放,新增Flash-Lite预览版及可控“思考预算”功能

谷歌近日宣布其人工智能模型Gemini 2.5 Pro和Flash版本已全面开放使用,同时推出预览版Flash-Lite。此次更新最引人注目的是引入了可控的“思考预算”机制,该技术通过动态分配计算资源,在保证推理精度的同时为开发者...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More
2025-06-17 talkingdev

CoRT-通过代码解释器增强大模型推理能力

GitHub最新开源项目CoRT(Code Interpreter Reasoning)提出了一种创新的方法,通过提示工程(hint engineering)对大语言模型进行后训练(post-train),使其能够将复杂计算任务智能分配给外部代码解释器执行。这一...

Read More
2025-06-17 talkingdev

生成式AI编程工具为何对我无效?开发者深度剖析技术局限性

知名开发者Miguel Grinberg在其博客撰文,系统阐述为何拒绝使用生成式AI编程工具。文章指出,当前基于GPT等大模型的代码生成工具存在三大核心问题:1) 生成的代码缺乏上下文理解,常需人工重构;2) 无法处理复杂业务...

Read More
2025-06-16 talkingdev

ParetoQ算法突破低比特量化技术瓶颈,统一二元、三元及2至4位量化方案

PyTorch官方博客最新发布的ParetoQ训练算法在低比特量化领域取得重大突破。该技术首次实现了二元(1-bit)、三元(1.58-bit)和2至4位量化的统一框架,并在所有量化级别上均达到当前最优性能。这一突破性进展尤其适...

Read More
2025-06-14 talkingdev

[论文推荐]自适应性语言模型SEAL:让大模型学会自我更新

斯坦福大学研究团队提出突破性框架SEAL(Self-Adapting LLMs),首次实现大型语言模型的自主适应性进化。传统LLM虽功能强大但参数固化,SEAL通过生成自我微调数据和更新指令,使模型能根据新任务、知识或案例动态调...

Read More
  1. Prev Page
  2. 7
  3. 8
  4. 9
  5. Next Page