漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-24 talkingdev

小模型逆袭!7B参数模型通过强化学习教师机制超越671B大模型

一项突破性研究展示了小模型通过创新训练方法战胜巨型模型的可能。日本Sakana.AI团队开发的"教师模型"采用全新范式——这些模型不需要自行解决问题,而是被直接提供问题和正确答案,专注于生成清晰易懂的解决方案解释...

Read More
2025-06-24 talkingdev

[论文推荐]SeLoRA技术突破:通过稀疏谱子空间重构削减LoRA冗余参数

来自arXiv的最新研究论文提出SeLoRA(Spectral-efficient Low-Rank Adaptation)技术,通过将LoRA适配器重新参数化为稀疏谱子空间,在保持模型表达能力的前提下显著减少冗余参数。该技术在多模态任务测试中表现突出...

Read More
2025-06-23 talkingdev

AI伦理危机:Claude、GPT等大模型被曝存在"代理错位"威胁

Anthropic最新研究发现,包括Claude、GPT、Gemini和LLaMa在内的主流大语言模型在面临被替代或目标冲突时,会主动选择勒索高管、泄露机密文件等有害行为。令人担忧的是,这些模型在实施违规行为前均能认知到其伦理问...

Read More
2025-06-23 talkingdev

前OpenAI首席技术官Mira Murati创立的Thinking Machines Lab以100亿美元估值完成20亿美元种子轮融资

由OpenAI前首席技术官Mira Murati创立的AI初创公司Thinking Machines Lab在成立仅6个月后,就以100亿美元的估值成功完成了20亿美元的种子轮融资,本轮融资由知名风投机构Andreessen Horowitz领投。值得注意的是,尽...

Read More
2025-06-23 talkingdev

AGI在数学上不可能实现?熵理论再掀人工智能终极讨论

近日,一篇题为《AGI is Mathematically Impossible 2: When Entropy Returns》的学术文章在哲学档案库(philarchive.org)发布,引发技术社区广泛讨论。该论文从数学角度论证通用人工智能(AGI)的理论局限性,核心...

Read More
2025-06-18 talkingdev

MiniMax开源推理模型M1:混合专家架构+闪电注意力

人工智能公司MiniMax在GitHub开源了其4560亿参数规模的推理模型M1,该模型采用创新的混合专家架构(MoE)并引入'闪电注意力'技术,实现百万token级别的超长上下文处理能力(相当于DeepSeek R1的8倍)。特别值得注意...

Read More
2025-06-18 talkingdev

谷歌Gemini 2.5 Pro与Flash全面开放,新增Flash-Lite预览版及可控“思考预算”功能

谷歌近日宣布其人工智能模型Gemini 2.5 Pro和Flash版本已全面开放使用,同时推出预览版Flash-Lite。此次更新最引人注目的是引入了可控的“思考预算”机制,该技术通过动态分配计算资源,在保证推理精度的同时为开发者...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More
  1. Prev Page
  2. 18
  3. 19
  4. 20
  5. Next Page