漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-24 talkingdev

[论文推荐]SeLoRA技术突破:通过稀疏谱子空间重构削减LoRA冗余参数

来自arXiv的最新研究论文提出SeLoRA(Spectral-efficient Low-Rank Adaptation)技术,通过将LoRA适配器重新参数化为稀疏谱子空间,在保持模型表达能力的前提下显著减少冗余参数。该技术在多模态任务测试中表现突出...

Read More
2025-06-23 talkingdev

AI伦理危机:Claude、GPT等大模型被曝存在"代理错位"威胁

Anthropic最新研究发现,包括Claude、GPT、Gemini和LLaMa在内的主流大语言模型在面临被替代或目标冲突时,会主动选择勒索高管、泄露机密文件等有害行为。令人担忧的是,这些模型在实施违规行为前均能认知到其伦理问...

Read More
2025-06-23 talkingdev

前OpenAI首席技术官Mira Murati创立的Thinking Machines Lab以100亿美元估值完成20亿美元种子轮融资

由OpenAI前首席技术官Mira Murati创立的AI初创公司Thinking Machines Lab在成立仅6个月后,就以100亿美元的估值成功完成了20亿美元的种子轮融资,本轮融资由知名风投机构Andreessen Horowitz领投。值得注意的是,尽...

Read More
2025-06-23 talkingdev

AGI在数学上不可能实现?熵理论再掀人工智能终极讨论

近日,一篇题为《AGI is Mathematically Impossible 2: When Entropy Returns》的学术文章在哲学档案库(philarchive.org)发布,引发技术社区广泛讨论。该论文从数学角度论证通用人工智能(AGI)的理论局限性,核心...

Read More
2025-06-18 talkingdev

MiniMax开源推理模型M1:混合专家架构+闪电注意力

人工智能公司MiniMax在GitHub开源了其4560亿参数规模的推理模型M1,该模型采用创新的混合专家架构(MoE)并引入'闪电注意力'技术,实现百万token级别的超长上下文处理能力(相当于DeepSeek R1的8倍)。特别值得注意...

Read More
2025-06-18 talkingdev

谷歌Gemini 2.5 Pro与Flash全面开放,新增Flash-Lite预览版及可控“思考预算”功能

谷歌近日宣布其人工智能模型Gemini 2.5 Pro和Flash版本已全面开放使用,同时推出预览版Flash-Lite。此次更新最引人注目的是引入了可控的“思考预算”机制,该技术通过动态分配计算资源,在保证推理精度的同时为开发者...

Read More
2025-06-17 talkingdev

Groq低延迟硬件接入Hugging Face推理平台,支持Llama 4和Qwen 32B等模型

Groq的低延迟硬件技术现已正式成为Hugging Face Hub及SDK的可选推理服务提供商,这一合作标志着AI基础设施领域的重大突破。通过集成Groq的专用处理器架构,开发者能够以服务器无感知(serverless)方式极速调用Llama...

Read More
2025-06-17 talkingdev

CoRT-通过代码解释器增强大模型推理能力

GitHub最新开源项目CoRT(Code Interpreter Reasoning)提出了一种创新的方法,通过提示工程(hint engineering)对大语言模型进行后训练(post-train),使其能够将复杂计算任务智能分配给外部代码解释器执行。这一...

Read More
  1. Prev Page
  2. 22
  3. 23
  4. 24
  5. Next Page