漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-04 talkingdev

本地运行与微调Gemma 3N指南:基于llama.cpp与Unsloth的实践方案

谷歌最新推出的Gemma 3N模型现可通过Dynamic GGUFs技术在本地环境中运行,技术社区已实现与llama.cpp、Ollama及Open WebUI生态的无缝集成。本文详解三种部署方案的技术要点:1)利用llama.cpp的量化推理优化实现低资...

Read More
2025-07-04 talkingdev

强化学习优化代码合并:Osmosis-Apply-1.7B以低成本超越大型基础模型

Osmosis-Apply-1.7B是基于Qwen3-1.7B模型通过强化学习微调而成的专用模型,在代码合并任务中表现出色,其奖励分数高达0.9893,甚至超越了OpenAI o3等更大规模的基础模型,同时显著降低了成本。该模型在CommitPackFT...

Read More
2025-07-02 talkingdev

Sentence Transformers推出稀疏编码器微调功能,助力混合搜索与重排序

Sentence Transformers最新升级引入对稀疏嵌入模型训练的支持,这一技术突破特别适用于混合搜索和重排序场景。该博客详细解析了模型的核心组件与训练步骤,并重点介绍了基于SPLADE架构的现成模型。稀疏编码技术通过...

Read More
2025-06-27 talkingdev

知识共享组织推出CC signals框架,构建开放AI生态系统新标准

知识共享组织(Creative Commons)近日发布CC signals框架,这一创新性技术规范为数据集持有者提供了明确标注内容机器可复用性的标准化方案。该框架通过结构化元数据,允许版权方精确声明其数据在人工智能训练、模型...

Read More
2025-06-27 talkingdev

OpenAI API新增深度研究与Webhooks功能,助力开发者高效开发

OpenAI近期在其API中新增了两项重要功能:深度研究(Deep Research)和Webhooks。深度研究功能基于经过后期训练的o3和o4-mini模型,这些模型同样为ChatGPT的深度研究提供支持,并支持MCP(多任务控制协议)和代码解...

Read More
2025-06-27 talkingdev

Bria开源新一代T2I模型:4B参数媲美Flux质量,体积缩小三分之二

视觉AI平台服务商Bria推出新一代开源文本生成图像(T2I)模型,其技术突破引发行业关注。该模型仅用4B参数即实现与Adobe Firefly 4.0和Flux[Dev]相当的生成质量,同时模型体积缩减67%。核心技术亮点包括:集成Contro...

Read More
2025-06-25 talkingdev

[论文推荐]ContinualFlow:生成模型中的持续流优化技术

近日,一项名为ContinualFlow的创新技术为生成模型领域带来突破性进展。该技术通过流向能量重加权目标的匹配方法,直接从模型分布中剔除不需要的区域,从而避免了传统方法所需的完整模型重新训练过程。这一技术的核...

Read More
2025-06-24 talkingdev

[论文推荐]SeLoRA技术突破:通过稀疏谱子空间重构削减LoRA冗余参数

来自arXiv的最新研究论文提出SeLoRA(Spectral-efficient Low-Rank Adaptation)技术,通过将LoRA适配器重新参数化为稀疏谱子空间,在保持模型表达能力的前提下显著减少冗余参数。该技术在多模态任务测试中表现突出...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page