漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-07-21 talkingdev

FFmpeg开发者通过手写汇编代码实现性能100倍提升

FFmpeg开发团队近日宣布,通过优化手写汇编代码,成功实现了性能的又一次重大飞跃,提升幅度高达100倍。这一突破被认为是迄今为止最大的速度提升之一。FFmpeg作为一款广泛使用的多媒体处理工具,其性能优化对视频编...

Read More
2025-07-10 talkingdev

3D碰撞检测算法新突破:分离轴测试性能提升5倍

近日,一项名为“分离轴测试(Separating Axis Test)”的3D碰撞检测算法迎来重大性能突破。开发者cairnc在疫情期间发现该优化方法,通过特定技巧可使检测速度提升5倍,相关技术细节已在其GitHub仓库公开。该算法在Hac...

Read More
2025-07-07 talkingdev

德国TNG实验室发布DeepSeek-TNG R1T2 Chimera模型,速度提升200%

德国知名技术咨询公司TNG Technology Consulting GmbH近日发布了其最新研发的DeepSeek-TNG R1T2 Chimera模型。这一突破性进展在人工智能领域引起广泛关注,该模型不仅显著提升了处理速度达200%,同时大幅减少了输出t...

Read More
2025-07-04 talkingdev

本地运行与微调Gemma 3N指南:基于llama.cpp与Unsloth的实践方案

谷歌最新推出的Gemma 3N模型现可通过Dynamic GGUFs技术在本地环境中运行,技术社区已实现与llama.cpp、Ollama及Open WebUI生态的无缝集成。本文详解三种部署方案的技术要点:1)利用llama.cpp的量化推理优化实现低资...

Read More
2025-07-02 talkingdev

Sentence Transformers推出稀疏编码器微调功能,助力混合搜索与重排序

Sentence Transformers最新升级引入对稀疏嵌入模型训练的支持,这一技术突破特别适用于混合搜索和重排序场景。该博客详细解析了模型的核心组件与训练步骤,并重点介绍了基于SPLADE架构的现成模型。稀疏编码技术通过...

Read More
2025-06-30 talkingdev

PyTorch与vLLM深化集成,提升大语言模型推理效率

PyTorch与vLLM近日宣布深化技术整合,新增支持量化、注意力机制定制及异构硬件加速等关键功能。这一合作标志着两大开源框架在优化大语言模型(LLM)推理性能方面取得重要突破:量化技术可降低模型计算资源消耗达4-8...

Read More
2025-06-30 talkingdev

[论文推荐]FedEDS:基于加密数据共享的联邦学习新方案

FedEDS是一种针对边缘设备联邦学习的新型方案,其创新性地通过客户端间加密数据共享机制,有效解决了数据异构性和物理分布带来的性能瓶颈。该技术突破由arXiv最新研究论文披露,通过同态加密和分布式密钥管理,在保...

Read More
2025-06-24 talkingdev

[论文推荐]SeLoRA技术突破:通过稀疏谱子空间重构削减LoRA冗余参数

来自arXiv的最新研究论文提出SeLoRA(Spectral-efficient Low-Rank Adaptation)技术,通过将LoRA适配器重新参数化为稀疏谱子空间,在保持模型表达能力的前提下显著减少冗余参数。该技术在多模态任务测试中表现突出...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page