漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-04 talkingdev

从Next.js到Ruby on Rails:一家公司的技术栈迁移心路历程

近日,Hardcover团队在其博客中详细分享了他们从Next.js迁移至Ruby on Rails及Inertia.js的技术决策过程。这篇题为《我们为何不再爱Next.js,重新爱上Ruby on Rails》的文章引发了开发者社区的广泛讨论,在Hacker Ne...

Read More
2025-05-03 talkingdev

[开源] BLAST:斯坦福大学发布高性能浏览器-LLM自动扩展服务引擎

斯坦福大学MAST实验室推出的BLAST项目,是一款专为浏览器增强型大语言模型(LLM)设计的高性能服务引擎。该技术旨在简化网页浏览AI代理的部署流程,显著提升响应速度并优化成本管理。其核心创新包括:1)自动并行化...

Read More
2025-05-02 talkingdev

微软OmniParser v2.0:全新截图解析工具性能大提升

微软近日发布了其广受欢迎的截图解析工具OmniParser的重大版本更新——OmniParser v2.0。作为一款领先的视觉信息处理工具,新版本在Screenshot Pro基准测试中表现优异,展现了微软在计算机视觉和自然语言处理领域的技...

Read More
2025-05-02 talkingdev

OpenAI计划推出开源AI模型,支持云端大模型协同计算

OpenAI宣布将于今夏发布一款可自由下载的开源AI系统,旨在性能上超越Meta、DeepSeek等竞争对手。该模型拟引入革命性的'任务转交'功能,当遭遇复杂查询时可无缝衔接云端部署的更大规模OpenAI模型进行联合计算。这一技...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-05-02 talkingdev

微软推出Phi-4-reasoning变体,推动小型语言模型在效率与推理能力上的突破

微软近日发布了Phi-4-reasoning系列变体,这一创新标志着小型语言模型(SLMs)在效率与复杂推理能力上的重大进展。Phi-4-reasoning通过算法优化和架构改进,在保持参数规模精简的同时,实现了接近大型语言模型(LLMs...

Read More
2025-05-01 talkingdev

[论文推荐]研究人员发现通过表征控制向量可调节大语言模型推理能力

最新研究表明,通过在大语言模型(LLM)的残差流中实施简单的表征控制向量干预,可显著调节其推理性能。这项发表于arXiv的突破性研究揭示了神经网络内部表征与逻辑推理能力的直接关联,为可解释AI领域提供了新工具。...

Read More
2025-05-01 talkingdev

国产x86处理器新突破:兆芯KX-7000架构深度解析

作为中国自主x86处理器设计商,兆芯最新发布的KX-7000系列处理器引发行业广泛关注。该处理器采用全新微架构设计,在芯片性能、能效比及指令集兼容性方面实现显著提升,标志着国产CPU在核心技术领域的又一重要突破。...

Read More
  1. Prev Page
  2. 44
  3. 45
  4. 46
  5. Next Page