漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-12-07 talkingdev

AI浪潮下的“二次创业”:Airtable、Handshake等多家公司宣布“重构”以拥抱人工智能

据《纽约时报》记者Lora Kelley报道,在人工智能技术迅猛发展的时代背景下,近期涌现出一股引人注目的企业战略转型浪潮。包括Airtable、Handshake和Opendoor在内的多家知名科技公司,相继公开宣布正在进行“重构”或“...

Read More
2025-12-05 talkingdev

Hugging Face新技能:Claude AI现已能微调开源大语言模型

Hugging Face平台近日推出了一项名为“Hugging Face Skills”的新功能,该功能赋予了Anthropic公司的Claude AI模型直接微调开源大语言模型的能力。这项技术突破意味着,用户现在可以通过Claude的对话界面,直接提交模...

Read More
2025-10-06 talkingdev

LoRA无憾:低秩适配技术全面匹敌全参数微调,突破大模型高效训练瓶颈

思维机器实验室最新研究揭示了低秩适配技术(LoRA)在大语言模型微调领域的突破性表现。这项发表于权威平台的研究表明,当LoRA应用于模型所有层(尤其是MLP层)且不受数据集规模限制时,其性能可完全媲美传统全参数...

Read More
2025-06-24 talkingdev

[论文推荐]SeLoRA技术突破:通过稀疏谱子空间重构削减LoRA冗余参数

来自arXiv的最新研究论文提出SeLoRA(Spectral-efficient Low-Rank Adaptation)技术,通过将LoRA适配器重新参数化为稀疏谱子空间,在保持模型表达能力的前提下显著减少冗余参数。该技术在多模态任务测试中表现突出...

Read More
2025-06-19 talkingdev

[论文推荐]Text-to-LoRa:无需训练数据的即时Transformer定制技术

Sakana AI研究团队开发出一项突破性技术——Text-to-LoRa(T2L)系统,该系统仅需文本描述即可即时定制大型语言模型,无需传统方法所需的训练数据或耗时微调过程。该技术的核心创新在于将数百个LoRA适配器(一种高效轻...

Read More
2025-05-08 talkingdev

[论文推荐]基于LoRA的代码检索方法:参数减少98%准确率提升9.1%

研究人员最新提出了一种基于LoRA(低秩适应)的微调方法,专门针对代码搜索任务进行优化。该方法通过低秩矩阵分解技术,将可训练参数总量压缩至原始模型的2%以下,同时显著提升了代码检索的准确率——在Code2Code任务...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-04-20 talkingdev

Raspberry Pi推出高精度Lidar扫描仪,开启低成本3D感知新纪元

近日,Raspberry Pi基金会正式发布基于其单板计算机的Lidar扫描解决方案,该设备通过脉冲激光测距技术可实现毫米级精度的三维环境建模。这款兼容Raspberry Pi 4/5的Lidar模块采用TOF(飞行时间)原理,最大测距达12...

Read More
  1. 1
  2. 2
  3. 3
  4. Next Page