漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-03 talkingdev

[论文推荐]语言模型究竟记住了多少?揭秘记忆与泛化的边界

一项突破性研究通过对比模型在随机数据(无法泛化)和真实文本上的训练表现,开发出区分记忆与泛化的新方法。研究发现,模型会先记忆训练数据直至容量饱和,随后转向学习通用模式。以GPT类Transformer为例,每个参数...

Read More
2025-05-30 talkingdev

[开源]Meta提出零样本嫁接技术:降低VLM训练成本45%

Meta研究团队最新提出的零样本嫁接(zero-shot grafting)方法,通过从大型语言模型(LLM)的浅层中提取小型代理模型来训练视觉编码器,实现了视觉语言模型(VLM)训练成本降低约45%的突破。该技术不仅显著降低了计...

Read More
2025-05-23 talkingdev

OpenAI与阿联酋G42合作建设全球最大AI数据中心Stargate UAE

OpenAI宣布与阿联酋科技集团G42等合作伙伴共同在阿布扎比建设超大规模人工智能数据中心Stargate UAE。该设施设计容量达1吉瓦,建成后将成为全球算力最强的AI基础设施之一。作为阿联酋国家AI战略的核心项目,首期200...

Read More
2025-05-21 talkingdev

[论文推荐]DeepSeek-V3训练内幕:揭秘硬件-模型协同设计突破性实践

DeepSeek研究团队以DeepSeek-V3为案例,分享了大型语言模型(LLM)训练中的硬件-模型协同设计创新成果。该研究通过多头部潜在注意力机制(Multi-head Latent Attention)、专家混合系统(Mixture of Experts)、FP8...

Read More
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-16 talkingdev

Nous Research推出Psyche网络:利用闲置GPU资源进行分布式AI训练

Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...

Read More
2025-05-07 talkingdev

AI模型训练如何规避GDPR风险?匿名化与伪匿名化技术解析

在人工智能模型的开发过程中,确保符合《通用数据保护条例》(GDPR)的要求至关重要。开发者可采用匿名化数据集或伪匿名化技术,从根本上规避隐私合规风险。若无法实现完全匿名化,则需通过强化数据安全措施(如加密存...

Read More
2025-05-05 talkingdev

[开源]TScale-基于消费级GPU的分布式训练框架

GitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page