漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-16 talkingdev

Nous Research推出Psyche网络:利用闲置GPU资源进行分布式AI训练

Nous Research近期推出的Psyche网络是一个基于Solana区块链的分布式训练系统,该系统允许拥有兼容硬件的用户自愿贡献其GPU资源用于AI模型训练。该项目的首个计划"Consilience"旨在利用20万亿个token训练一个拥有400...

Read More
2025-05-07 talkingdev

AI模型训练如何规避GDPR风险?匿名化与伪匿名化技术解析

在人工智能模型的开发过程中,确保符合《通用数据保护条例》(GDPR)的要求至关重要。开发者可采用匿名化数据集或伪匿名化技术,从根本上规避隐私合规风险。若无法实现完全匿名化,则需通过强化数据安全措施(如加密存...

Read More
2025-05-05 talkingdev

[开源]TScale-基于消费级GPU的分布式训练框架

GitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...

Read More
2025-04-29 talkingdev

[论文推荐]ReLearn:大语言模型高效遗忘学习的数据增强与微调方案

来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...

Read More
2025-04-18 talkingdev

REPA-E实现VAE与潜在扩散模型的端到端联合训练

近日,一项名为REPA-E的技术突破引发了机器学习领域的广泛关注。该技术通过创新的表示对齐损失函数,首次实现了变分自编码器(VAE)与潜在扩散模型的稳定联合训练。这种端到端的训练方法在ImageNet数据集上取得了当前...

Read More
2025-04-18 talkingdev

Hugging Face发布SIFT-50M语音指令微调数据集,支持多语言语音文本大模型训练

Hugging Face平台最新发布的SIFT-50M(Speech Instruction Fine-Tuning)数据集,是一个包含5000万样本的大规模语音指令微调数据集,专为语音-文本大语言模型(LLMs)的指令微调和预训练而设计。该数据集基于公开可...

Read More
2025-04-17 talkingdev

[开源]DeepMath数据集:10.3万道高纯度数学题助力推理模型训练

GitHub最新开源的DeepMath数据集为人工智能领域带来突破性资源——该数据集包含10.3万道经过严格过滤和去污染的数学问题,专门用于提升大语言模型的逻辑推理能力。这一资源解决了当前数学推理训练数据质量参差不齐的核...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page