漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-26 talkingdev

Local-SGD:谷歌开源高效LLM训练方法

研究人员探索了一种名为异步Local-SGD的新的语言模型训练方法。这种方法是联邦平均的一种变体。

Read More
2024-01-23 talkingdev

机器学习工程开源书籍发布

机器学习工程开源书籍发布,该项目是一个开放的方法论集合,旨在帮助成功训练大型语言模型和多模态模型。该材料适用于LLM/VLM培训工程师和运营人员。书籍包含大量脚本和复制粘贴命令,以使读者能够快速解决问题。该...

Read More
2024-01-12 talkingdev

Unsloth轻量化库加速TRL上的模型

Unsloth是一个轻量化库,可加速语言模型的微调。它现在可以轻松地与TRL在常见的模型架构上配合使用。Unsloth库通过一个简单的API使得模型训练和微调更快速。它可以帮助从训练数据中自动学习、优化和微调模型,使得模...

Read More
2024-01-11 talkingdev

STL-开源自我涌现令牌标记的视觉转换器,提高稳定性

对于视觉转换器(ViTs)的显著进展,研究人员使用一种新的自我涌现令牌标记(STL)框架,提高了完全注意力网络(FAN)模型的鲁棒性。这种方法涉及训练FAN令牌标记器来创建有意义的补丁令牌标记,然后训练FAN学生模型。

Read More
2024-01-10 talkingdev

DeepSeek LLM技术报告发布:接近GPT-3.5水平

去年最好的编码模型之一是DeepSeek LLM。它在许多基准测试中接近GPT-3.5(即使它可能是3倍大小)。有关模型训练,令牌计数,模型架构等的信息已在技术报告中发布。DeepSeek LLM是一种基于语言模型的编码器,它使用自...

Read More
2023-12-25 talkingdev

开源Llama模型工具集,提高深度学习效率

Facebook发布了一组工具、资源和示例,用于使用Llama模型系列。该工具集可帮助深度学习从业人员更高效地进行模型训练和应用。Llama模型系列由Facebook AI Research开发,已被广泛用于计算机视觉领域。这个工具集将包...

Read More
2023-12-15 talkingdev

OpenAI与Axel Springer签署许可协议,用新闻内容训练AI模型

OpenAI与柏林出版商Axel Springer达成协议,将使用该出版商的内容来训练其生成式AI模型,并将最近由Axel Springer发布的文章添加到ChatGPT中。这项协议将使OpenAI的AI模型能够更好地理解新闻内容和语言,从而提高其...

Read More
2023-12-15 talkingdev

HyperRouter方法开源,提高LLM训练效率

HyperRouter方法提高LLM训练效率。该方法通过动态调整路由器参数,进一步提高了大型语言模型训练的效率。

Read More
  1. Prev Page
  2. 12
  3. 13
  4. 14
  5. Next Page