漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-23 talkingdev

OMG-Seg全能图像和视频分割模型

OMG-Seg是一种新的模型,可以使用单个高效的系统执行各种图像和视频分割任务。与使用每个任务的不同模型的传统方法不同,OMG-Seg从图像语义到交互式视频分割处理所有内容,是一个一站式解决方案,降低了复杂性并增强...

Read More
2024-01-23 talkingdev

机器学习工程开源书籍发布

机器学习工程开源书籍发布,该项目是一个开放的方法论集合,旨在帮助成功训练大型语言模型和多模态模型。该材料适用于LLM/VLM培训工程师和运营人员。书籍包含大量脚本和复制粘贴命令,以使读者能够快速解决问题。该...

Read More
2024-01-22 talkingdev

儿童故事朗读工具:Tiny Narrations开源

Tiny Narrations是一个基于最受欢迎的Tiny Stories数据集的文本转语音版本。它使用SF Compute H100集群上的XTTS2。这个系统可以将短小精悍的故事转化为音频文件,方便用户在不同场景下收听。这个系统的优点是使用了...

Read More
2024-01-22 talkingdev

FILCO-通过上下文过滤提升AI理解能力

近日,GitHub开源了一项名为FILCO的技术,旨在通过上下文过滤来提高人工智能系统的性能,特别是在回答问题和核查事实等领域。该技术的工作原理是选择最有用的信息,并训练模型来过滤掉不相关的细节。相比传统的人工...

Read More
2024-01-22 talkingdev

Stablecode3B:比7B的CodeLlama更出色,可在MacBook上本地运行

据悉,最近发布的Stablecode 3B模型表现出色,其强大的性能超过了7B的CodeLlama模型。同时,该模型的尺寸足够小,能够在MacBook上本地运行,无需像7B模型一样需要大量的计算资源。这一模型的发布,标志着技术领域的...

Read More
2024-01-21 talkingdev

CPO策略提高翻译语言模型的能力

该项目提出了对比优化策略(CPO),以提高机器翻译中中等规模语言模型的性能。将该方法应用于13B参数ALMA模型,解决了监督微调的局限性,并取得了改进。CPO策略通过对模型的预训练进行增量式微调,有助于提高机器翻译...

Read More
2024-01-21 talkingdev

LMSYS发布SGLang和Radix Attention,提高提示和推理速度

LMSYS发布了两项语言模型推理的新技术。第一项是对后端进行的改进,提高了每秒的标记总数性能。第二项是嵌入式领域特定语言,用于复杂提示技术,允许并行提示。

Read More
2024-01-20 talkingdev

用GPT-4对Mixtral进行微调

Mixtral是一款人工智能软件,可用于数据处理和分析。使用GPT-4对其进行微调,可以快速降低其使用成本。GPT-4是最新一代的自然语言处理模型,具有更高的性能和更广泛的应用场景。在测试中,Mixtral与GPT-4的结合效果...

Read More
2024-01-20 talkingdev

Mega Dolphin成功合并

Dolphin被广泛认为是可用性最强的未经审查的开放模型之一。它主要建立在Mixtral上。这个120B的模型是通过合并两个较小的Dolphin模型而制成的。研究发现,与Goliath 120B一起使用这种合并过程可以提高整体模型性能

Read More
2024-01-16 talkingdev

哈佛研究团队开发出充电时间为分钟级、循环寿命为数千次的新型固态电池

哈佛大学约翰·A·保尔森工程与应用科学学院的研究人员开发出了一种新的锂金属电池,可以在几分钟内充电,并且至少可以进行6,000次充电循环。锂金属电池的能量密度远高于锂离子电池,重量也要轻得多。该团队还列出了其...

Read More
  1. Prev Page
  2. 77
  3. 78
  4. 79
  5. Next Page