漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-08-11 talkingdev

引领科技潮流,impel-Mac智能AI伴侣正式亮相

「impel」是一款专为Mac设计的全天候AI伴侣。这款产品理解您屏幕上的内容,无需任何提示,就能自动提供建议、信息和行动。它能够理解和解析用户在屏幕上进行的所有活动,并根据上下文,无需用户主动询问,就能主动提...

Read More
2023-08-11 talkingdev

论文:通过在上下文中学习提升Llama-2模型的性能

在一篇新的研究报告中,研究人员在聊天式提示中通过检索9个演示示例,使用预训练的Llama-2语言模型进行了在上下文中的学习。这种方法并没有改变模型的权重,但它使得与文本达芬奇-003模型相比,赢率增加了7倍,使其...

Read More
2023-07-31 talkingdev

优化后的Llama 2,上下文长度达到32k

最近获得2000万美元投资的together公司,已经对Llama 2进行了微调,通过在位置嵌入上进行线性扩展,使其在处理上下文时可以处理高达32k的token。他们在许多有趣的基准测试中进行了测试,但是他们警告说,现代语言模...

Read More
2023-07-18 talkingdev

Video-FocalNet:更优秀的视频识别系统

该项目介绍了Video-FocalNet,这是一个有效而高效的视频识别系统,它将Transformer和卷积模型的优点合二为一。Video-FocalNet采用了独特的方法,能够有效地分析视频的局部和全局上下文,这使得它在多个大型数据集上...

Read More
2023-07-14 talkingdev

LongLlama - 聚焦变换器训练的开放源码模型(GitHub Repo)

聚焦变换器是一种有趣的检索策略,它使用对比学习来提高key和value的缓存使用。此方法已被证明可相对稳定地扩展到几十万个标记。然而,目前尚不清楚这种方法在大规模应用中的表现如何,或者是否受到其他长期上下文方...

Read More
2023-07-08 talkingdev

InternLM公开7亿参数的基础聊天模型,专为实际场景设计

近日,InternLM在GitHub上公开了一款专为实际场景设计的基础聊天模型。该模型拥有7亿的参数,可广泛应用于各种实际场景,如客户服务、在线咨询等。InternLM的这款模型采用了先进的深度学习技术,能够理解和回应用户...

Read More
2023-07-03 talkingdev

百万上下文token助力DNA任务

最近,状态空间模型引起了广泛关注。它们作为一种潜在有用的模型替代方案而出现,通过避开Transformer的一些挑战性方面,同时保持性能。在这项工作中,Hyena模型被应用于DNA序列建模,并在23个任务中取得了改进。

Read More
2023-06-23 talkingdev

MPT 30B发布:具备编码能力的巨型语言模型

MPT是MosaicML推出的一系列语言模型。仅在推出几周内,其7B模型已经被下载了数百万次。这款全新的30B模型是在H100s上进行训练的,具备8000个上下文长度。它经过商业授权,甚至可以进行编码!该模型可以在单个A100上...

Read More
  1. Prev Page
  2. 27
  3. 28
  4. 29
  5. Next Page