漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-03-08 talkingdev

多头注意力实现基准测试开源

近代LML中常用的多头注意力模块的不同实现之间的速度存在近10倍的差异。本笔记本展示了其中几个实现,并对其性能进行了基准测试。

Read More
2024-03-08 talkingdev

CoLLM-通过协作提高LLM性能

Co-LLM推出了一种新方法,可以让大型语言模型协作,逐标记生成文本。这种策略允许模型利用其独特的优势和专业知识来完成各种任务,从而在遵循指令、特定领域问题和推理挑战等方面提高性能

Read More
2024-03-08 talkingdev

小型基准测试:用更少的示例评估LLM

评估语言模型通常采用手动策划的基准测试。其中一些基准测试非常大,有些超过14k个示例,这导致评估成本和噪声很高。这项工作表明,您可以可靠地评估流行基准测试中的语言模型性能,只需使用100个示例即可。

Read More
2024-03-08 talkingdev

Inflection新模型,个人助手Pi性能大幅提升

Inflection近日推出了一款新模型,为其个人助手Pi提供支持。该模型表现与GPT-4相当,在基准测试中具备出色的推理能力,达到了94%的成绩。Inflection声称,相对于GPT-4,该模型训练所需的计算资源仅占40%。有意思的是...

Read More
2024-03-07 talkingdev

MobileClip:快速文本和图像生成模型

MobileClip是一个快速的文本和图像模型,与OpenAI的原始CLIP模型性能相同,但运行速度提高了7倍。它可以在设备上用于各种视觉和语言任务。

Read More
2024-03-06 talkingdev

论文:支持更长上下文长度的LLMs技术研究

近日,研究人员开发了一种名为Resonance RoPE的新技术,帮助LLMs更好地理解和生成比其原始训练序列更长的文本。这种方法在现有的Rotary Position Embedding(RoPE)系统上进行了改进,提高了模型在长文本上的性能,...

Read More
2024-03-04 talkingdev

关于LLM量化的全面研究

随着人工智能模型的不断发展,越来越多的研究人员开始研究如何在不影响模型准确性的前提下,提高模型的计算效率和内存利用率。LLM量化是一种后训练量化技术,可以使像OPT和LLaMA2这样的大型语言模型更具内存和计算效...

Read More
2024-03-01 talkingdev

CharacterAI推出适用于机器学习编码的形状后缀

Character AI公司的一种编码风格极大地提高了张量中形状的可读性。这种风格使用形状后缀来标识张量中的形状,例如“weights_2x3”表示形状为2x3的权重张量。这种命名约定使得代码更加易读和易于理解,特别是对于机器学...

Read More
2024-03-01 talkingdev

StarCoderV2发布,具备16k上下文窗口和4T训练令其性能强劲

Big Code项目发布了旗舰编码模型的另一个版本StarCoder v2。该模型具有16k上下文窗口,经过4T令牌的训练,性能强劲,但仍然低于DeepSeek编码器。StarCoder v2将在程序员社区和人工智能研究领域引起轰动,标志着Big C...

Read More
2024-03-01 talkingdev

GDPO药物设计:基于图扩散策略优化的药物设计

基于图扩散策略优化的药物设计增强了使用独特的强化学习技术的图生成模型,该方法承诺在创建复杂和多样化的图结构方面具有更好的性能,并可能在该领域树立新的标准。

Read More
  1. Prev Page
  2. 68
  3. 69
  4. 70
  5. Next Page