漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-24 talkingdev

自动化软件改进工具AutoCodeRover开源

AutoCodeRover是一款新的自动化软件改进工具,通过结合大语言模型和先进的代码搜索技术,能够实现包括错误修复和功能添加在内的软件改进。这款工具在GitHub Repo上线,为软件开发者带来了更方便的服务。无论是对软件...

Read More
2024-07-23 talkingdev

一起打造StoryTeller:Andrej Karpathy的LLM101n

Andrej Karpathy最近在GitHub上发布了一个新的仓库,概述了他正在进行的一个新课程。这个课程涉及到构建一个能够讲述故事的对齐语言模型。课程包括视频讲座、代码以及其他学习材料。Karpathy的这个项目是一次尝试,...

Read More
2024-07-23 talkingdev

llama.ttf: 一种集成大型语言模型的字体文件

llama.ttf是一个创新的字体文件,它不仅包含文字样式信息,还内嵌了一个大型语言模型(LLM)以及相应的推理引擎。这一技术突破利用了Harfbuzz字体塑形引擎中的Wasm塑形器,这个塑形器允许使用任意代码来塑形文本。通...

Read More
2024-07-22 talkingdev

Txtai开源—全能语义搜索与语言模型工作流处理平台

Txtai作为一个全能的嵌入式数据库,为语义搜索、LLM编排以及语言模型工作流提供了集成解决方案。它便于开发者进行语言模型的开发与部署,从而提高了开发效率。这个GitHub项目让我们能够更好地理解和利用大数据和人工...

Read More
2024-07-22 talkingdev

MoME-提升多模态语言模型性能的新方法

研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-19 talkingdev

论文:补丁级别训练技术提高LLMs的效率

研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...

Read More
2024-07-19 talkingdev

Mistral与Nvidia全新多语言模型Nemo 12B震撼发布

Mistral公司与Nvidia携手研发的全新多语言模型Nemo 12B已经正式发布。这款模型采用了全新的分词器进行训练,展现出了强大的多语言和英语处理能力。值得一提的是,Nemo 12B还支持128k的上下文。这种强大的性能,无疑...

Read More
2024-07-17 talkingdev

SmolLLM-HF推出高性能小语言模型

Hugging Face近日推出了一套名为SmolLLM的小型语言模型套件,其性能超越许多大型模型。这主要得益于数据集的精心策划和管理。SmolLLM以其精细的设计和优化,展示出了小型语言模型的巨大潜力和价值。这种模型不仅在处...

Read More
2024-07-17 talkingdev

DeRTa-提升LLMs安全性,解耦拒绝训练方法

近日,一种名为解耦拒绝训练(DeRTa)的新方法被提出,这种新方法通过解决拒绝位置偏差问题,进一步提高了大型语言模型(LLMs)的安全性调优效果。LLMs在各类应用场景中起着重要作用,安全性问题也因此变得尤为重要...

Read More
  1. Prev Page
  2. 5
  3. 6
  4. 7
  5. Next Page