漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-07-22 talkingdev

利用LLM转换代码库,提升开发效率

Mantle公司采用了Gemini 1.0 Pro LLM,并设置了一个百万token窗口,将原型项目转换为生产就绪的代码库,通过处理样板代码和重复模式,从而减少了工作量。这种方法利用了大量上下文和迭代代码生成,为开发团队节省了...

Read More
2024-07-22 talkingdev

Txtai开源—全能语义搜索与语言模型工作流处理平台

Txtai作为一个全能的嵌入式数据库,为语义搜索、LLM编排以及语言模型工作流提供了集成解决方案。它便于开发者进行语言模型的开发与部署,从而提高了开发效率。这个GitHub项目让我们能够更好地理解和利用大数据和人工...

Read More
2024-07-22 talkingdev

MoME-提升多模态语言模型性能的新方法

研究人员提出了一种名为“多模态专家混合体” (MoME) 的方法,以解决通用的多模态大型语言模型(MLLMs)中的任务干扰问题。在多模态大型语言模型中,任务干扰是一个常见的问题,它可能会影响模型的性能和效率。MoME的提...

Read More
2024-07-19 talkingdev

LLM2sh:让命令行更人性化的开源工具

GitHub近日发布了一款命令行实用工具——LLM2sh。这项工具的主要功能在于利用LLMs技术,将用户的普通语言请求转化为shell命令。通过LLM2sh,用户可以用日常语言来控制和指导计算机操作,提升了命令行的便利性和亲和力...

Read More
2024-07-19 talkingdev

E5-V开源-全球多模态嵌入与LLMs

E5-V是一种新的框架,其改编了多模态大型语言模型(MLLMs)以创建全球多模态嵌入。通过使用提示,它弥补了不同输入类型之间的差距,而无需进行微调就实现了在多模态任务中的令人印象深刻的性能。这一全球多模态嵌入...

Read More
2024-07-19 talkingdev

论文:补丁级别训练技术提高LLMs的效率

研究人员提出了针对大型语言模型(LLMs)的补丁级别训练,以提高训练效率。补丁级别训练是一种新的技术,目的是优化大型语言模型的处理能力。这种方法通过在训练过程中引入更精细的补丁级别,提高了模型的训练效率,...

Read More
2024-07-18 talkingdev

企业真的准备好接受LLM了吗?最新研究报告揭秘

据Composable最新发布的一份报告,81%的技术团队预计在未来两年内将运行2个以上的GenAI模型。然而,为何大多数的项目仍处于试验阶段?这是许多业界人士都在关注的问题。此份报告详尽地分析了当前企业在实施LLM方面的...

Read More
2024-07-18 talkingdev

PraisonAI:简化多Agent系统创建与控制的低代码框架

Praison AI是一个低代码,集中式框架,旨在简化多代理系统的创建和协调,以便于各种LLM应用。该框架利用其他代理框架,具有易于使用,定制和人-代理交互等特点。Praison AI的主要优势在于其将复杂的多代理系统开发流...

Read More
2024-07-18 talkingdev

Prover-Verifier改善LLM可读性

OpenAI训练了一个强大的模型,以便为弱模型输出更易读的文本,并发现这导致了LLM整体可读性的普遍提高。通过对弱模型进行精准评估,强模型的文本输出效果得到大幅提升。在日常实际应用中,这种提升将促进文本信息的...

Read More
2024-07-17 talkingdev

SmolLLM-HF推出高性能小语言模型

Hugging Face近日推出了一套名为SmolLLM的小型语言模型套件,其性能超越许多大型模型。这主要得益于数据集的精心策划和管理。SmolLLM以其精细的设计和优化,展示出了小型语言模型的巨大潜力和价值。这种模型不仅在处...

Read More
  1. Prev Page
  2. 13
  3. 14
  4. 15
  5. Next Page