漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-09-22 talkingdev

通过扩展UNet优化稳定扩散的生成质量

稳定扩散是一种复杂的技术,其可大幅度提高生成质量,而无需进行额外的训练。这是通过巧妙地调整权重和在UNet中扩大残差来实现的。具体的代码将在不久后公布。UNet是一种广泛应用于图像分割的深度学习框架,其独特的...

Read More
2023-09-22 talkingdev

深度指南:提升你的机器学习工程能力

近日,一个针对提升机器学习(ML)工程能力的深度资源在GitHub上获得了大量关注。这个资源提供了一系列详细的指南和建议,可以帮助工程师在机器学习领域提升技能水平。它包括了从基础理论到实际应用的各个方面,旨在...

Read More
2023-09-21 talkingdev

告诉AI“深呼吸”,数学成绩飙升

Google开发了一种名为OPRO(Optimization by PROmpting)的技术,通过人类风格的鼓励,如“让我们一步一步思考”,来提高LLMs的数学技能。这种方法实际上是在AI的计算过程中注入了人类的思维方式,使其在解决问题时更...

Read More
2023-09-21 talkingdev

丰田研究所正在开发一种新方法,让机器人在一夜之间学会新技能

丰田研究所(TRI)正在展示其在研究进展中如何在一夜之间教授机器人新技能。TRI运用传统的机器人学习技术和类似于生成AI模型的扩散模型。其系统已经针对60种技能进行了训练,主要关注在不同环境中的多功能性,目标是制...

Read More
2023-09-20 talkingdev

ChatGPT的训练截止日期已经从2021年9月升级到2022年1月

ChatGPT,开放AI的对话机器人,近日进行了重要的更新。据公告,ChatGPT的训练截止日期已经从2021年9月升级到2022年1月。这意味着ChatGPT的学习和训练数据将包括更多的最近信息和知识。这个更新将使ChatGPT在处理最新...

Read More
2023-09-20 talkingdev

Anyscale推出Endpoints优化开源人工智能部署并加强与NVIDIA的整合

Anyscale近日发布了Endpoints,这是一种允许开发者使用流行的LLM API将快速、高效、可扩展的LLM集成到他们的应用程序中的工具。同时,该公司还宣布了与NVIDIA的新整合,以提升在Ray上的LLM的性能和开发,Ray是Anysca...

Read More
2023-09-19 talkingdev

论文:当LLM遇到外部冲突数据引发的智能混乱

像GPT-3这样的大型语言模型之所以聪明,是因为它们从大量数据中学习。那么,当新的信息与它们已经知道的信息冲突时,它们会如何反应呢?研究人员发现,这些模型可能会感到困惑,并给出错误的答案,尤其是当它们面临...

Read More
2023-09-18 talkingdev

GPT-4性能并未系统性下滑

与普遍观点相反,GPT-4的性能并未系统性地下滑。人工智能领域的专家和研究者们普遍认为,随着训练时间的增加,模型的性能会出现下滑,然而,这并不是GPT-4的情况。GPT-4的性能持续稳定,并显示出强大的学习和预测能...

Read More
  1. Prev Page
  2. 121
  3. 122
  4. 123
  5. Next Page