漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-04-11 talkingdev

策略引导扩散技术:提升离线强化学习模型性能

策略引导扩散(Policy-Guided Diffusion)是一种新颖的训练代理的方法,适用于离线环境。该技术通过创建与行为和目标策略都非常接近的综合轨迹,从而生成更加真实的训练数据。这不仅有助于提高离线强化学习模型的性...

Read More
2024-04-10 talkingdev

使用Colab在H100上训练超过20万上下文窗口的新梯度累积卸载技术

Longcontext Alpaca训练技术最近取得了重大突破,通过在H100硬件上使用新的梯度累积卸载技术,成功训练了超过200,000个上下文窗口。这种创新方法使得大规模深度学习模型的训练变得更加高效,显著提高了计算资源的利...

Read More
2024-04-10 talkingdev

Visual Autoregressive Models:图像生成高分辨率解决方案

Visual Autoregressive Models是一个新的GitHub项目,它将图像生成视为逐步预测更高分辨率的过程。该代码库包含了用于下一分辨率预测工作的推理脚本和演示笔记本。虽然训练代码将很快公开,但目前该项目已经引起了技...

Read More
2024-04-09 talkingdev

神经网络局限性阻碍通用人工智能发展

当前神经网络在超出其训练数据的情况下泛化能力有限,这限制了它们的推理和可靠性。为了实现人工通用智能(AGI),我们需要寻找替代方法。专家认为,尽管深度学习和神经网络在特定任务上取得了显著成就,但它们距离...

Read More
2024-04-09 talkingdev

AIOS:为操作系统注入'大脑'的LLM Agent

AIOS是一个创新型的操作系统,它通过将大型语言模型嵌入到操作系统中,作为系统的核心'大脑',从而赋予了操作系统全新的生命力。与传统操作系统相比,AIOS通过深度学习和自然语言处理技术,能够更加智能地理解用户需...

Read More
2024-04-09 talkingdev

用C/CUDA语言训练大型语言模型,无需依赖PyTorch

近期,Andrei Karpathy推出了一个名为llm.c的项目,该项目展示了如何使用C和CUDA编程语言来训练大型语言模型(LLM)。这一创新方法避免了对PyTorch等大型深度学习框架的依赖,尤其是其所需的250MB以上的资源。这种训...

Read More
2024-04-09 talkingdev

论文:Seg-NN框架简化3D物体识别流程

Seg-NN框架通过去除对大量预训练的需求,极大地优化了3D分割的流程。这一创新使得模型能够快速适应新的、未见过的类别,同时避免了通常存在的领域差异问题。这一技术突破不仅加快了3D物体识别的速度,还提高了模型的...

Read More
2024-04-09 talkingdev

论文:AI图像生成技术新突破,提示自动编辑技术助力文本到图像转换

近期,研究人员开发了一种名为提示自动编辑(Prompt Auto-Editing,简称PAE)的新技术,旨在提升基于文本生成图像的技术水平。该技术利用了Imagen和Stable Diffusion等扩散模型,通过在线强化学习动态调整文本提示中...

Read More
  1. Prev Page
  2. 61
  3. 62
  4. 63
  5. Next Page