群体混淆智能(MMI)的概念代表了从传统的单一AI扩展向基于分布式、基于代理的系统的模型的转变,这些系统可以实时学习和适应。MMI的理念根植于具体化、边界智能、时间性和个体性的原则,倡导强调具有一定自主性和相...
Read More将训练模型中的数据打包是提高训练效率的一种方式,它通过连接示例来实现。如果操作不当,示例之间可能会出现污染,因为注意力机制不知道何时停止。社区发现,使用EOS通常足以解决问题,但仍然可能存在问题。这个仓...
Read MoreLag-Llama是一种基于Transformer的模型,可在零样本和少样本泛化方面表现出色,并在广泛的时间序列数据上进行了预训练。通过对少量数据进行微调,它超越了现有深度学习方法的最新性能,标志着时间序列分析基础模型的...
Read More苹果发布了一款新的代码,使用多模态语言模型来改进人类提供的自然语言图像编辑。这个新的代码的核心思想是使用大型语言模型来指导用户对图像进行编辑,从而提高编辑的质量和效率。该代码的具体实现是将图像与自然语...
Read More《流体盒子》介绍了一种新颖的实验系统,用于在动态的现实世界环境中测试强化学习算法,解决了模拟强化学习应用中复杂流体动力学的挑战。它展示了无模型强化学习算法从简单奖励中生成复杂行为的能力,并通过离线强化...
Read More近日,一篇名为《ImplicitDeepfake1》的论文在计算机图形学领域引起了广泛关注。该论文提出了一种新方法,将deepfake技术与Neural Radiance Fields(NeRFs)和Gaussian Splatting(GS)相结合,用于创建高度逼真的3D...
Read MoreWebLinx是一个包含10万个基于对话格式的网络交互的数据集。它的发布是为了改善基于语言模型导向的网络导航的研究。该数据集包括对话、URL、HTML和屏幕截图。它由Carnegie Mellon大学的研究人员发布,已经开源。这个...
Read MoreDeepMind和南加州大学的研究人员开发出SELF-DISCOVER框架,该框架显著提高了LLM的推理能力,在类似GPT-4的模型任务中比传统方法提升了32%。这个两阶段的框架使得LLMs能够自主地形成和利用推理结构。这个进步代表了AI...
Read More