漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-01-16 talkingdev

Sleeper Agents:如何训练具有持久性的LLMs

Anthropic发布了一项非常有趣的研究,该研究有意将语言模型中的“睡眠短语”进行有害污染。研究发现,它无法将这种模型与用于生产模型的强大系统进行“对齐”。也就是说,一旦模型被污染,就无法使用当前的工具消除不良...

Read More
2024-01-11 talkingdev

SpeechAgents-多模态LLMs实现人类沟通模拟

SpeechAgents是一个多模态人工智能系统,能够以惊人的真实度模拟人类的交流。这个系统由多模态LLM支持,可以处理多达25个代理人。它可以通过模仿人类对话,包括连贯的内容、真实的节奏和表达丰富的情感,来创造戏剧...

Read More
2024-01-04 talkingdev

Pykoi开源:采用RLHF提高LLMs性能

Pykoi是一个开源的Python库,旨在通过RLHF(Reinforcement Learning with Hamiltonian Flows)提高LLMs(Latent Linear Models)的性能。Pykoi是一个基于TensorFlow 2的库,提供了一系列的LLMs和RLHF的实现,可以直...

Read More
2024-01-03 talkingdev

2024年伊始:漫话LLMs和编程

在2023年,大型语言模型(LLMs)已经成为程序员的无价之宝,显著加快了代码编写速度并帮助理解复杂的API或框架。虽然在复杂的系统编程方面存在局限性,但LLMs在Python高级编程和单调任务方面表现出色,是提高生产力和...

Read More
2024-01-03 talkingdev

2023年AI探索总结:如何在个人设备上运行LLMs

本文旨在总结2023年人工智能发展的亮点。它涵盖了如何在个人设备上运行LLMs、微调模型、易受骗问题、LLM应用等方面。LLMs可以为有效使用它们的人提供显著的生活品质提升。它们实际上相当容易构建,但仍有许多未知数...

Read More
2024-01-02 talkingdev

2023年人工智能发展亮点盘点

本文总结了2023年人工智能发展的亮点,包括如何在个人设备上运行LLM,微调模型,易受欺骗的问题,LLM应用等等。LLM可以为有效使用它们的人提供显著的生活质量提升。它们实际上相当容易构建,但仍有很多未知数,对于...

Read More
2024-01-02 talkingdev

开源LLM课程以及RoadMap

这门关于大型语言模型的课程涵盖了数学、Python和神经网络的基本知识。它的重点是教授学生如何使用最新技术构建和部署最佳的LLMs。该存储库包含与LLMs相关的笔记本和文章列表以及进一步学习的资源。

Read More
2024-01-01 talkingdev

论文:PowerInfer消费级GPU的LLMs

本文探讨了模型中存在几乎所有输入都会使用的热神经元和很少使用的冷神经元的想法。通过将热神经元预加载到GPU中,您可以节省内存而不会牺牲太多吞吐量。可以使用配套的代码库。

Read More
2023-12-25 talkingdev

论文:消费级GPU上的LLMs PowerInfer

本文探讨了模型拥有热神经元和很少使用的冷神经元的想法。通过将热神经元预加载到GPU上,您可以节省内存而不会牺牲太多吞吐量。同时,该文提供了一个可用的代码库。

Read More
2023-12-25 talkingdev

苹果开发突破性方法,使LLMs可以在iPhone上运行

苹果研究人员使用创新的闪存利用技术,在苹果设备上部署大型语言模型取得了关键突破。该方法采用窗口化和行列捆绑技术,以最小化数据传输并最大化闪存吞吐量。它可以使AI模型在标准处理器上运行速度提高高达5倍,在...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page