漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-02 talkingdev

微软利用激光技术解决LLM幻觉问题

1月份微软研究论坛上,Dipendra Misra提出了一种名为“Layer-Selective Rank Reduction(LASER)”的技术,通过用一个较小的近似矩阵替换权重矩阵,提高了大型语言模型(LLM)的准确性。

Read More
2024-02-02 talkingdev

Mistral CEO确认泄露的新开源AI模型接近GPT-4的性能

AI社区因HuggingFace和4chan分享的一个名为“miqu-1-70b”的泄漏大型语言模型而感到兴奋。该模型表现出能与OpenAI的GPT-4相媲美的性能,并与Mistral的Mixtral 8x7b有关。Mistral的CEO确认这是一位热情的客户泄露的,这...

Read More
2024-02-01 talkingdev

论文:SliceGPT高效简化大型语言模型的新方法

SliceGPT引入了一种新的后训练稀疏化方案,以减少大型语言模型的资源需求。通过将权重矩阵替换为较小的矩阵并减少嵌入维度,它可以在主要模型(如LLAMA2-70B和OPT 66B)中删除高达25%的模型参数,同时保留高达99%的...

Read More
2024-01-26 talkingdev

Ollama发布Python和JavaScript库,让开发者轻松本地运行LLM

Ollama发布了Python和JavaScript库的初始版本,使得开发者能够在几行代码中将新的和现有的应用程序与Ollama集成。Ollama支持广泛的模型,包括Mistral、Dolphin、Llama2和Orca,使得开发者可以轻松地在本地运行大型语...

Read More
2024-01-24 talkingdev

我的AI时间表再次加速

本文作者根据模型扩展的进展修改了其人工智能时间表预测。他们现在估计,到2028年有10%的机会实现人工智能通用智能,并且到2045年有50%的机会。这些变化归因于大型语言模型的有效性以及多个智能能力可能会在规模上出...

Read More
2024-01-23 talkingdev

机器学习工程开源书籍发布

机器学习工程开源书籍发布,该项目是一个开放的方法论集合,旨在帮助成功训练大型语言模型和多模态模型。该材料适用于LLM/VLM培训工程师和运营人员。书籍包含大量脚本和复制粘贴命令,以使读者能够快速解决问题。该...

Read More
2024-01-21 talkingdev

DoraemonGPT:基于LLM的AI系统在视频理解方面迈出重要一步

最近,一种名为DoraemonGPT的新型AI系统基于大型语言模型取得了重要进展,它聚焦于视频任务,提升了对于动态现实场景的理解。DoraemonGPT将视频转换为符号记忆,以进行高效的时空查询,并利用专门的工具和新颖的规划...

Read More
2024-01-15 talkingdev

MiniMA项目开源:高效压缩的语言模型

MiniMA项目致力于将大型语言模型压缩成小型学生模型的挑战。研究人员发现了不同学生模型的一致最优容量差,并利用这一发现创建了MiniMA,它是从一个7B教师模型中压缩出来的3B模型。MiniMA在效率和性能方面创造了新的...

Read More
  1. Prev Page
  2. 51
  3. 52
  4. 53
  5. Next Page