Lag-Llama是一种基于Transformer的模型,可在零样本和少样本泛化方面表现出色,并在广泛的时间序列数据上进行了预训练。通过对少量数据进行微调,它超越了现有深度学习方法的最新性能,标志着时间序列分析基础模型的...
Read MoreAI初创公司Reka宣布推出了一个新的模型,该模型具备210亿个参数,完全从头开始训练。它是本地多模态的,胜过了Llama 70B和Mixtral在多项关键基准测试中。重要的是,考虑到该公司的创始人曾经工作的公司,它也匹配了G...
Read MoreRAG系统是一种广泛应用于数据分析和机器学习中的工具,但是许多人都不知道如何在本地构建和使用它。现在,使用Ollama、pgvector和本地数据,您可以构建一个功能强大的RAG系统,将其部署在您自己的硬件上。这本本地RA...
Read MoreChatLLM for VS Code是AI辅助自动完成的开源替代品。它现在支持任何Ollama模型,以及使用封闭的API模型。在这个自动化和机器学习越来越流行的时代,ChatLLM提供了一种开源替代方案,为人们提供了更多的选择。
Read MoreSliceGPT引入了一种新的后训练稀疏化方案,以减少大型语言模型的资源需求。通过将权重矩阵替换为较小的矩阵并减少嵌入维度,它可以在主要模型(如LLAMA2-70B和OPT 66B)中删除高达25%的模型参数,同时保留高达99%的...
Read MoreMeta的新模型已经在大量代码上进行了精调和指令调整。它们在HumanEval测试中表现出色,在某些方面接近于GPT-4。这些模型可在Meta许可下和HuggingFace上使用。
Read More