BLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...
Read MoreCognition公司最新发布的KEVIN-32B模型标志着代码生成领域的重大进展。该模型采用强化学习技术,专门针对多轮代码生成任务进行优化,在CUDA内核开发方面展现出超越现有模型的卓越性能。KEVIN-32B通过优化中间反馈机...
Read More来自arXiv的最新研究论文提出ReLearn框架,通过创新的数据增强和微调技术,解决了大语言模型(LLMs)中的关键挑战——'遗忘学习'(Unlearning)。该技术可精准移除模型训练数据中的特定信息,同时保持整体性能,对数据...
Read MoreNari Labs最新发布的Dia-1.6B开源AI模型在情绪语音合成领域取得突破性进展。这款仅1.6B参数的微型模型在测试中展现出超越ElevenLabs和Sesame等行业领导者的表现,尤其擅长模拟极端情绪状态,如歇斯底里的恐怖尖叫。...
Read More近日,自然语言处理领域迎来一项重要技术突破——MiniPLM框架正式发布。该框架创新性地提出了一种高效的小型语言模型(SLM)预训练方法,通过从大型语言模型(LLM)中提取知识进行蒸馏训练,显著提升了小模型的性能表...
Read More近日,一项关于大语言模型(LLMs)在实体建模领域应用的研究引发了科技界的广泛关注。该研究探索了如何让LLMs掌握实体建模这一传统上需要专业CAD软件技能的复杂任务。研究者通过创新的训练方法,使LLMs能够理解三维...
Read MoreDeepMind近日发布了其几何模型AlphaGeometry的重大升级版本AlphaGeometry 2,该模型在解决几何问题上的正确率从先前方法的54%大幅提升至84%。这一突破性进展主要得益于Gemini语言模型的整合以及更高效的搜索算法。Al...
Read More近日,一项名为REPA-E的技术突破引发了机器学习领域的广泛关注。该技术通过创新的表示对齐损失函数,首次实现了变分自编码器(VAE)与潜在扩散模型的稳定联合训练。这种端到端的训练方法在ImageNet数据集上取得了当前...
Read More