Hazy Research的最新研究表明,通过Ollama使用本地模型,并结合长上下文云端模型作为协调器,可以在仅花费17%成本的情况下,实现97%的任务性能。这一发现为企业在AI部署中提供了更高效、更经济的解决方案。本地模型...
Read More随着Vision Language Models(VLMs)的快速发展,传统的光学字符识别(OCR)技术正面临被取代的可能。VLMs结合了计算机视觉和自然语言处理的能力,能够更准确地理解和解析图像中的文本内容。与OCR相比,VLMs不仅能识...
Read More近日,Browser Use (YC W25) 宣布推出其开源项目——Web Agents,旨在通过自动化技术提升用户在浏览器中的操作效率。该项目基于先进的LLM和agent技术,能够模拟人类在网页上的操作行为,如点击、滚动、填写表单等。通...
Read More近日,Moonshot发布了一项名为Block Attention混合算法的创新技术,该算法在长上下文语言模型(LLM)中的应用表现卓越,被认为可与NSA相媲美。Block Attention混合算法通过优化注意力机制,显著提升了模型在处理长文...
Read More近日,一项名为Light Thinker的技术引起了广泛关注。该技术旨在将冗长的推理轨迹压缩为更小、更紧凑的表示形式,从而节省上下文空间,同时仍能有效引导模型。这一创新不仅提升了模型的效率,还为处理复杂任务时的资...
Read More近日,DeepSeek NSA论文因其可扩展且高效的长上下文注意力算法引发了广泛关注。然而,该论文并未提供相关代码。为此,一项基于Triton的实现应运而生,该实现可无缝集成到任何PyTorch代码库中。Triton作为一种高效的G...
Read More近日,一项名为Mask-Enhanced Autoregressive Prediction(MEAP)的技术在GitHub上发布,该技术通过将Masked Language Modeling(MLM)整合到仅解码器的Transformer中,显著提升了信息检索任务的性能,同时保持了强...
Read More近期,DeepScaleR的研究成果引起了广泛关注。该研究通过扩展强化学习(RL)训练,成功开发出一款1.5B参数的模型,其性能超越了O1-Preview。研究团队采用了一种独特的方法,即在RL训练过程中逐步增加上下文长度,从而...
Read More