近日,CodeI/O技术通过将代码转换为输入输出预测格式,显著提升了大语言模型(LLM)的推理能力。该方法通过教授通用推理原则,而非依赖代码语法,从而在多种推理任务中实现了性能优化。此外,通过多轮修订进一步验证...
Read More随着AI agent技术的快速发展,其应用场景日益广泛,但同时也带来了潜在的滥用风险。近期,业界开始聚焦于如何有效检测AI agent的使用与滥用行为。通过结合LLM、embedding、LoRA和RAG等先进技术,研究人员正在开发更...
Read More2024年,科技行业回顾过去十年,发现许多机遇与挑战并存。尽管技术飞速发展,但在某些领域,我们似乎失去了宝贵的十年。从LLM的崛起到agent技术的广泛应用,再到embedding和LoRA的创新,技术的进步显而易见。然而,R...
Read More近日,研究人员通过优化技术展示了大型语言模型(LLMs)在减少非embedding参数的同时仍能保持学习能力。研究表明,通过用优化的子网络替换密集层,LLMs可以在减少高达77%的参数的情况下,依然保持与原有模型相当的性...
Read More近日,GitHub上发布了一个专门用于评估AI模型在复杂函数调用方面表现的基准测试工具库。该工具库旨在为研究人员和开发者提供一套全面的测试框架,以衡量不同LLM在处理复杂函数调用时的性能。通过这一工具,用户可以...
Read More近日,Jakiro团队通过引入Mixture of Experts(MoE)技术,成功优化了Speculative Decoding的性能。该方法通过生成多样化的预测结果,减少了候选预测之间的相关性,从而显著提升了推理速度。Speculative Decoding作...
Read More近日,Meta在Hugging Face Hub上发布了其最新研发的MobileLLM模型检查点。这一系列模型专为移动设备优化,尽管体积小巧,但性能强大,能够在资源受限的环境中高效运行。MobileLLM的推出标志着Meta在移动端AI技术领域...
Read More在最新的技术探索中,研究人员提出了一个引人深思的问题:What if Eye...? 这一问题不仅挑战了我们对视觉技术的传统认知,还开启了对未来视觉系统可能性的广泛讨论。通过结合先进的LLM和agent技术,科学家们正在开发...
Read More