漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-02-23 talkingdev

仅用四个数字2,如何构造任意整数?数学挑战引发热议

近日,一项关于如何仅用四个数字2构造任意整数的数学挑战在技术圈引发广泛讨论。该问题不仅考验数学家的创造力,也为算法设计和逻辑推理提供了新的思路。通过结合数学运算符、括号以及指数等工具,参与者可以尝试构...

Read More
2025-02-21 talkingdev

梁文峰与DeepSeek的开源AI探索之旅

梁文峰,一位对冲基金经理,推出了自筹资金的开源AI平台DeepSeek,该平台因其创新的LLM(如DeepSeek-R1)而迅速获得全球关注,这些模型可与OpenAI的模型相媲美。DeepSeek采用更具成本效益的训练方法,并兼容消费级硬...

Read More
2025-02-21 talkingdev

高效网络爬虫技术助力LLM预训练,Crawl4LLM数据提取新突破

LLM的预训练过程中,网络爬虫获取的数据往往因文本提取效率低下而被大量丢弃。然而,近期一项开源项目在GitHub上发布,显著提升了文档的保存率,并利用这些数据在少量爬取内容的基础上训练出更强大的模型。该项目...

Read More
2025-02-21 talkingdev

LLM-Oasis:大规模数据集助力LLM输出事实性评估

近日,LLM-Oasis作为一个大规模数据集正式发布,旨在为训练和评估系统提供支持,以检测和提升LLM(大语言模型)输出的事实性。随着LLM在自然语言处理领域的广泛应用,其生成内容的准确性和可靠性成为业界关注的焦点...

Read More
2025-02-20 talkingdev

BadSeek揭示大型语言模型的后门植入方法

近日,BadSeek项目揭示了如何在大型语言模型(LLM)中植入后门的技术细节。该项目通过深入研究LLM的embedding机制,展示了如何在不影响模型整体性能的情况下,植入特定的触发机制,从而在特定条件下激活后门功能。这...

Read More
2025-02-20 talkingdev

论文:突破极限,单向量嵌入1568个Token的技术探索

近日,一项关于表示容量极限的研究引起了广泛关注。该研究尝试将尽可能多的Token嵌入到一个固定大小的向量中,成功实现了将1568个Token压缩至单一向量。这一突破不仅展示了embedding技术的强大潜力,也为LLM和agent...

Read More
2025-02-19 talkingdev

Mastra:全新开源JS Agent框架

近日,Gatsby的开发者团队宣布推出了一款全新的开源JavaScript agent框架——Mastra。该框架旨在为开发者提供一个高效、灵活的工具,以简化复杂agent系统的构建过程。Mastra不仅支持LLM、embedding等先进技术的集成,...

Read More
2025-02-19 talkingdev

DeepSeek推出Native Sparse Attention技术,显著提升Attention计算效率

近日,DeepSeek公司推出了一项名为Native Sparse Attention的创新算法技术,旨在加速传统的二次Attention计算。该技术通过硬件对齐和原生可训练的稀疏Attention机制,实现了高达11倍的计算速度提升,同时保持了整体...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page