漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-09 talkingdev

AI生成代码或成软件供应链灾难:虚假依赖库引发安全危机

最新研究揭示,AI生成的代码存在严重的安全隐患,可能对软件供应链造成灾难性影响。研究发现,AI生成的代码中经常包含不存在的库引用,这使得系统容易受到依赖混淆攻击。具体数据显示,测试的大型语言模型(LLM)生...

Read More
2025-05-07 talkingdev

[论文推荐]LLMs跨界时间序列分析:跨模态技术应用全景调研

最新研究论文系统探讨了大型语言模型(LLMs)在时间序列分析领域的跨模态适配技术。该研究聚焦数据对齐、多模态融合及下游任务表现三大核心环节,揭示了LLMs在金融预测、工业设备监测、医疗诊断等多领域的创新应用潜...

Read More
2025-05-07 talkingdev

[论文推荐]Chain of Draft:高效推理新范式,显著降低计算成本

近日,一项名为Chain of Draft的创新推理策略在arXiv预印本平台引发关注。该技术通过精简推理路径设计,在保持与经典Chain-of-Thought方法相当甚至更高准确率的前提下,显著降低了大型语言模型的token消耗量。实验数...

Read More
2025-05-05 talkingdev

谷歌Gemini 2.5 Pro AI直播通关《精灵宝可梦蓝》,展现游戏领域AI潜力

谷歌最新一代多模态AI模型Gemini 2.5 Pro在非官方测试中完成了一项里程碑式挑战——通过实时直播完整通关经典游戏《精灵宝可梦蓝》。这一突破性演示由开发者社区发起,展示了大型语言模型在复杂游戏环境中的决策能力和...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-05-02 talkingdev

微软推出Phi-4-reasoning变体,推动小型语言模型在效率与推理能力上的突破

微软近日发布了Phi-4-reasoning系列变体,这一创新标志着小型语言模型(SLMs)在效率与复杂推理能力上的重大进展。Phi-4-reasoning通过算法优化和架构改进,在保持参数规模精简的同时,实现了接近大型语言模型(LLMs...

Read More
2025-04-29 talkingdev

[开源]Chain of Recursive Thoughts:通过自我辩论让AI思考更深入,效果惊人

GitHub项目Chain-of-Recursive-Thoughts提出了一种创新方法,通过让AI模型反复自我辩论来提升其思考深度。开发者PhialsBasement发现,这种方法虽然看似简单,但效果却出奇地好。该项目在Hacker News上引发了广泛讨论...

Read More
2025-04-26 talkingdev

MILS开源-无需训练即可实现视觉与听觉感知

Facebook研究团队近日在GitHub开源了MILS项目代码,其核心突破在于证明大型语言模型(LLMs)无需额外训练即可具备跨模态感知能力。该项目论文《LLMs can see and hear without any training》提出创新方法,通过重构...

Read More
  1. Prev Page
  2. 3
  3. 4
  4. 5
  5. Next Page