漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-23 talkingdev

[开源]Frame Pack:像生成图像一样生成视频

Frame Pack是一种创新的视频生成方法,它通过利用图像潜在空间和巧妙的帧打包技术,显著降低了长视频生成的计算负担。该方法不仅实现了令人信服的生成效果,而且安装过程简便易行。Frame Pack的核心在于将视频帧视为...

Read More
2025-06-18 talkingdev

谷歌Gemini 2.5 Pro与Flash全面开放,新增Flash-Lite预览版及可控“思考预算”功能

谷歌近日宣布其人工智能模型Gemini 2.5 Pro和Flash版本已全面开放使用,同时推出预览版Flash-Lite。此次更新最引人注目的是引入了可控的“思考预算”机制,该技术通过动态分配计算资源,在保证推理精度的同时为开发者...

Read More
2025-06-16 talkingdev

Featherless AI登陆Hugging Face平台,提供无服务器模型推理服务

人工智能领域迎来重要进展,Featherless AI近日正式成为Hugging Face平台的推理服务提供商。这一合作将为开发者带来革命性的无服务器(serverless)模型访问体验,用户无需管理底层基础设施即可直接调用包括Meta、Qw...

Read More
2025-06-12 talkingdev

[开源]AlphaWrite:基于测试时计算扩展的智能写作系统(GitHub开源项目)

AlphaWrite是一项突破性的智能写作技术,它通过生成具有不同作者风格和主题的故事变体,并利用成对比较方法对内容质量进行排序,最终通过多代进化筛选出最优作品。这一创新不仅展示了人工智能在创意写作领域的潜力,...

Read More
2025-06-11 talkingdev

[开源]LLaVA-STF:高效多模态推理技术实现75%的视觉令牌压缩

LLaVA-STF项目通过创新的相邻令牌合并技术和多区块令牌融合模块,成功将视觉令牌序列压缩75%,显著提升了多模态推理效率。该技术突破性地解决了视觉语言模型中长序列处理带来的计算资源消耗问题,通过动态合并语义相...

Read More
2025-06-02 talkingdev

开发者指南:何时需要对大型语言模型进行微调?

近日,Kiln公司发布了一篇关于大型语言模型(LLM)微调的深度指南,引发了开发者社区的广泛讨论。文章详细探讨了在什么情况下需要对预训练的大型语言模型进行微调,以及如何开始这一过程的技术细节。随着ChatGPT等大模...

Read More
2025-05-30 talkingdev

[开源]Meta提出零样本嫁接技术:降低VLM训练成本45%

Meta研究团队最新提出的零样本嫁接(zero-shot grafting)方法,通过从大型语言模型(LLM)的浅层中提取小型代理模型来训练视觉编码器,实现了视觉语言模型(VLM)训练成本降低约45%的突破。该技术不仅显著降低了计...

Read More
2025-05-21 talkingdev

Fastino推出TLMs:专精任务的语言模型,性能超越LLMs

在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page