漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-21 talkingdev

KumoRFM:无需特定任务训练即可跨数据库工作的关系型基础模型

KumoRFM是一种预训练的关系型基础模型,其设计初衷是能够在任何数据库和预测任务上工作,而无需进行特定任务的训练。这一技术的突破性在于其通用性和适应性,能够显著降低企业在不同数据场景下部署AI模型的复杂性和...

Read More
2025-05-21 talkingdev

谷歌"Jules"加入AI编程竞赛:采用自主代理技术革新开发流程

谷歌于12月启动封闭测试后,现已正式向公众发布其AI编程工具Jules。这款基于Gemini 2.5大模型构建的工具能够克隆整个代码仓库,并在开发者处理其他任务时自主完成编写测试、修复漏洞和构建新功能等工作。当前AI编程...

Read More
2025-05-21 talkingdev

Fastino推出TLMs:专精任务的语言模型,性能超越LLMs

在人工智能领域,通用大模型(LLMs)虽然功能强大,但对于特定任务而言,其庞大的计算资源消耗和较高的成本并不总是最优选择。为此,Fastino公司推出了专精任务的语言模型(TLMs),旨在为特定任务提供更高效、更精...

Read More
2025-05-20 talkingdev

谷歌发布Veo 3、Imagen 4及影视制作新工具Flow,生成式媒体模型再升级

在2025年谷歌I/O大会上,谷歌正式推出新一代生成式媒体模型Veo 3和Imagen 4,以及专为影视制作设计的新工具Flow。Veo 3作为视频生成模型的迭代版本,在动态细节和场景连贯性上实现突破;Imagen 4则进一步提升了文本...

Read More
2025-05-20 talkingdev

[论文推荐]LLM安全评估系统的鲁棒性研究揭示重大漏洞

最新发表在arXiv的研究论文指出,基于大语言模型(LLM)的安全评估系统存在显著脆弱性。研究表明,这类系统的评估可靠性极易受到提示词敏感性和对抗性攻击的影响。该发现对当前快速发展的AI安全评估领域具有重要警示意...

Read More
2025-05-20 talkingdev

[开源]基于AWS低成本微调Qwen2.5B模型实现推理能力突破

GitHub最新开源项目展示了一种针对Qwen2.5B大语言模型的创新微调方案,该方案采用SFT(监督微调)结合GRPO(梯度反向传播优化)的混合训练框架,其技术路线受到DeepSeek R1架构启发,并针对AWS云平台进行了专项优化...

Read More
2025-05-19 talkingdev

ParScale开源LLM扩展范式-训练与推理并行计算

人工智能领域迎来重大技术突破,开源项目ParScale通过创新性地在大型语言模型(LLM)的训练和推理阶段同时应用并行计算技术,成功建立了第三种LLM扩展范式。这一技术突破解决了传统序列计算模式在超大规模模型应用中...

Read More
2025-05-19 talkingdev

[论文推荐]WavReward:基于音频语言模型的对话系统评估新方法

来自arXiv的最新研究论文提出了一种名为WavReward的创新评估系统,该系统基于音频语言模型,专门用于评估语音对话系统在认知和情感指标上的表现。WavReward通过在ChatReward-30K数据集上进行训练,该数据集包含了大...

Read More
  1. Prev Page
  2. 6
  3. 7
  4. 8
  5. Next Page