漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-04-17 talkingdev

[开源]Tile Language:专为高性能GPU/CPU内核开发设计的领域特定语言

Tile Language是一种简洁的领域特定语言(DSL),旨在简化和优化高性能GPU/CPU内核(如GEMM、Dequant GEMM、FlashAttention和LinearAttention)的开发流程。该语言采用类似Python的语法,并基于TVM(Tensor Virtual...

Read More
2025-04-17 talkingdev

Prime Intellect开源Intellect 2分布式训练框架,32B网络实现强化学习推理

人工智能研究机构Prime Intellect近日取得重大突破,成功通过完全分布式的方式训练了一个参数量高达320亿(32B)的神经网络模型,并创新性地结合强化学习技术提升模型的推理能力。值得关注的是,该团队已将其核心训...

Read More
2025-04-16 talkingdev

专为儿童设计的Kermit字体正式发布

近日,一款名为Kermit的全新字体正式面世,该字体专为儿童设计,旨在提升儿童的阅读体验和学习兴趣。Kermit字体采用了圆润的线条和较大的字间距,使得每个字符都清晰易辨,非常适合低龄儿童阅读。设计团队表示,Kerm...

Read More
2025-04-16 talkingdev

HP AI Studio:多模态大语言模型如何重塑医学研究与诊断

惠普AI Studio正通过多模态大语言模型技术推动医学研究与诊断的范式变革。该平台突破性地整合了文本、影像、基因序列等异构医疗数据,利用先进的跨模态表征学习算法,实现了对复杂医学信息的统一解析与深度挖掘。临...

Read More
2025-04-16 talkingdev

[论文推荐]Pinterest提出深度分层集成网络框架,显著提升广告系统转化率预测准确率

Pinterest研究团队在arXiv最新发表的论文中,提出了一种革命性的多任务学习框架——深度分层集成网络(Deep Hierarchical Ensemble Networks),该技术通过特征组合与辅助学习的协同机制,在广告系统转化率(CVR)预测...

Read More
2025-04-16 talkingdev

图灵公司发布白皮书:如何最大化提升大型语言模型(LLM)的投资回报率

图灵公司最新发布的《最大化您的LLM投资回报率》白皮书揭示了影响大型语言模型(LLM)实际应用效果的关键因素。研究表明,模型性能不足往往并非源于算力限制,而是由训练目标偏差、评估体系缺陷和优化策略缺失等隐形...

Read More
2025-04-15 talkingdev

[论文推荐]ThinkLite-VL:仅用1.1万训练样本实现视觉语言模型高效推理

近期发表于arXiv的研究ThinkLite-VL通过创新性地应用蒙特卡洛树搜索(MCTS)技术量化样本难度,在视觉语言模型(VLM)领域取得突破性进展。该方法仅需11,000个训练样本即可显著提升模型推理能力,且无需依赖知识蒸馏...

Read More
2025-04-15 talkingdev

[开源]GigaTok:3B参数规模的图像分词器突破,重建性能卓越

近期,SilentView团队在GitHub开源了名为GigaTok的超大规模图像分词器项目,其参数量高达30亿(3B),在图像重建任务中展现出卓越性能。传统图像分词器在规模化过程中常面临性能崩溃问题,而GigaTok通过创新的解码器...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page