漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-06-11 talkingdev

[论文推荐]上海研究团队推出DiTorch与DiComm框架,实现异构芯片集群高效训练百亿级AI模型

上海科研团队最新发布的DiTorch和DiComm技术框架,突破了AI训练对同构硬件的依赖。该创新通过统一编程接口整合NVIDIA、AMD等异构芯片架构,在1,024块规格差异显著的芯片集群上训练千亿参数模型时实现116%的超线性效...

Read More
2025-06-04 talkingdev

[开源]JigsawStack推出开源深度研究工具(GitHub仓库)

JigsawStack近日推出了一款开源深度研究工具框架,该框架通过协调大型语言模型(LLMs)、递归网络搜索和结构化推理,能够生成通常需要人类数小时甚至数天才能完成的研究报告。该工具提供了对研究深度、广度、模型选择...

Read More
2025-05-16 talkingdev

[论文推荐]BLIP3-o:新型扩散Transformer架构在多模态基准测试中创下最优成绩

BLIP3-o作为一种新型的扩散Transformer架构,通过序列预训练方法实现了技术突破,并在多模态基准测试中取得了当前最优异的成绩。该研究不仅发布了完整的代码和权重文件,还附带了一个包含6万条指令的微调数据集,为...

Read More
2025-05-02 talkingdev

艾伦AI研究所发布开源语言模型OLMo-2-1B,推动透明化AI研究

艾伦人工智能研究所(Allen Institute for AI)近日发布了OLMo-2-1B语言模型,这是一款参数规模为1B的小型开源模型。该项目的突破性意义在于其完全透明的训练范式:研究团队不仅公开了模型权重,还完整披露了训练数...

Read More
2025-05-02 talkingdev

微软推出Phi-4-reasoning变体,推动小型语言模型在效率与推理能力上的突破

微软近日发布了Phi-4-reasoning系列变体,这一创新标志着小型语言模型(SLMs)在效率与复杂推理能力上的重大进展。Phi-4-reasoning通过算法优化和架构改进,在保持参数规模精简的同时,实现了接近大型语言模型(LLMs...

Read More
2025-04-30 talkingdev

关系图Transformer技术革新企业数据处理,赋能客户分析与欺诈检测

关系图Transformer(Relational Graph Transformers)作为一种前沿的人工智能技术,正在企业数据处理领域引发革命性变革。该技术通过图神经网络与Transformer架构的创新融合,能够有效解决企业级数据中的复杂关系建...

Read More
2025-04-18 talkingdev

MCP推出Python运行支持,加速开发效率

近日,MCP宣布正式支持Python运行环境,这一举措将为开发者提供更高效的开发工具和更灵活的工作流程。MCP作为一款高性能计算平台,此次集成Python支持,不仅能够兼容现有的Python生态系统,还能显著提升数据处理和机...

Read More
2025-04-03 talkingdev

微软CEO纳德拉:DeepSeek成为微软AI成功的新标杆

微软CEO萨提亚·纳德拉在宣布公司800亿美元AI投资计划后,强调了将AI研究转化为成功产品的重要性。微软正致力于提升其AI产品(如Copilot和Muse)的性能,同时确保投资方向与可持续发展目标保持一致。尽管AI工作负载增...

Read More
  1. Prev Page
  2. 4
  3. 5
  4. 6
  5. Next Page