漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2025-05-05 talkingdev

谷歌推出Amplify计划:携手本土专家构建全球化AI数据集

谷歌研究院近日宣布启动一项名为Amplify的全球数据收集计划,通过与各地区本土专家合作,旨在提升人工智能在服务不足地区的适用性。该计划聚焦非主流语言和文化场景下的数据缺口,采用社区共建模式采集高质量标注数...

Read More
2025-05-05 talkingdev

[开源]TScale-基于消费级GPU的分布式训练框架

GitHub开源项目TScale提出了一种创新性的分布式训练解决方案,允许开发者在消费级GPU集群上高效运行大规模模型训练。该项目通过优化通信协议和资源调度算法,显著降低了分布式训练的硬件门槛,使中小型研究团队也能...

Read More
2025-05-02 talkingdev

OpenAI计划推出开源AI模型,支持云端大模型协同计算

OpenAI宣布将于今夏发布一款可自由下载的开源AI系统,旨在性能上超越Meta、DeepSeek等竞争对手。该模型拟引入革命性的'任务转交'功能,当遭遇复杂查询时可无缝衔接云端部署的更大规模OpenAI模型进行联合计算。这一技...

Read More
2025-05-02 talkingdev

谷歌医疗AI突破:AMIE新增医学影像分析能力,实现类医生精准诊疗

谷歌研究团队近日宣布其医疗对话AI系统AMIE(Articulate Medical Intelligence Explorer)取得重大升级,新增医学影像分析功能。这一突破性进展使AMIE在基于聊天的诊断过程中能够同步解读X光片、CT扫描等医学影像,...

Read More
2025-05-02 talkingdev

[论文推荐]Fed-SB提出基于LoRA-SB的联邦学习微调方案,显著降低通信成本

Fed-SB研究团队在arXiv最新论文中提出了一种突破性的联邦学习框架LoRA-SB,该技术通过低秩自适应(Low-Rank Adaptation, LoRA)方法实现大型语言模型(LLM)的高效分布式微调。这一创新方案通过参数高效微调(PEFT)技术,...

Read More
2025-05-02 talkingdev

艾伦AI研究所发布开源语言模型OLMo-2-1B,推动透明化AI研究

艾伦人工智能研究所(Allen Institute for AI)近日发布了OLMo-2-1B语言模型,这是一款参数规模为1B的小型开源模型。该项目的突破性意义在于其完全透明的训练范式:研究团队不仅公开了模型权重,还完整披露了训练数...

Read More
2025-04-30 talkingdev

图灵GenAI与LLM评估工具:5分钟快速诊断AI战略瓶颈

图灵公司推出的GenAI与LLM评估工具为AI项目负责人提供了一种高效的自我诊断方案,旨在识别从人才缺口到规模化挑战等后训练阶段的战略瓶颈。该工具仅需五分钟即可生成针对性的后续步骤建议和资源推荐,特别适用于基于...

Read More
2025-04-28 talkingdev

Harvey AI构建弹性AI基础设施,实现高性能模型部署与管理

Harvey AI近日公开了其创新的AI基础设施架构,通过集中式Python库实现AI模型交互的统一管理,确保部署的可靠性与高性能。该架构采用动态负载均衡和实时监控技术,有效应对突发流量,同时支持无缝模型升级。系统还集...

Read More
  1. Prev Page
  2. 17
  3. 18
  4. 19
  5. Next Page