漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-12-08 talkingdev

苹果开源针对 Mac 的新 Array 框架

近日,苹果公司发布了一款针对 Mac 设备加速的 Array 框架,利用统一内存技术,使其变得简单干净,并提供了一些 GPU 支持。这个新框架可以帮助开发者更高效地编写代码,从而提升用户体验。据悉,这个新框架可以在 Gi...

Read More
2023-11-23 talkingdev

微软和英伟达简化了在Windows上运行AI模型的过程

微软宣布了Windows AI Studio,这是一个供开发人员访问和配置AI模型的中心,提供了来自Azure AI Studio和Hugging Face的工具以及模型配置界面和性能测试模板等功能。英伟达更新了其TensorRT-LLM,支持GeForce RTX 30...

Read More
2023-11-22 talkingdev

贝恩资本风投公司推出BCV Lab人工智能孵化器

贝恩资本风投公司成立了一个名为BCV Lab的新人工智能孵化器和技术社区,提供办公空间、活动、研究计划、GPU租赁、招聘支持以及资金支持。BCV Lab将为创业公司提供必要的资源和支持,以帮助他们成长和发展。

Read More
2023-11-20 talkingdev

生产级LLM工具开发者指南

使用语言模型构建工具是一种新兴的工程学科,涵盖了高性能计算、GPU编排和监控。在这个领域,LLMs(语言模型)是至关重要的组件,它们可以帮助工程师们开发出更智能、更高效的工具。本文将介绍如何在生产环境中使用L...

Read More
2023-11-20 talkingdev

Orb 简化 AI 产品的计费问题

大多数公司仍在思考如何为 AI 和 LLM 工具计费。是套餐?积分?代币?无论您选择哪种模型,Orb 都能使其实现起来非常容易。只需选择您的定价模型和计费指标即可!跟踪消费、防止欺诈,并将定价与价值(包括 GPU 运行...

Read More
2023-11-16 talkingdev

免费试用英特尔云平台,探索最新的人工智能硬件

您需要更多的计算能力(和选择)来微调您的生成式人工智能吗?使用实践教程和实际代码样例学习✔️。通过不同的硬件配置评估性能和加速度✔️。构建异构应用程序,开发自己的原型,并对AI工作负载进行基准测试。从免费层开...

Read More
2023-11-14 talkingdev

Nvidia推出AI计算猛兽H200 GPU,或加速ChatGPT

Nvidia推出了HGX H200 Tensor Core GPU,这是去年发布的H100 GPU的后续产品。H200采用Hopper架构来加速AI应用。它可能会导致更强大的AI模型和现有模型更快的响应时间。计算能力的缺乏一直是AI进步的主要瓶颈。亚马逊...

Read More
2023-11-13 talkingdev

洞察GPU热潮:探究Nvidia的AI王者地位

2023年,Nvidia成为AI领域的王者,成千上万的公司和国家争相购买其GPU。这篇文章探讨了Nvidia的崛起、由此产生的短缺问题以及GPU需求的未来。尽管这种情况已经持续了一段时间,但是Nvidia的GPU热潮仍在持续。由于人...

Read More
2023-11-01 talkingdev

苹果推出Scary Fast活动:四大重磅发布

苹果在Scary Fast活动上揭示了最新版自家芯片的全新Mac。苹果的M3、M3 Pro和M3 Max芯片是使用3纳米工艺制造的首批PC芯片。它们配备了更新的GPU,支持光线追踪、网格着色和动态缓存等内存优化功能。新的Mac产品包括24...

Read More
2023-10-31 talkingdev

AMD发布第二轮训练,为大型语言模型训练提供更强的支持

MosaicML发布了一篇关于使用AMD GPU进行大型语言模型训练的文章。该公司在本文中介绍了他们的最新研究结果,使用AMD Radeon Instinct MI100 GPU对GPT-2、GPT-3和T5等大型语言模型进行了训练。结果显示,使用AMD GPU...

Read More
  1. Prev Page
  2. 9
  3. 10
  4. 11
  5. Next Page