漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-27 talkingdev

微软打造AI服务器硬件,削减对英伟达的依赖

据报道,微软正在打造自己的人工智能服务器硬件,以减少对英伟达的依赖。目前,微软在其云计算平台Azure上使用英伟达的GPU加速器来提高人工智能处理速度。不过,为了降低成本和提高灵活性,微软现在正在开发自己的AI...

Read More
2024-02-27 talkingdev

如何应对人工智能项目成本上涨?

很多应用程序在发展初期,一旦获得一定的关注度和增长,变量成本就会急剧上升。在增长时必须应对这些问题是非常困难的,因为开发人员必须在引擎仍在运行时有效地重建它。创始人可以通过提前规划,拥有多种基础设施选...

Read More
2024-02-27 talkingdev

Mistral AI发布新模型,与GPT-4和自己的聊天助手竞争

Mistral AI推出了一款名为Mistral Large的新型语言大模型,以与GPT-4和Claude 2等顶级模型竞争。该公司还推出了一项名为Le Chat的新服务,以与ChatGPT竞争。通过该公司的API,访问Mistral Large的成本为每百万输入令...

Read More
2024-02-19 talkingdev

论文:SLEB-剪枝冗余变压器块,加速大型语言模型

最近,研究人员提出了一种新方法,称为SLEB,可以通过剪枝冗余的变压器块来加速大型语言模型(LLMs)的训练和推理。该方法可以减少存储空间和计算成本,同时保持模型的准确性。SLEB通过自适应的剪枝技术来删除冗余的...

Read More
2024-02-19 talkingdev

论文:Meta利用LLM提高自动化单元测试

Meta使用大型语言模型为其代码库编写测试,发现测试覆盖率和整体代码质量都有了实质性的提高。这种方法可以有效地帮助开发人员减少手动编写测试的时间和成本,并且可以提高测试的效率和准确性。Meta表示,他们使用了...

Read More
2024-02-19 talkingdev

论文:如何使用扩散模型进行视频压缩

研究人员开发了一种新的视频压缩方法,使用扩散模型生成高质量的视频帧,同时保持低数据速率。该方法将视频压缩与机器学习相结合,能够在保持视频质量的同时减少数据传输的成本。研究人员在测试中发现,这种方法能够...

Read More
2024-02-15 talkingdev

Meta计划今年部署自研芯片以推动人工智能发展

Meta计划今年在数据中心部署其自研的新型AI芯片,旨在减少对Nvidia芯片的依赖,控制运行人工智能工作负载的成本。此举将使Meta获得更大的自由度和更高的效率来推动人工智能的发展。Meta的AI芯片将通过对话匹配、图像...

Read More
2024-02-09 talkingdev

LLRT:用于解决快速高效的Serverless应用程序需求的JavaScript运行时

Low Latency Runtime (LLRT)是一种JavaScript运行时,旨在解决对快速高效Serverless应用程序的不断增长的需求。与在AWS Lambda上运行的其他JavaScript运行时相比,它提供了超过10倍的更快启动时间和最多2倍的总体更...

Read More
  1. Prev Page
  2. 31
  3. 32
  4. 33
  5. Next Page