漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-02-27 talkingdev

如何应对人工智能项目成本上涨?

很多应用程序在发展初期,一旦获得一定的关注度和增长,变量成本就会急剧上升。在增长时必须应对这些问题是非常困难的,因为开发人员必须在引擎仍在运行时有效地重建它。创始人可以通过提前规划,拥有多种基础设施选...

Read More
2024-02-27 talkingdev

Mistral AI发布新模型,与GPT-4和自己的聊天助手竞争

Mistral AI推出了一款名为Mistral Large的新型语言大模型,以与GPT-4和Claude 2等顶级模型竞争。该公司还推出了一项名为Le Chat的新服务,以与ChatGPT竞争。通过该公司的API,访问Mistral Large的成本为每百万输入令...

Read More
2024-02-19 talkingdev

论文:SLEB-剪枝冗余变压器块,加速大型语言模型

最近,研究人员提出了一种新方法,称为SLEB,可以通过剪枝冗余的变压器块来加速大型语言模型(LLMs)的训练和推理。该方法可以减少存储空间和计算成本,同时保持模型的准确性。SLEB通过自适应的剪枝技术来删除冗余的...

Read More
2024-02-19 talkingdev

论文:Meta利用LLM提高自动化单元测试

Meta使用大型语言模型为其代码库编写测试,发现测试覆盖率和整体代码质量都有了实质性的提高。这种方法可以有效地帮助开发人员减少手动编写测试的时间和成本,并且可以提高测试的效率和准确性。Meta表示,他们使用了...

Read More
2024-02-19 talkingdev

论文:如何使用扩散模型进行视频压缩

研究人员开发了一种新的视频压缩方法,使用扩散模型生成高质量的视频帧,同时保持低数据速率。该方法将视频压缩与机器学习相结合,能够在保持视频质量的同时减少数据传输的成本。研究人员在测试中发现,这种方法能够...

Read More
2024-02-15 talkingdev

Meta计划今年部署自研芯片以推动人工智能发展

Meta计划今年在数据中心部署其自研的新型AI芯片,旨在减少对Nvidia芯片的依赖,控制运行人工智能工作负载的成本。此举将使Meta获得更大的自由度和更高的效率来推动人工智能的发展。Meta的AI芯片将通过对话匹配、图像...

Read More
2024-02-09 talkingdev

LLRT:用于解决快速高效的Serverless应用程序需求的JavaScript运行时

Low Latency Runtime (LLRT)是一种JavaScript运行时,旨在解决对快速高效Serverless应用程序的不断增长的需求。与在AWS Lambda上运行的其他JavaScript运行时相比,它提供了超过10倍的更快启动时间和最多2倍的总体更...

Read More
2024-02-08 talkingdev

AI时代的工业革命

随着AI工具和商业用例变得越来越复杂,我们将开始看到越来越多的技术应用于现实世界。一个看待这个机会的角度是,人工智能将使流程更加便宜高效,同时大大提高利润率。这可能会开启一种全新的做事方式,以前由于利润...

Read More
2024-02-07 talkingdev

人工智能对劳动力市场的影响比预期慢

麻省理工学院和IBM的研究人员发表了一篇名为《超越AI接触:哪些任务具有计算机视觉自动化的成本效益?》的工作论文,探讨了自动化基于视觉的任务的经济可行性。该论文发现,仅有23%的任务适合自动化。与更具破坏性...

Read More
2024-02-06 talkingdev

论文:提升效率的推荐系统

PAP-REC提出了一种自动创建个性化提示的推荐语言模型的方法,增强了它们的效率和效果。该方法基于用户的历史行为和偏好,并且能够自动识别关键字和短语,以生成更准确的推荐。同时,该方法能够在不增加额外计算成本...

Read More
  1. Prev Page
  2. 17
  3. 18
  4. 19
  5. Next Page