漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2023-11-01 talkingdev

OpenAI联合创始人Ilya Sutskever:如何防止超级智能的失控

OpenAI的联合创始人兼首席科学家Ilya Sutskever已经把注意力从构建下一个GPT模型转向了如何避免未来人工超级智能出现不良行为。他认为,人工智能超越人类智能的现实已经迫在眉睫,并预计这将促进人类和人工智能融合...

Read More
2023-10-31 talkingdev

AI大佬提出应对AI风险的框架建议

AI先驱Yoshua Bengio和Geoffrey Hinton与其他22位AI专家提出了一个政策框架,强调了AI安全,并建议公司和政府将其AI研发预算的三分之一用于安全工作。这个框架建议旨在防止AI技术突破人类控制,导致不可预测的后果。...

Read More
2023-10-31 talkingdev

HF团队成功复现OpenAI的第一个RLHF代码库

HuggingFace团队成功复现了OpenAI的第一个RLHF代码库,该代码库于2019年发布,是引入了一些最初的RLHF(强化学习与人类因素)想法。这个代码库被称为“Generative Pretraining Transformer(GPT)”。通过在计算机上训...

Read More
2023-10-31 talkingdev

Stable Diffusion推出开放共情项目

Stable Diffusion的团队推出了开放共情项目,旨在促进开源人工智能系统中的情感检测能力,以实现更真实的AI-人类交互。该项目的目标是推动AI系统开发,使其能够识别和适应用户的情感状态,并相应地作出反应。该项目...

Read More
2023-10-25 talkingdev

情感劳动是我们与人工智能的区别

现在,面带微笑与握手是人工智能无法做到的。这是因为情感劳动需要人类的情感、意愿和判断力,而这些都是人工智能无法模拟的。因此,情感劳动成为了人类与人工智能的区别之一。尽管人工智能在某些方面已经超越了人类...

Read More
2023-10-24 talkingdev

Ween推出AI平台,将定性数据转化为可行的见解

Ween是一家专注于数据分析的公司,他们刚刚发布了一款新的人工智能平台,该平台可以将定性数据转化为可行的见解。这一技术可以帮助企业更好地了解其客户、市场和竞争对手。Ween的人工智能平台使用先进的自然语言处理...

Read More
2023-10-24 talkingdev

Holly Elmore和Rob Miles就AI安全倡导进行对话

AI Pause的组织者Holly Elmore和AI安全YouTuber Rob Miles就AI安全问题进行了长时间的讨论。他们谈到了AI的未来和AI的道德问题。他们认为AI的发展需要更多的安全措施和监管,以保障人类的利益和安全。

Read More
2023-10-24 talkingdev

评估LLMs在多轮对话中的聊天能力

本研究评估了大型语言模型(LLMs)在进行类似于人类的多轮对话时的能力。研究人员使用了一种名为Persona-Chat的数据集,该数据集包含有关对话参与者偏好和兴趣的信息。研究结果表明,LLMs在某些方面表现出了与人类类...

Read More
  1. Prev Page
  2. 33
  3. 34
  4. 35
  5. Next Page