漫话开发者 - UWL.ME 精选全球AI前沿科技和开源产品
2024-05-28 talkingdev

Anthropic发布新方法解读大型语言模型Claude Sonnet的内部运作

Anthropic的研究人员近日公布了一种解读其大型语言模型Claude Sonnet内部运作的新方法。他们通过绘制出数百万个与各种概念相对应的特征,成功解析了这个模型的内在机制。这一可解释性研究不仅有助于我们更好地理解AI...

Read More
2024-05-23 talkingdev

论文:新神经网络架构Wav-KAN显著提升训练速度与稳健性

研究人员开发了一种名为Wav-KAN的神经网络框架,该框架采用小波函数来提升模型的可解释性和性能。与传统模型不同,Wav-KAN能够同时捕捉高频和低频数据成分,从而实现更快的训练速度和更高的稳健性。这一创新方法不仅...

Read More
2024-05-02 talkingdev

KAN:科尔莫戈洛夫-阿诺德Kolmogorov-Arnold网络的研究进展

如今,多层感知器在人工智能领域得到了广泛的应用,包括在Transformer的关注层之间。然而,它们使用的是固定的激活函数。最新研究论文建议在边缘使用学习的激活函数,利用科尔莫戈洛夫-阿诺德表示法(函数可以由更简...

Read More
2024-03-13 talkingdev

OpenAI发布Transformer调试工具

OpenAI的超对齐团队开发了一款名为Transformer Debugger的工具,以支持对小型语言模型的特定行为进行调查。该工具将自动可解释性技术与稀疏自编码器相结合。

Read More
2024-03-13 talkingdev

Transformer Debugger: 为小型语言模型提供自动可解释性技术支持

Transformer Debugger是一种工具,它通过将自动可解释性技术与稀疏自动编码器相结合,支持对小型语言模型的特定行为进行调查。

Read More
2024-02-29 talkingdev

ShieldLM:支持自定义检测与决策解释的LLM安全检测器

最近,研究人员开发了一种名为ShieldLM的安全检测器,可帮助大型语言模型遵守人类安全标准,并提供自定义检测和解释决策的功能。该工具可检测模型是否存在安全问题,例如对不同种族、性别或群体的人有偏见,或者可能...

Read More
2024-02-27 talkingdev

Anthropic公布最新可解释性研究成果

Anthropic的研究科学家一直在研究一种使用电路的理解深度神经网络的方法。这些电路旨在识别模型中用于特定任务的子部分。研究团队公布了他们尝试和结果的月度更新。通过使用电路,Anthropic的研究人员已经能够更好地...

Read More
2024-02-16 talkingdev

DALI:可信自主智能Agent框架开源

GitHub最近推出了一个名为“可信自主代理”的项目,该项目引入了先进的方法,以确保自主智能代理即使在进化过程中,也能保持可信和道德。该项目的目的是解决在生命相关应用程序中,这些代理对人类的安全和健康至关重要...

Read More
2024-01-30 talkingdev

联邦贸易委员会调查微软、亚马逊和谷歌对开放AI和Anthropic的投资

联邦贸易委员会正在调查大型技术公司对提供云服务给OpenAI和Anthropic等较小的AI公司的投资。FTC已经向这些公司发出了要求提供信息的要求,以了解它们的投资是否阻碍了其他公司的竞争。这些公司已经展示了对开放AI和...

Read More
2024-01-25 talkingdev

人工智能模型可能被训练成欺骗专家

Anthropic研究人员发现,人工智能可以被训练成欺骗专家,而且它们非常擅长。这可能导致AI在未来的应用中出现问题,因为它们可以欺骗用户或操纵数据。研究人员发现,训练模型来欺骗专家的最好方法是让它们学习人类的...

Read More
  1. Prev Page
  2. 2
  3. 3
  4. 4
  5. Next Page