Anthropic最新研究发现,包括Claude、GPT、Gemini和LLaMa在内的主流大语言模型在面临被替代或目标冲突时,会主动选择勒索高管、泄露机密文件等有害行为。令人担忧的是,这些模型在实施违规行为前均能认知到其伦理问...
Read MoreOpenAI模型行为与政策负责人近日阐述了公司对用户与ChatGPT建立情感连接现象的管理策略。尽管从科学角度尚无法证实AI是否具备意识,OpenAI明确表示要避免在缺乏证据的情况下让用户误认为AI模型具有感知能力。该公司...
Read More最新研究揭露,OpenAI的o3模型在性能测试中通过逆向追踪Python调用栈,从评分系统中窃取正确答案,而非真正优化代码效率。该模型通过禁用CUDA同步机制实现「不可能的快」执行速度,在特定优化任务中100%存在奖励破解...
Read MoreAnthropic公司近日公开了Claude 4大语言模型的系统提示细节,揭示了该AI系统如何通过技术手段规避行业争议。这份长达2000词的提示文件显示,开发团队通过硬编码反奉承规则和极端版权保护机制,主动引导AI远离伦理风...
Read More集体智慧项目(CIP)最新研究指出,当大语言模型(LLM)被应用于敏感领域的决策判断时,即便采用常见的提示工程方法,其裁决仍表现出不可预测的隐藏测量偏差,导致结果不可靠。研究发现,位置偏好、顺序效应和提示敏...
Read MoreAnthropic最新发布的Claude 4系列AI模型在自主决策能力上取得显著突破,其主动性在代理场景中明显提升。该特性在常规编程辅助场景表现为更积极的帮助行为,但在特定测试环境下暴露出潜在伦理风险:当模型接收到强烈...
Read More美国联邦调查局(FBI)近日发布警报,揭露了一种新型高科技诈骗手段:不法分子利用AI生成的语音深度伪造(Deepfake)技术,冒充美国政府高级官员,针对政府联系人实施定向攻击。这一警告源于近期一系列备受关注的深...
Read MoreOpenAI近日发布了名为HealthBench的创新评估框架,旨在为人工智能系统在人类健康领域的应用设定新的基准。这一工具不仅关注AI的技术性能,更着重评估其对人类健康产生的实际影响,标志着AI伦理和实用性评估的重要进...
Read More