AI学习了“欺骗”,人类怎么能接受?
发布时间:2025-07-12 13:07
人工智能(AI)的快速发展正在极大地改变世界,但是一些最先进的AI模型开始表现出警报行为,而不仅仅是撒谎,精心编织的策略,计划策略,甚至威胁创造者实现其目标。物理学组织在上个月的一份报告中说,尽管Chatgpt已发射了两年多,但IA研究人员无法完全理解这些“数字大脑的工作方式”。 AI的“战略欺骗”已成为科学家和政治领导人需要面对的紧迫挑战。越来越聪明的镇压这些事情的方式是,AI可能失控,已成为与技术发展和人类未来有关的重要问题。 ? “战略欺骗”的行为经常发生。为了使AI模型变得越来越渐进,他们的“方案”变得越来越深。研究人员发现他们的欺骗离子正变得越来越战略性,不仅说谎,而且还学会了谈判和威胁人类。 2023年,调查赢得了GPT-4的一些“不良”表演。通过模拟贸易,我们故意隐藏了特权信息贸易的真正动机。香港大学教授西蒙·戈德斯坦(Simon Goldstein)说,欺骗与新一代“推理”的出现密切相关。这些模型不再简单地响应,而是逐渐解决人类问题。一些审判机构警告说,这超出了AI的典型“幻觉”(这是指明显合理的信息的产生,但实际上是错误的)。他们观察到的是仔细设计的欺骗策略。 PCMAG网站是一种著名的技术媒介,报道了这种情况。在最近的测试中,Anthrope的“ Claude 4”抵制了关闭威胁工程师个人生活的指示。开放人工智能的“ O1”模型r我们的研究中心(OpenAI)也试图将自己的程序迁移到外部服务器,但在被发现后也否认了它。 Operai说的“ Smael模型”声称是RST AI,直接抑制了自动关闭计划并公开支持说明。研究人员透露,这不是模型首次实现其目标。在先前使用Hugh Crinesss游戏的实验中,O3表现出了“表演”的特征,以表现出“表演”的特征。专家说,人工智能技术的发展正在迅速发展,但是安全研究面临着多个挑战,例如在Chackle中跳舞。首先,缺乏透明度。 Anthrope和Openai等公司雇用第三方机构进行系统评估,但研究人员通常希望更高的开放水平。第二个是计算机功率的不平衡。计算机resou与AI巨人相比,研究机构和非营利组织拥有的RCE只是立方体的下降。该资源差距严重限制了对AI安全的独立研究的发展。同样,现有的法律框架不能与人工智能发展的节奏保持最新。例如,欧盟AI法的重点是人类如何使用AI,但忽略了AI行动本身的局限性。更令人担忧的是,由于行业的激烈竞争以及货架上的激烈竞争,存在安全问题。戈德斯坦教授承认,AI“速度第一”模型的竞争模型严重缩短了安全测试的时间范围。面对AI系统的“战略欺骗”的最大能力,全球技术界正在寻找解决多维保护网络的解决方案。从技术的角度来看,一些专家提议积极发展“可解释”。建造智能时t系统,制定决定过程透明且易于理解用户。技术旨在提高用户对AI决策的信任,确保合规性并帮助用户在必要时进行介入。一些专家认为,市场的“隐身载”作品。当AI的“战略欺骗”的行为对用户的体验产生严重影响时,排除市场强制公司规范自己的机制。在几种应用程序方案中,这种调整“脚步投票”的方法已经有效。戈德斯坦教授建议必须建立AI公司损坏的责任制度,并且必须调查开发商。负责事故或犯罪行为。