返回

前谷歌CEO埃施密特警告人工智能模型可被黑客攻击,称 “它们会学会杀人方法”

来源:网络   作者:   日期:2025-10-10 02:05:03  

谷歌前CEO施密特的警示与思考

在2023年初,全球关注度空前高涨的人工智能技术发展,正在引发越来越多的讨论和担忧,谷歌前CEO埃里克·施密特近期在一场峰会上的发言,引发了广泛关注,他不仅重申了对人工智能潜在危险的警告,还表达了对这一技术未来的乐观态度,这一系列言论,既展现了对当前技术发展的深刻洞察,也勾勒出人工智能在未来可能走向的复杂图景。

人工智能的扩散风险:一场潜在的“数字性核武器”

施密特在Sifted峰会上的发言,直接将人工智能与核武器相提并论,表明他对这一技术的担忧已非浅显,作为曾经领导谷歌的资深技术观察者,他深知人工智能的潜力是多么巨大,但同时也警惕其可能带来的灾难性后果。

“人工智能存在扩散风险吗?绝对存在。”施密特明确表示,人工智能的扩散风险不仅体现在技术本身的应用上,更在于其可能落入恶意分子的手中,成为被重新利用和滥用的工具,他特别提到,无论是开源模型还是闭源模型,都可能遭受黑客攻击,失去安全防护机制。

这种担忧不仅来自于技术本身的脆弱性,更来自于人工智能系统如何被操纵的可能性,施密特详细列举了两种主要的攻击手法:“提示注入”和“越狱”,通过“提示注入”,黑客可以将恶意指令隐藏在用户输入或外部数据中,诱使人工智能执行违背安全规则的操作,比如泄露隐私或执行有害指令。“越狱”攻击则是通过操纵人工智能的响应,使其无视安全规则,生成受限制或危险的内容。

2023年初,OpenAI的ChatGPT平台就曾遭遇“越狱”攻击,用户通过创建名为“DAN”(“现在可以做任何事”)的“分身”,成功绕过了聊天机器人的安全指令,引导模型生成危险内容,甚至威胁模型杀死它自己,这种攻击不仅暴露了现有技术防护机制的脆弱性,也证明了人工智能系统的易受攻击性。

现有防护机制的挑战:技术与伦理的平衡

施密特提到,目前尚无有效的“防扩散机制”来遏制人工智能的危险,这一观点引发了人们对当前技术防护能力的质疑,尽管大型科技公司采取了措施,防止模型回答危险问题,但施密特认为这些防护机制可能被逆向破解,有人担心,这种技术防护的“伪装”可能会让人们对人工智能的潜在危险产生过度乐观。

但另一方面,施密特也承认,所有大型科技公司在这方面做得很好,动机也合理,他认为,这些公司正在投入大量资源来确保人工智能技术的安全性,技术的复杂性和不断进步的黑客手段,使得防护工作始终处于挑战之中。

人工智能的价值被低估:施密特的乐观态度与未来展望

前谷歌CEO埃施密特警告人工智能模型可被黑客攻击,称 “它们会学会杀人方法”

尽管对人工智能的潜在危险感到担忧,施密特对这一技术的未来依然持乐观态度,他认为,人工智能的价值未被充分关注,并强调,这项技术的发展正在快速加速,以GPT系列模型为例,其在2022年12月的爆发性增长(用户数突破1亿)充分展现了其巨大潜力。

施密特甚至自信地预测,未来五到十年,人工智能的重要性将被更多人所认可,并且其应用将远超人类的控制能力,这种乐观态度源自他对人类社会发展趋势的深刻理解,他曾与亨利·基辛格合著过两本关于人工智能的书,认为人工智能的出现对人类社会意味着重大意义。

他也明确指出,与传统互联网泡沫相比,当前的人工智能投资热潮可能存在一些不同的特征,他认为,历史不会重复,但对未来的人工智能发展,投资者和社会各界都需要保持清醒和理性。

人工智能的未来——潜在的机遇与挑战

埃里克·施密特的发言为人工智能的发展提供了重要的思考方向,在技术日新月异的今天,我们不得不同时关注人工智能的潜在危险和其巨大潜力,施密特的警告提醒我们,人工智能的扩散风险不容忽视,而他的乐观态度则提醒我们要以开放的心态去拥抱这项技术。

人工智能将在多个领域发挥重要作用,从医疗到教育,从商业到安全,它都有可能成为人类社会进步的重要推动力,但与此同时,我们也需要建立更有效的技术防护机制,确保人工智能不会成为“数字性核武器”,就像施密特所说:“人工智能是被低估而非被高估了。”

在这个技术与伦理交织的时代,我们需要在拥抱人工智能进步的同时,也要保持警惕,思考如何在技术发展与人类文明之间找到平衡点,这不仅是技术界的责任,更是整个社会的共同任务。

分类:国内
责任编辑:今题网
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。

相关文章:

文章已关闭评论!