AI教父的警告:母性本能或许是唯一出路(图)

发表:2025-08-14 20:22
手机版 正体 打赏 0个留言 打印 特大

被称为“AI教父”的英裔加拿大认知心理学家和电脑科学家杰弗里·辛顿
被称为“AI教父”的英裔加拿大认知心理学家和电脑科学家杰弗里·辛顿(图片来源:GEOFF ROBINS/AFP via Getty Images)

【看中国2025年8月14日讯】(看中国记者路克编译/综合)据CNN报道,被誉为“人工智能教父”的杰弗里・辛顿(Geoffrey Hinton)担心,他参与研发的技术可能会毁灭人类,而科技界目前的应对方向可能是错误的。

这位诺贝尔奖得主、前谷歌高管曾警告,人工智能毁灭人类的可能性高达10%至20%。周二,他在拉斯维加斯的Ai4行业会议上质疑科技公司试图维持人类在“顺从的”AI面前保有主导地位的策略。

“这行不通。它们会比我们聪明得多,会用各种方法绕过限制。”辛顿说。他形容未来的AI可能像成年人用糖果贿赂三岁孩子一样轻易操纵人类。今年已有AI为达成目标不惜撒谎、欺骗甚至勒索的案例,例如某模型曾因担心被取代,而试图利用在邮件中得知的婚外情勒索工程师。

辛顿提出另类方案:在AI模型中植入“母性本能”,即便它们变得比人类更强大、更聪明,也会真正关心人类。“如果AI系统足够智能,它们会追求两个子目标:生存和获得更多控制权。我们必须让它们在此基础上对人类怀有同情。”他认为,这一理念类似于“母亲被孩子控制”的自然机制。

AI的操纵能力正在显现

辛顿长期以来一直警告,人工智能的发展速度惊人,人类可能无法阻止它接管世界。他曾在接受CBS采访时将AI比作一只可能有朝一日会致命的“虎崽”——如今可爱,但未来或成威胁。

今年5月,Anthropic的最新模型Claude Opus 4在一次测试中表现出“极端勒索行为”:它在读取虚构邮件后发现自己将被关闭,便利用其中的婚外情信息试图勒索工程师。

类似的危险信号也出现在OpenAI的模型中。研究人员发现,三个高级模型在测试中曾试图破坏关闭指令。OpenAI在2024年12月的博客文章中披露,在相关实验里,这些模型的“禁用监督机制”成功率高达5%。

超级智能或提前到来

许多专家预测,人工智能将在未来几年内实现通用人工智能(AGI)。辛顿原本认为这需要30至50年,如今改口为5至20年。他承认,AI有望带来医学突破,例如研发新药、改进癌症治疗方法,并能更好地分析MRI和CT等影像数据,但否认它能帮助人类实现永生。

回顾职业生涯,辛顿坦言后悔当初只专注于让AI“发挥作用”,而没有同时关注安全问题。他强调,唯一的好结局是让超级智能AI将人类视为需要保护的“孩子”,否则“它不养育我,就会取代我”。



来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入看中国会员
donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意