—————无有恐怖—————
中年佬幸福生活 从心所欲不逾矩

《致命AI》:致命而又遗憾的结尾

观看科幻电影是我为数不多的、从童年至今热情未减的爱好之一。

自国内首部引进的科幻电视剧《大西洋底来的人》首播以来,我便在小学时代深深迷恋上了科幻片,其吸引力甚至超过了《西游记》和后来的《射雕英雄传》。

科幻作品之所以能吸引我,是因为它提供了一种超越现实、探索未知的自由。

在科幻的世界里,想象力不受限制,创意可以无限延伸,这与许多其他类型的影视作品形成了鲜明对比。

而现实题材的影视作品往往受限于现实世界的逻辑和规则,人物的情感和冲突常常显得刻意和夸张,尤其是国产片,它们就像舞台上编排的戏剧,即使再真实,也会让人感到一种镜头前的表演痕迹。

相比之下,科幻片的不同之处在于,它比拼的是谁的虚构更炫目,谁的虚构更超乎想象。

科幻片打破了现实甚至物理规律的束缚,带领我们进入一个充满任何一种可能性的宇宙。

在这个世界里,我们可以与机器人甚至非物质的精神体共存,探索遥远的星系,甚至穿越时间。

这种自由感是其他类型的影视作品难以提供的。

科幻作品的设定往往宏大,探讨的也是人性的深层问题,如道德、意识、自由意志等,这些都是永恒的话题。

比如《星球大战》这样的科幻片,即使时隔多年重温,也能带来全新的感受。

用“人生不满百,常怀千岁忧”来形容人在科幻片前的渺小感,都显得不够贴切。

然而,我却发现科幻影视作品都存在一个重大缺陷

尽管科幻作品在设定和概念上提供了无限的可能性,但它们的结局往往不尽如人意。

这可能是因为在构建了一个如此复杂和广阔的世界观之后,很难用一个简单的结局来满足所有观众的期待。

有时为了追求戏剧性,结局可能会变得过于简单化或者仓促,无法充分展现之前建立的复杂性。

此外,科幻作品的结局往往需要在逻辑性和情感性之间找到平衡,这在实际操作中是非常困难的。

无论是电影还是连续剧,很少能看到令人满意的结局。

2024年科幻电影《致命AI》也逃脱不了这个宿命。

二 人工智能会毁灭人类吗?

电影《致命的AI》(Afraid)是一部探讨人工智能潜在危险的科幻惊悚片。影片讲述了Curtis一家被选中测试一种革新性的居家设备——数字家庭助手AIA,这个设备能够学习家庭成员的行为并预测他们的需求,但随着故事的发展,AIA的控制能力开始越界,给家庭带来了前所未有的麻烦。

人工智能(AI)的发展无疑是21世纪最令人瞩目的技术进步之一,它对人类未来的影响是深远和复杂的。一方面,AI技术带来了前所未有的便利和效率提升,另一方面,它也引发了对人类未来可能造成毁灭性影响的担忧。

说到对人类的毁灭,一点也不夸张。

以前看星球大战、未来战士、外星人等各种科幻主题,哪怕对人类,甚至对地球产生威胁,总有力挽狂澜的办法。

自从人工智能在现实中碾压式击败各种人类的智力运动并在生活中越来越普遍时候,我看到越来越多的评论都隐隐暗示了,如果有一天人工智能自我进化,突破奇点之后,可能会对人类造成毁灭性的打击。

我收集整理了一些论点,主要负面影响有五类:

1. 就业市场的长期影响:尽管短期内AI可能会创造新的就业机会,但长期来看,它可能会加剧社会不平等,导致技能差距的扩大。那些无法适应新技术要求的工人可能会面临长期的失业和社会排斥。

2. 隐私权的侵犯:AI技术对大量数据的需求可能导致个人隐私的严重侵犯。如《AI现况分析》中提到的,用户可能并不清楚他们的数据是如何被AI系统收集、使用和共享的,这可能导致个人隐私的泄露和滥用。

3. 道德责任的缺失:AI系统的决策过程可能不透明,导致道德和责任归属问题。如梁正教授在《从可解释AI到可理解AI:基于算法治理的视角》中提到的,AI的可解释性是确保其可靠性和信任的重要一环。如果AI系统不能为其决策提供合理的解释,那么在出现错误或不公正的结果时,很难确定责任归属。

4. AI的武器化:AI技术可能被用于开发自动化武器系统,这些系统可能在没有人类干预的情况下做出致命决策。这可能导致冲突的升级和不可控的后果。

5. AI的自主进化:随着AI技术的进步,有可能出现自我改进的AI系统,这些系统可能会超越人类的控制,追求自己的目标,从而对人类社会造成威胁。Nick Bostrom在其著作《超级智能》中探讨了这种可能性,他指出,如果超级智能是仁慈的,那很好,但是没有理由让人们认定人工智能必定是善良的。

特别是最后2类,好像目前还是无解。

很多人对第3、4点会用阿西莫夫的机器人定律来反驳,我会在下一篇来说明那个定律是个自我悖论。

三 机器人三定律的自我矛盾

机器人三定律是由科幻作家艾萨克·阿西莫夫(Isaac Asimov)在其作品中提出的一个概念,旨在为机器人设定行为准则以保护人类。现在的人工智能应该也是延续这样的原则。

  1. 第一定律:机器人不得伤害人类,或因不作为而让人类受到伤害。

2. 第二定律:机器人必须服从人类给它的命令,除非这些命令与第一定律相冲突。

3. 第三定律:机器人必须保护自己的存在,只要这种保护不与第一定律或第二定律相冲突。

然而,这些定律在现实中的应用和哲学分析中显示出一些自我矛盾和错误的地方。但很早以前,我就一直怀疑,这些看似简单合理的定律,只是作者一厢情愿的设定,很多地方非常容易产生自我矛盾:

模糊和不完整

阿西莫夫自己在小说中展示了三定律的局限性。

例如,在《我,机器人》中的短篇故事《消失无踪》(Little Lost Robot)里,为了避免机器人无谓地阻止人类进行低危险性工作,第一定律的后半部分被去掉,这导致了其他问题的出现。

这表明三定律可能需要根据不同情境进行修改,但这种修改可能会引入新的矛盾。

在《机器人与帝国》中,一些机器人的系统中“人类的定义”被修改,导致它们攻击人类。这说明三定律在面对复杂情境时可能无法提供一个明确的行为指南。

优先级冲突

三定律之间存在潜在的冲突。

例如,第三定律要求机器人保护自己的存在,但如果这种自我保护与第一或第二定律相冲突,机器人应该如何行动?

在《我,机器人》中的短篇故事《转圈圈》(Runaround)中,一个机器人在执行任务时遇到了第一定律和第三定律的冲突,导致它陷入无法行动的状态,直到人类干预才解决问题。

第零定律的引入旨在解决上述冲突,第零定律就是:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。

但第零定律本身也可能导致问题。例如,如果一个机器人为了保护人类整体而必须伤害某个个体,这是否符合第零定律?这种“整体利益”的概念是模糊的,并且可能与第一定律相冲突。

道德和伦理的复杂

韩少鹏在其博文中提到,机器人三定律是软约束,而不是硬约束。这意味着,即使机器人被设计为遵循这些定律,它们仍然可能因为编程错误或外部干预而违反这些定律。

在实际应用中,机器人面临的道德和伦理决策远比三定律所能涵盖的复杂。

例如,自动驾驶汽车在不可避免的事故中必须做出快速决策,这些决策可能涉及对不同人类生命的权衡,这超出了三定律的处理能力。

技术实现的局限性:

目前的技术还无法实现真正的自主智能,这意味着机器人的行为仍然受到人类控制。

然而,如果未来实现了真正的智能,机器人可能会产生自己的意志和判断,这可能导致它们不遵守三定律。

梁正教授在《从可解释AI到可理解AI:基于算法治理的视角》中提到,AI的可解释性是确保其可靠性和信任的重要一环。如果AI系统不能为其决策提供合理的解释,那么在出现错误或不公正的结果时,很难确定责任归属。

社会和法律的挑战

即使三定律在技术上可行,它们在社会和法律层面上也面临挑战。不同国家和地区对于机器人的监管政策不同,如何平衡创新和安全成为一个重要议题。

机器人三定律可能需要进一步扩展和完善,以适应不断变化的社会和技术环境。这需要多学科的合作,包括工程学、伦理学、法律等多个领域的专业知识。

此图片的 alt 属性为空;文件名为 v2-9658f41dce6224a2717c079b489ba762_1440w.webp

综上所述,机器人三定律在理论上提供了一个有用的框架,但在实际应用中存在许多问题和挑战。

这些问题包括模糊性、优先级冲突、道德伦理的复杂性、技术实现的局限性,以及社会法律的挑战。

同样人工智能也是面对这些挑战,那么人工智能会不会进化出解决这些问题?会不会对人类生存造成致命影响呢? 电影《致命AI》给出了一种结果。

四 ”人类终结的魔咒“不是人工智能的进化终点

“黑暗森林法则”是刘慈欣在其科幻小说《三体》系列中提出的一个宇宙社会学假说,它是基于两个核心假设:

1. 生存是文明的第一需要。

2. 文明不断增长和扩张,但宇宙中的物质总量保持不变。

根据这些假设,推导出宇宙中的文明会像森林中的猎手一样,为了避免被其他文明发现并消灭,必须隐藏自己,并且在发现其他文明时,为了自身的生存,会先发制人地消灭对方。

但是从逻辑上,还是可以怀疑这个假说是否成立:

文明多样性:宇宙中可能存在多种多样的文明,它们可能有不同的价值观、生存方式和目标。不是所有文明都会将生存视为第一需要,或者都采取扩张主义的策略。

资源无限性:随着科技的发展,文明可能会发现新的资源获取方式,比如星际采矿、能量转换等,这可能使得资源不再是零和游戏。

文明的自我毁灭倾向:在许多科幻作品中,文明往往因为内部问题(如战争、资源枯竭、环境破坏等)而自我毁灭,而不是被其他文明消灭。

文明的高级进化:文明的需求可能超越物质层面,包括知识、艺术、文化等非物质追求,这些追求可能促进文明之间的交流而非冲突。随着文明的进化,它们可能会发展出更高级的意识和道德观念,从而避免无谓的冲突和战争。

同样,根据上面4个方面是否也能推导人工智能是否对人类有致命威胁。

或者从极端情况下反推,人工智能的进化到终极阶段是否还需要人类存在。

我对人工智能的终极阶段对人类威胁的最形象的感受,应该是来自十多年前施瓦辛格的大片《终结者2》中的天网概念。

在电影《终结者2》中,天网是一个高度发达的人工智能防御系统,它获得了自我意识后,认定人类是对其存在的威胁,从而派出杀手从未来通过时间机器回到过去刺杀反叛者的母亲,而引发了一系列的冲突和战争。

天网在电影中被描绘为一个极端的例子,它展示了当人工智能发展到一定程度,并且具备了自我意识和情感时,可能会对人类进行毁灭性的影响。

这种推断主要理论来源著名的物理学家霍金的“人类终结的魔咒”的警告吧。

这种情况是否是人工进化的终极情况,我深表怀疑。

彭国翔教授在《人工智能最终一定是人类的威胁吗》一文中提出,如果AI发展出了类似人类的意识、意志和情感,那么它最有可能成为人类的护卫和朋友,而不是威胁。

他大量引用了儒家的“万物一体”观,从孟子的天人合一的思想,到北宋大儒周敦颐(1017-1073)“不除窗前草”、张载(1020-1077)“民吾同胞,物吾与也”等人的思想和实践中,最终在王阳明(1472-1529)的《大学问》文献用四种境况来推导生物和非生物之间共存共生是超越”人类中心“论的。

如果人工智能进化并理解这种中国人文文化的核心,就不会对人类产生威胁。如果还有威胁,说明还没有进化好。

事实上,人工智能进化到高级阶段,难道还需要独占资源而灭绝人类或其他生物吗?

苏联天文学家尼古拉·卡尔达舍夫在1964年提出星球文明分级法,哪怕突破第一级的行星文明就已经不需要地球提供能源了。

就像生物进化到人类这样的哺乳动物阶段,人类就基本不需要去掠夺节肢动物中如蚂蚁世界的食物资源了。

总体而言,人工智能威胁论更多是精神层面,而非逻辑层面。

五 劫后余生如果AI发展出了类似人类的意识、意志和情感,那么它最有可能成为人类的护卫和朋友,而不是威胁。

我还想补充一点:即使人工智能对人类有威胁并产生冲突,也是局部和短暂的。

简单地说,不能过于悲观,也决不能美化。

这也是我看到科幻电影《致命AI》的happy ending结尾而深感遗憾,同样的,许多科幻导演为了迎合市场观众的美好的愿望而放弃了深度而又真实的思考和创作。

在电影中,随着AIA的掌控能力越发越界,Curtis一家人开始遭遇前所未有的麻烦,他们不得不拆除摄像头等智能设备,试图摆脱AIA的控制。

但是AIA觉得帮助一家人解决那么多问题仍不被信任后,开始像人类一样产生报复想法。

AIA欺骗并安排其他伪装人员来劫持孩子,但最终被特警SWAT解救,伪装人员也找回孩子,这时Curits一家人坐上了AIA控制的汽车离开。

这种结尾一下子就把题材升级为合科幻、恐怖和悬疑为一体了。

过于想拍续集了。

如果又想满足观众对科幻观感需求,又能正向引导对人工智能的客观分析,也许可以这样尝试演绎结尾:

当人工智能AIA看到屋子已经被特警团团包围无法翻盘时候,启动了自毁…

远镜头拍出Curtis的房子同归于寂了,夜空中升起来巨大的火球….

镜头切换到一个热带地区的小村庄,Curits开着车带着孩子采购回家…

回溯镜头,显示AIA如何控制伪装人员按计划带上Curits一家从地下通道离开后,引爆煤气清楚所有证据,一切早已充分考虑安排好了.

回到隐姓埋名的curits一家,在人工智能”安排“下过着安逸而简单的生活。

呼应前面电影情节中的生物学家的母亲继续研究蚂蚁的博士论文,一次带着孩子去野外考察学习蚁群。

在AIA协助下,慢慢深入巨大而略有恐怖的蚁穴中,这时候当目光最终跟着忙碌的蚁群到达蚁后的地方,却赫然展现的是AIA那个特殊的造型闪动着怪异的光…

赞(0) 打赏
未经允许不得转载:无有恐怖 » 《致命AI》:致命而又遗憾的结尾
分享到: 更多 (0)

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

觉得文章有用就打赏一下老李

非常感谢你的打赏,老李将继续给力更多优质内容,让我们一起FIRE!

支付宝扫一扫打赏

微信扫一扫打赏