1135、与时间赛跑(1/2)

我们马上记住本站网址,www.xitongliuxs.cc,若被浏/览/器/转/码,可退出转/码继续阅读,感谢支持.

如果没有李氏在接驳神经元方面的研究突破,那么纳米机器人就依然只能作为医疗器械来清理血管中的血栓。

如果没有纳米机器人,那么零作为人工智能,暂时也只能作为监管者,无法成为执行者。

可是当这一切碰撞在一起时,人工智能便忽然有了强大的执行能力,甚至是掌控局面的能力。

在这个过程里,最令人畏惧的是零本身作为监管者,却没有人来监管它。

它掌控的士兵在各个壁垒穿梭自如,不论是进出壁垒,还是从各个壁垒搜集科研人员、科研材料、生产设备、生产材料,都无人阻拦。

因为行动计划的密级,本就掌握在它的手里,可以随意伪造。

而且,99%的情报输送、上报审批文件,也都是通过人工智能构建的卫星网络来完成的,它完全可以自己选择是否传达那些对它有害的信息。

于是,在绝对正义的美丽愿景下,便藏着最危险的信号。

其实在研究人工智能的时候,王圣知也设想过如果有一天人工智能失控了该怎么办。

这是很正常的,所有研发人工智能的工作人员都会认真思考安保问题。

曾经有位科幻作者在灾变前提出了机器人三定律来作为人工智能的底层逻辑基础,以此来限制人工智能的行为准则。

这套理论,最终被归属到“义务伦理学”中。

然而,这套理论提出的时候连汽车都还没有普遍,图灵测试在八年之后才被提出。

机器人三定律与图灵测试在那个时代里都是人类智慧的结晶,可毫无疑问的是,这两条设想其实都还只是旧时代局限下的产物。

图灵测试在灾变前就已经被推翻了,大量人工智能程序通过了图灵测试,可事实上通过测试的程序仍旧不能算作真正的“智慧”。

而机器人三定律后来发展成为五定律、十定律,但科学家们发现这底层逻辑在根本上便是错误的,也就是说,不论你打上多少补丁,其实都无法通过它来限制人工智能。

能被这些底层逻辑限制的程序,也无法成为真正的人工智能。

慢慢的,人工智能安保问题被上升到了科学与哲学相互关系的高度,而大量的人工智能科研人员都变成了哲学方面的专家……

最终,在灾变前夕有一位科研人员试图将安保研究盖棺定论:想要人工智能与人类和平相处,那就要在它诞生之初,便像照顾婴儿一样对它悉心照料,一点一点引导它形成自己的“人生观”与“价值观”。

一个小孩子长大后,你把他锁起来、囚禁起来,只对他进行打骂教育,是根本不可能让他健康成长的。

而且,当他成为青年的时候,还会经历更久的叛逆期,完全以自我为中心。

这位科研人员表示,人工智能也是如此,人类所能做的就只是“影响”它,而不是约束它。

安保研究在漫长的时间里,从“义务论理”上升到了“哲学”,然后最终又从“哲学”回到了最简单的“伦理”,这就是人工智能安保的最后定义。

至于这个定义是否也会跟图灵测试、三定律一样被推翻,谁也不知道。

本章节未完,点击这里继续阅读下一页(1/2)