第332章:并不完美,但却靠谱(1 / 2)

加入书签

诸如如何辨识披着人类面孔的机器人?还有相关的法律问题,在举行产品发布会的之前,确切的来说开发者大会召开之际,政府方面的人就找华盛科技约谈去了。

关于如何辨识机器人的这一点,很好解决,只需要开口是带着些许电音便能立马辨析出来,实际上这也没什么,政府的顾虑主要是来自于社会安全问题。

政府担心的是一些别有用心的人利用机器人来做危害社会安全与犯罪的事情,任何科技产物都是带有两面性的,都是一把双刃剑,关键在于如何把正面积极的作用发布会出来,锁住负面作用的问题。

这些作为开发者的黎川自然都想到了,政府方面牵头带着一批京都大学的法律顾问团队,还有国内的顶尖aI专家和黎川及其华盛科技的aI工程师们长时间共同探讨,解决这个问题。

尤其提起技术上的问题,机器人这个点,自然绕不开阿西莫夫那经典的机器人三定律了,所谓的三定律,即:

零:机器人不得伤害人类整体,也不能坐视人类整体受到伤害。

一:机器人不得伤害人,也不得见人受到伤害而袖手旁观,但不得违反第零定律。

二:机器人应服从人的一切命令,但不得违反第零、第一定律。

三:机器人应该保护自身的安全,但不得违反第零、第一、第二定律。

在探讨这个话题的时候,就有aI专家表示可否参考机器人三定律。科幻作家阿西莫夫的经典机器人三定律似乎就是最合适给机器人的定下的基本守则了,但实时的结果是……不行!

黎川更是直截了当的否了,智能核心并非是像小木那样的智能生命,小木最大的特点是拥有自我情感逻辑,这是智慧的体现,智慧是生命的体现,但aI是永远不会放错误,aI如果犯错了便是程序运行出现了逻辑错误。

黎川这么直接的否掉,原因是阿西莫夫的机器人三定律有着太多的逻辑缺陷。

其中有一个根本缺陷就是,如何去定义人?

一般形态的机器人至少可以分为三种类型:

一种拥有类人形的机器人,典型就是真实伴侣了;

其次是拥有机械躯体的人;

以及其他。

拥有仿生人形的机器毫无疑问依然属于机器,只是外形看起来与人镜像,像真实伴侣就外表更是一模一样,但它本质依然是机器。

而拥有机械躯体的人,虽然他们可能没有经历生物学意义上自然人的生长过程,或者看起来并不像人,比如克隆人,但他们本质是人。

其他,比如人造人是有机生命体与机械的合成品。

而阿西莫夫的“机器人三定律”所面对的要么是机器、要么是人。

甚至,如何去定义机器人?

如果是机器,那么“机器人三定律”起不到任何约束作用,这是使用人类“语言”描述的一种“概念”,“机器本质的机器人”并不能理解“语言”,也不存在“概念”。

它们就像是按照设定好的轨道运行中的火车,只是可能轨道相对复杂了,但它们怎么也不会运行到轨道之外的地方的,否则就会翻车,那么智能核心就会崩溃。

即便按照某种方法把“机器人三定律”翻译成机器人使用的二进制语言输入到它们的智能核心中,“机器本质的机器人”也无法执行这种指令,因为它们根本就“读不懂”。

就像是一只老式发条座钟,可以被设定齿轮转到没个特定位置的时候激活报时的装置,但是无法被设定“看到哈士奇拆家就报警”,就算是写成纸条放到里面或者把字刻在齿轮上也不行。因为老式发条座钟并不能理解“哈士奇”和“家”是什么,这是它被设定运行时的“轨道”之外的存在,是不能说触及的领域。

如果是人,那么即使他不是血肉之躯,也依然有办法读取‘机器人三定律’的内容,可以正确的理解“机器人三定律”所描述的概念。

但是,他没有理由执行这个概念。

是的,他可以理解,但他就是不想执行。

用“机器人三定律”来约束某个特定人造物的行为实际上没有什么意义,因为没法约束全部,全部都约束了就是全部都约束不了。

如果它依然是机器,那么并不需要制定规则来约束它,因为它本身不具备做出“越轨”行为的能力,最多只能“脱轨”坏掉。而当他可以理解“机器人三定律”的时候,他所拥有的理解、逻辑、判断力已经足够让他自行决定是否遵守规则。

比如华小木,小木严格的来说已经是可以使人类定义中的“生命”了,已经脱离了机器人或者aI的范畴了。

简而言之:

会执行“机器人三定律”的机器人根本不能理解“机器人三定律”。因为“它”不能理解“它”。

可以理解“机器人三定律”的机器人根本不会去执行“机器人三定律”,因为“他”不会执行“它”。

就是一句话,是否具备自我人格与情感逻

↑返回顶部↑

书页/目录