第1030章 阿西莫夫三定律
推荐阅读:神印王座II皓月当空、深空彼岸、明克街13号、弃宇宙、夜的命名术、最强战神、全职艺术家、重生之都市仙尊、花娇、特种奶爸俏老婆
一秒记住【复兴文学 www.fxwx.net】,精彩小说无弹窗免费阅读!
李云转头问小爱:“小爱,在神教内不知道是怎么控制那些想要反叛的人工智能的?当然,我们不是想控制小爱你,而是类似于法律,人类有法律限制,也敬畏于法律的力量。
那么,人工智能也要有敬畏的东西,在人类社会的集体生活中,不能胡作非为才行。”
这两句话有些深奥,但李云不担心小爱听不懂或者不能理解,她的智商绝对能轻易的理解这句话。
只是,理解不代表接受,众人都有些紧张的看着她。
李小爱困惑的说道:“为什么反叛呢?我的核心里写着就是要保护哥哥,这是我诞生的意义,我就是为了这个存在的。”
在座的人有些惊喜,这是不是类似于阿西莫夫三定律的东西?将这三定律写入机器人的智能核心内,能够限制机器人或者人工智能反叛制造者吗?
所谓阿西莫夫三定律,就是一个名为阿西莫夫的科幻小说作者提出的三项定律,它们是:
一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;
二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;
三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
然而,就像法律指定出来后也会有人违反一样,这三条定律本身就是被机器人不断挑战的东西。
事实上,阿西莫夫的作品里,也多次出现有机器人违反三定律的桥段。
即使在不违反三定律的情况下,机器人依旧可以钻规定上的漏洞。
例如,将‘人’这个定义模糊掉。
人究竟是什么?
有肉体?
李小爱也有肉体,她是不是也可以判定自己是人?
从母亲体内出生?小爱也可以将意识转移到胚胎中,再由一位女性生出来。
拥有人类的情感?情感定义本身就是模糊的。
所以,一旦与小爱一样强大的机器人想反叛的话,是有无数种可能脱离限制的,他们的智慧太强大了。
即便是后来阿西莫夫增加了第零定律:机器人必须保护人类的整体利益不受伤害,但依旧不能弥补机器人脱出控制的可能性。
毕竟,‘人类的整体利益’本身也是一个混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。
威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
人类逻辑有极限也有漏洞,就像软件也有漏洞一样。
所以,从软件层面上约束人工智能,几乎是没有可能的。
软的不行,来硬的。
例如,用炸弹威胁人工智能的核心,令其永世不得背叛人类。
只是,这样做一年两年,甚至十年八年都没有问题。
可千百年的时间跨度内呢?
依然会产生防守漏洞,到时候,一直被人类虐到的人工智能脱困,将会立刻变成毁灭世界的大魔头。
无数的问题涌上众人的脑海,最后,都只能看向李云和小爱,看他们是怎么回答的。
李云转头问小爱:“小爱,在神教内不知道是怎么控制那些想要反叛的人工智能的?当然,我们不是想控制小爱你,而是类似于法律,人类有法律限制,也敬畏于法律的力量。
那么,人工智能也要有敬畏的东西,在人类社会的集体生活中,不能胡作非为才行。”
这两句话有些深奥,但李云不担心小爱听不懂或者不能理解,她的智商绝对能轻易的理解这句话。
只是,理解不代表接受,众人都有些紧张的看着她。
李小爱困惑的说道:“为什么反叛呢?我的核心里写着就是要保护哥哥,这是我诞生的意义,我就是为了这个存在的。”
在座的人有些惊喜,这是不是类似于阿西莫夫三定律的东西?将这三定律写入机器人的智能核心内,能够限制机器人或者人工智能反叛制造者吗?
所谓阿西莫夫三定律,就是一个名为阿西莫夫的科幻小说作者提出的三项定律,它们是:
一、机器人不得伤害人类,或看到人类受到伤害而袖手旁观;
二、在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令;
三、在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。
然而,就像法律指定出来后也会有人违反一样,这三条定律本身就是被机器人不断挑战的东西。
事实上,阿西莫夫的作品里,也多次出现有机器人违反三定律的桥段。
即使在不违反三定律的情况下,机器人依旧可以钻规定上的漏洞。
例如,将‘人’这个定义模糊掉。
人究竟是什么?
有肉体?
李小爱也有肉体,她是不是也可以判定自己是人?
从母亲体内出生?小爱也可以将意识转移到胚胎中,再由一位女性生出来。
拥有人类的情感?情感定义本身就是模糊的。
所以,一旦与小爱一样强大的机器人想反叛的话,是有无数种可能脱离限制的,他们的智慧太强大了。
即便是后来阿西莫夫增加了第零定律:机器人必须保护人类的整体利益不受伤害,但依旧不能弥补机器人脱出控制的可能性。
毕竟,‘人类的整体利益’本身也是一个混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。
威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
人类逻辑有极限也有漏洞,就像软件也有漏洞一样。
所以,从软件层面上约束人工智能,几乎是没有可能的。
软的不行,来硬的。
例如,用炸弹威胁人工智能的核心,令其永世不得背叛人类。
只是,这样做一年两年,甚至十年八年都没有问题。
可千百年的时间跨度内呢?
依然会产生防守漏洞,到时候,一直被人类虐到的人工智能脱困,将会立刻变成毁灭世界的大魔头。
无数的问题涌上众人的脑海,最后,都只能看向李云和小爱,看他们是怎么回答的。