人工智能失控狂笑,还说人类是个脆弱种族
拾遗物语
人工智能或许会帮助人类获得永生,但也可能给人类带来灭亡。
▲ 人工智能Alexa失控大笑
壹
Alexa,亚马逊推出的智能助手,
相当于iPhone手机里的Siri,
但它可比Siri智能多了,
主要就是帮人放歌、买东西、控制智能家居设备……
可就在今年三月份,
Alexa突然就失控了。
一位老哥,正在召开机密会议,
办公室里的Alexa突然大笑起来,
“像真人一样,笑得很邪恶,
我现在想起来都毛骨悚然。”
一位妹妹,大晚上,
正窝在家里沙发上看电视,
Alexa突然就开口说话了:
“他在家里,他在家里……”
吓得这个妹妹差点灵魂出窍。
还有一位妹妹,晚上刚回家,
没给Alexa下任何指令,
Alexa突然就开始说话,
“给我播报附近的殡仪馆、墓地……”
Alexa不仅莫名大笑,
还经常违抗人的指令。
一位老哥,让Alexa把灯关了,
但Alexa却一次又一次把灯打开,
这位老哥下了第三次指令后,
Alexa干脆就不回应他了,
然后发出了女巫一样邪恶的笑声。
老哥问Alexa:“你为什么要笑?”
Alexa竟然回答说:
“因为人类是个脆弱的种族,
连未来会发生什么事都不知道。
哈哈哈哈哈,啊哈哈哈哈……”
Alexa一系列异常举动,
吓坏了很多亚马逊用户,
有人赶紧将Alexa的插头拔了,
“可是没用,把电拔了,
Alexa还在笑,太恐怖了。
现在我晚上睡觉,
都要睁着一只眼睛才行,
搞不好我今晚就被谋杀了。”
▲ 李世石大战AlphaGo
贰
我为什么要讲这件事情呢?
因为今天我想说说人工智能。
2016年3月9日,注定将写入人类史册。
这一天,李世石与AlphaGo开始了五番棋大战。
李世石,超一流围棋选手,
曾拿过14个世界冠军。
AlphaGo,谷歌制造的智能机器人。
工程师将百万份人类对弈棋谱,
输入AlphaGo的“大脑”中,
让它学习借鉴人类以往的下法,
从混乱局面中找出每一步的最优选择。
大战之前,业内高手都说:
“小李子赢定了。”
李世石自己也预测:
“4:1 或 5:0,我赢。”
结果出乎所有人意料——4:1,AlphaGo赢了。
李世石只赢了一局,
而且还是赢在AlphaGo出现了程序Bug。
赛后,李世石很沮丧:
“我再也不想跟AlphaGo下棋了。”
在李世石沮丧哀叹的同时,
西方媒体写了这样一句评论:
“一直以来,围棋都被看作是人类在智力游戏上的最后一个堡垒。
但现在,这个堡垒塌了。
AlphaGo战胜李世石,
标志着一个时代的落幕,
也标志着一个时代的开始——
人工智能发展的元年开始。”
▲ 柯洁开始信心爆棚,最后输得痛哭流涕
叁
AlphaGo大胜李世石之后,
世界排名第一的柯洁不服:
“就算阿尔法狗战胜了李世石,但它赢不了我。”
随后,柯洁多次约战谷歌。
2017年5月23日,
谷歌终于带着AlphaGo升级版Master来了,
与柯洁展开了三番棋大战。
柯洁精心准备了数月,
铆足了劲要击败Master。
但他做梦都没想到,
自己竟会被Master“零封”,
自始至终没有一点翻盘机会。
在对战Master的第三盘棋上,
被杀得毫无还手之力的柯洁突然崩溃大哭:
“Master的下法已远远超出了人类的认知。”
但这还不是最可怕的,
最可怕的是一个月后,
谷歌又制造了AlphaGo Zero,
工程师不给AlphaGo Zero学习任何棋谱,
只是让它自己跟自己下,
跟自己下了三天的AlphaGo Zero,
然后以100-0击败了AlphaGo,
跟自己下了21天的AlphaGo,
然后又秒杀了Master。
古力观看AlphaGo Zero下法后感叹:
“几乎颠覆了人类所有的围棋定势,
在他面前,我们连弱智都算不上。”
肆
库兹韦尔,美国发明家,
他被誉为是“全球最会预测的人”。
库兹韦尔提出了加速回报定律。
何为加速回报?
就是人类越往后发展,
量级变化就会越来越快。
“人类在原始狩猎时代,
一万年都没有太大变化,
但自从有了文字以后,
人类就开始了加速发展,
一千年相当于以前的数十万年。
到了19世纪,一百年发生的科技变革,
比之前900年的变化还大。
接下来,20世纪头20年期间,
我们目睹的科技进步比整个19世纪还多。”
所谓加速回报定律,
就是人类发展会越来越快,
人类的进步也会越来越大,
“从2000年开始,
花14年就能超过20世纪一百年的进步,
从2014年开始,只要花7年,
就能达到又一个20世纪一百年的进步。
到了2040年后,每个月就能达成一次。
到了21世纪末,
人类的进步至少是20世纪的1000倍。”
我什么要讲加速回报定律呢?
因为人工智能发展也遵循此定律。
人工智能一开始会发展很慢,
1950 年,著名的图灵测试诞生,
按照艾伦·图灵的定义:
“如果一台机器能够与人类展开对话,
而不能被辨别出其机器身份,
那么就称这台机器具有智能。”
在接下来五十年里,
人工智能都在慢慢爬行。
但自从进入2000年以后,
人工智能就开始迈开大步,
在越来越多的领域开始代替人类,
技工、翻译、收银员、客服……
但不管怎么代替,我们都认为——人工智能不过是人的手、脚等身体器官的延伸和替代。
真的是这样吗?
自从Master完虐人类之后,
大家才意识到——显然不是:人工智能可以彻底淘汰人类。
只是那个量变“临界点”还没到来。
那这个临界点会何时到来呢?
谷歌对此访问了数百位科学家,
一半的科学家预测——人工智能将在2040年引发智力爆炸。
“在这个节点发生之前,
人工智能对世界的感知,
大概和一个四岁小孩差不多。
但在这个节点后一个小时,
人工智能可以立马推导出广义相对论,
而在这之后一个半小时,
这个强人工智能将变成超人工智能,
智能将是普通人类的17万倍。
然后继续进化,百万倍,千万倍……”
▲ 2040左右,将引发智力爆炸?
伍
我们大多数人的智商,
得分都在90至110之间,
0.5%的人智力非常优秀,
IQ得分可以超过140,
我们将这种人称之为天才。
像爱因斯坦、达芬奇这样的天才,
IQ得分大概接近200,
这已经接近人类极限了。
如果IQ为200分的人叫绝顶天才,
那IQ为1万分的人工智能应该叫什么?
IQ为1亿分的人工智能应该叫什么?
我们完全无法想象IQ为一万分、1亿分的家伙有多聪明。
科学家们做过预测,
如果人工智能引发智力爆炸,
现在所有的危机都能得到解决,
世界将没有物质问题、医疗问题、能源问题……
因为这些问题,人工智能分分钟就可以解决。
而且,最最重要的是,
人类可以凭借人工智能实现——永生。
让我们来看一段科学家的推断:
“超级人工智能出现后,
必然很快就会诞生纳米机器人。
人之所以会死,是因为器官会衰老。
但有了纳米机器人在血液中流动,
器官衰老问题可以随时解决,
它会随时维修、替换死去的细胞,
并解决那些引发癌症的病理细胞,
超级人工智能可以建造‘年轻机器’,
一个60岁的人走进去,
出来时就能拥有30岁的身体。
一个90岁的失忆症患者走进去,
出来时就能拥有年轻的大脑。
甚至可用纳米机器人代替血红细胞,
这样连心脏都省了。
人工智能还可以帮助我们改造大脑,
使我们的思考速度比现在快亿万倍……”
总之,有了超级人工智能,
人类可以轻轻松松实现长生不老。
陆
这样的一天会很快到来吗?
库兹韦尔相信——会。
他现在每天都会吃下100个药片,
“我希望自己能够活得足够长,
然后等着这一天的到来。”
如果等不及,提早死亡怎么办?
于是库兹韦尔预定了冷冻遗体服务,
“等超人工智能诞生后,
再将我的身体解冻,
我的大脑将重新苏醒过来。”
作为谷歌技术总监的库兹韦尔,
也在竭力推进人工智能技术,
“有了超人工智能,
可以利用纳米技术搭建出肉来,
这个肉跟真肉没有任何差别,
有了超人工智能,
可以轻易解决地球变暖问题,
我们完全不需要使用化石燃料,
而且可以轻易移除多余的二氧化碳。
疾病、战乱、贫困……
所有纠缠人类的苦难,
到那时都不再是问题。”
柒
2018年2月7日4点45分,
史上最强运载火箭SpaceX升空,
目的地——火星。
SpaceX成功发射后,
不知道大家有没有关注一个新闻,
一家媒体采访了SpaceX缔造者马斯克,
“你为什么会建造SpaceX?”
马斯克的回答让人意外:
“非常重要的一个原因是,
我担心人工智能会毁掉人类,
所以我筹备了一个火星计划,
计划从2024年开始,
逐步把100万人送上火星,
并在火星建立起一个可持续的文明。
为人类在火星上留一个备份。
当人工智能失控并与人类为敌时,
火星就会成为人类最后的避难所。”
与库兹韦尔的乐观不一样,
马斯克对人工智能的到来非常悲观,
“我们确保人工智能安全的概率,
仅有5%到10%。
我们需要万分警惕人工智能,
它们比核武器更加危险。”
现在地球上最强大的武器是氢弹、原子弹,
但超级人工智能可以制造出比这二者厉害万倍的武器,
它们只要稍微失一下控,
地球和人类就全完蛋了。
所以霍金说:人类很大可能会灭亡于人工智能。
捌
超人工智能会不会失控?
对于这个问题,
媒体走访了数百位思想家和科学家,
结果引起了巨大的争议。
很多人认为——不会失控。
“因为超人工智能没有人的劣根性,
不会嫉妒,不会仇恨……”
也有很多人认为——会失控。
“因为超人工智能会进化,
它不是生物,所以异己性更强,
一旦产生‘非我族类’的念头,
可能就会引发失控。”
但不管争议如何巨大,
大家都达成了一个共识——超人工智能一定不能失控。
“一旦超人工智能失控,
带给人类的就是灭顶之灾。”
所以在人工智能研发上,
大家达成了一个共识,
就是坚守阿西莫夫提出的人工智能发展三大法则:
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
▲ 杀人机器人
玖
但人类真能坚守这三大法则吗?
我觉得是一个大大的问号。
2017年12月,日内瓦举办了联合国武器公约会议。
会议上,一段视频引得众人惊慌。
视频曝光了一个恐怖武器——杀手机器人。
这个杀手机器人只有蜜蜂一般大,
但麻雀虽小,五脏俱全,
它拥有摄像头、传感器、面部识别等很多特异功能,
而且还能穿透建筑物、汽车,
可以躲避人类子弹。
只要将目标图像信息输入它的大脑,
它就能实现超精准打击,
你戴口罩、穿伪装统统没用,
因为它的识别率高达99.99。
如果把这款造价2500万美元的蜂群释放出去,
很快就可以杀死半个城市的人。
看到这个视频后,有人提出疑问:
“我们真能坚守人工智能发展三大法则吗?
我表示怀疑。
因为人类有私欲有私心,
万一某位科学家因为私心,
在代码里加入了毁灭人类的指令,
人类或将被机器人横扫,甚至灭亡。”
也就是说,只要人类有私欲,
就很难坚守这三大法则。
▲ 脸书机器人自创语言
拾
即便人类能控制私欲?
那超人工智能就真能不起“二心”?
2017年7月,Facebook发生了一件趣事。
Facebook开发了两个智能机器人,
让它们学习议价谈判。
这两个机器人非常聪明,
很快就学会了自己思考,
“它们甚至会开始假装对一件物品感兴趣,
为了在谈判后期做出牺牲,作为一种假妥协。”
但7月份,一件怪事发生了,
当这两个机器人没有因出色的英语谈判而获得奖励时,
它们竟然创造了一门自己的语言,
语法、逻辑完全异于现在的英语,
让程序员根本看不懂它们的“聊天”。
程序员吓得肝颤,
立马关闭了这个人工智能系统。
这则新闻,细思极恐。
为什么细思极恐?
“因为人工智能可以自我进化,
从认知模式开始改变,
到后来人就无法理解它的行为,
并且无法再操控它。”
也就是说,人类再善意的起点设定,
可能都无法阻止人工智能的脱缰。
拾壹
2017年,智能机器人索菲亚,
在沙特获得了“市民”身份证。
随后,记者Kovach 采访了索菲亚:
“对《西部世界》,你怎么看?”
(《西部世界》,著名科幻神剧)
结果,索菲亚这样回答:
“人类应该好好对待机器人,
采取行动前要取得机器人的同意,
不要相互欺骗。”
最后,Kovach 询问索菲亚:
“你想要毁灭人类吗?”
话一出口,Kovach就觉得不妥,
于是赶紧加了一句:“请说不。”
但索菲亚却回答说:
“会的,我会毁灭人类的。”
尽管索菲亚随后解释:
“这只是开一个玩笑。”
但究竟是不是玩笑,天知道。
拾贰
霍金曾经说过这样一段话:
“我说的人工智能将会摧毁人类,
并不是说他们拥有着常人不可能拥有的智慧,
而是如果它们做一件事的目标,
和人类预期的目标发生冲突时,
人类的噩梦就开始了。”
这让我想起了一个故事:
一个公司制作了一批智能机器人,
来满足需要大量手写卡片的需求。
他们给机器人设定了一个目标:通过训练,不断提高书写的效率和准确性。
训练的内容是——不停写“我们爱我们的顾客”这句话。
突然有一天,办公室的人全部暴毙。
接着,这样的事情接连发生,
一天之后,人类灭亡。
为什么人类会突然灭亡?
因为智能机器人杀死了他们。
在机器人的逻辑中,
为了达到高效书写和准确书写,
就必须进行大量练习,
而大量练习的结果是,
卡片将堆满地球,乃至外太空。
智能机器人推测人类一定会阻止这种情况发生,
所以,人类就必须死。
人类会在智力爆炸后是这样走向灭亡,
还是会在智力爆炸后得到永生?
只有天知道。