得像人类基因组计划施行之初那样,召集各方面的专家,议定全面发展计划,尤其不能缺失科技伦理和法律方面的专家,不能只是让技术专家来决定人工智能的发展和进程。
■ 张田勘
掌管着四家知名公司(特斯拉、民用航天火箭制造商SpaceX、隧道交通公司The Boring Company和家用太阳能板公司Solar City)的伊隆·马斯克与Facebook的创办人兼CEO马克·扎克伯格怼起来了。
马斯克称,人工智能是对人类社会的“根本性存在威胁”,并且在2015年就与霍金一道预言,人工智能军备竞赛已经开打。但是,扎克伯格称,“人们总说人工智能在未来会伤害人类。的确,科技可以被好人也可以被坏人利用,人们需要对怎样打造和怎样使用科技非常小心。但有些人以此主张减慢人工智能的研究开发,我觉得这种言论真的非常可疑,我真的无法理解。”
马斯克与扎克伯格的互怼并非全是针锋相对,其中至少还包含了一些相同的东西。例如,两人都认为,技术的应用有好也有坏,关键看人们如何对待。但是,这种相似还是有区别的,至少包含两个层次。一是,即便二人认为技术具有双面作用(双刃剑),在扎克伯格看来,技术的负面作用是次要的,但在马斯克看来,技术的负面作用却是致命的。
第二,扎克伯格认为,即便人工智能可能有害于人类,也不能减慢对其研发和利用。但马斯克则认为,由于人工智能对人类有极大危害,从现在起就需要对人工智能的研发和利用保持警惕。
这种差异可以用英国技术哲学家大卫·科林格里奇在其《技术的社会控制》一书中的观点来解释和引申,这个观点被很多科学哲学研究人员所认同,被称为技术的控制困境,即一项技术的社会后果不能在技术生命的早期被预料到。然而,当不希望的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。
技术的控制困境还可以用更为通俗的例子来解释。当一件东西或一项技术在被创造出来时就像一个在火塘边烤出的香喷喷的山芋一样,当有人想要品尝其美味而剥掉其外衣时,山芋掉入火塘内,全身沾满灰烬,拍也不是吹也不是。可以想到的解决办法,要么忍痛丢弃,要么是用刀切掉四周。后者尽管还会让山芋有一点灰,却还可食用,只是可食用的份额已经减少。也就是说,如果陷入技术控制的困境,要么是这项技术被弃用,要么就需要改良。
现在,出于担心,马斯克提出要对人工智能予以特别警惕,就是考虑到,需要提前对人工智能置入可控的程序或开关,以便在出现危机时能够管控技术的危害。
而扎克伯格则是另一种想法,人工智能当然像其他技术一样,可能对人类有害,但不能因噎废食,而是要尽快发展,出了问题,再来考虑解决的办法。所以,马斯克可以归为预防论者,而扎克伯格属于事后解决论者。
这两种看问题和解决问题的方式当然各有长短。预防论者是未雨绸缪,但是难以准确地发现和解决问题;事后解决论者是不拿未来的问题来束缚自己,前进的步子会走得很大和很快,然而一旦出现问题,要付出的解决问题的成本就会很大。
如同人类文明的发展一样,人类科技的发展也基本上是出了问题再来解决问题,而不能提前预知有什么问题。所以,二人的争议似乎无解,人工智能的发展只能走一步说一步。因此,人工智能的发展必然会遇到一些可能遇到的难题和危机。具体可以表现为两个方面。
一是,人工智能是人类智能的模拟,人类所有的优点和缺陷人工智能都会有,如何克服人工智能所必然会沾染的人的缺陷,如暴力、谎言、歧视、偏激、非理性等,需要有前瞻。
二是,人工智能未来发展结果的不可预见性。不可预见性不只是人工智能所需要关注的,而是所有科技发展和项目都存在的,是祸兮福所倚、福兮祸所伏的必然体现。正如今天的“基因剪刀”,利用这样的技术当然可以修改生命、治疗疾病,但也可以创造新的生命甚至超人,也可以制造新的疾病。
当然,人们最大的担心和最不愿看到的是,师从人类的人工智能的未来发展背离人类的利益。届时,人类将何去何从!
人工智能可能出现的危机不只是这些,但是不必因为有危害就停止发展,而是要慎重发展。至于如何慎重,还得像人类基因组计划施行之初那样,召集各方面的专家,议定全面发展计划,尤其不能缺失科技伦理和法律方面的专家,不能只是让技术专家来决定人工智能的发展和进程。