停止研发智能武器的可能性不大,能做的就是制定一系列国际法和公约,以定义和控制智能武器的研发与使用。或许,这样能相对地做到不作恶。
■ 张田勘
美国谷歌公司6月7日公布其人工智能的一系列原则,包括不会开发和运用“造成或可能造成伤害”的手段,不会把这项技术用于致人死亡或受伤的武器以及违反通行国际准则的侦察活动。
此前,谷歌已宣布退出去年参与的美国国防部的Maven项目,该项目致力于研发一种人工智能来识别并分析无人机拍摄的人类、物体、建筑等图像,甚至可以确定目标并做出决定,更精准地打击目标。谷歌在Maven项目中研发AI算法,以创造在分析速度和精准度上远超人类分析师的AI。
谷歌的表态表明,谷歌不会参与智能武器的制造,包括完全的智能武器(机器人武器、机器人士兵)和半人工半智能的智能武器。
实际上,谷歌过去参与的Maven项目并非智能武器,只是将人工智能用以算法分析,更快更好地确定敌方目标,进行精确打击,顶多算是边缘智能武器。即便如此,现在谷歌不仅退出了这个项目,而且制定了AI项目的一系列原则,原因既在于有很多谷歌员工反对Maven项目,也在于谷歌的一个核心原则——不作恶。
此前,谷歌秉承不作恶原则已经退出了某些国家的市场,在损失了利润的同时也赢来了名声。此次谷歌再次不作恶让谷歌在未来避免了一种爱因斯坦式的两难困境,今天,智能武器的威力完全会比核武器强大。
谷歌的退出避免了像爱因斯坦那样良心的拷问,但并不意味着智能武器的研发停止。更何况参与这样的项目可以获得高额利润。据估计,谷歌此前参与Maven项目大约18个月获得1500万美元收入,未来Maven将成长为一个每年带来2.5亿美元收入的项目,甚至最终价值远高于此。并且,不只美国,很多国家也已经瞄准这类武器并且在积极研发,只是尚未浮出水面而已。
当然,还有其他种种理由为其背书。一种理由是,研发武器的人和使用武器的人是有根本区别的。武器是否杀人以及杀了多少人全在于使用武器者以及使用的方式。
此外,还有一个更重要的理由,阻止恐怖主义、邪恶势力对无辜者和正义力量的残杀和攻击。这源自约翰·罗尔斯的理论。研发智能武器如同核武器,与其让希特勒研发出来,不如让主张和实现正义、公平的人研发出来,并掌握和使用。
然而,正如核武器具有巨大杀伤力和毁灭性一样,智能武器并不逊色或更甚于核武器,因此,对其研发和应用必须由国际社会制定严格的法律条文来监控和管理。
迄今已经有两种意见,一种是国际机器人武器控制委员会等国际非政府组织发起“停止杀人机器”的运动,呼吁取缔自主战斗机器人的研发和使用。另一种是此前召开的联合国“致命性自主武器系统问题政府专家组”日内瓦会议上提出的,需要人类对智能武器进行完全的控制。
停止研发智能武器的可能性不大,能做的就是制定一系列国际法和公约,以定义和控制智能武器的研发与使用。或许,这样能相对地做到不作恶。