【内容摘要】著名物理学家史蒂芬·霍金(Stephen Hawking)是人工智能(AI)技术的支持者,但他对AI带来的潜在挑战也感到担忧。霍金始终关注着在社会中扮演越来越重要角色的AI,并建议组建“世界性政府”帮助监管和控制AI的快速扩张。许多人对霍金的建议给出不同反应。
最近接受英国《伦敦时报》采访时,霍金同样表达了对AI的警惕,并提出了保守派很难接受的解决方案。霍金对未来表示乐观,不过他对AI的崛起和其他全球性威胁感到担忧。他认为,各国应该共同采取行动,甚至组建“世界性政府”。霍金说:“我们需要以更快的速度识别这类威胁,并在它们失控前采取行动。这可能意味着,我们需要组建某种形式上的世界性政府。”可是霍金也警告称,这种方法有可能催生“暴政”。
联合起来阻止软件肆意横行
随着AI在社会中发挥的作用越来越大,计算机科学家和政策制定者们的责任也在转变,他们需要从开发这类系统转变为利用它们为社会谋取福利。尽管观察人士在AI相关挑战的性质和范围方面存在分歧,但他们普遍认为,这些影响需要首先解决。“世界性政府”是最好的解决方案吗?
英国牛津大学教授、人类未来研究所创始人尼克·博斯特罗姆(Nick Bostrom)写道:“我认为改善全球治理很有必要,不仅可应对AI带来的危险挑战,也可解决摆在我们面前的其他巨大挑战。随着世界不断分化,我们在不断开发出越来越强大的工具,我不确定人类是否能够无限期生存下去。”
霍金表示,如今,AI似乎已经渗透到各个领域,包括推动自动汽车进步,支持Facebook的广告筛选功能,并通过苹果Siri、亚马逊Alexa等虚拟助理与世界各地的人们互动。在纽约市,AI可以预测火灾。在英国,机器学习正被部署以帮助人们偿还债务。最后,AI甚至可帮助根除长期存在的社会挑战,比如**和贫困等。
但是观察家们认为,这些独特的机遇也带来了独特的问题。令人感到担忧的是,经济似乎正过渡到以机器为主导的世界。普林斯顿大学计算机科学教授、该校所属信息技术政策中心创始人爱德华·菲尔特恩(Edward Felten)表示:“AI主要有两个经济风险:第一,工人具备的技能与未来工厂所需要的技能可能不匹配。第二,通过增加资源所有者和某些高级技工的回报,AI可能加剧经济不平等性。”
菲尔特恩认为,这些问题可以通过调整公共政策解决,比如重新分配生产力提高带来的好处。但令霍金感到担忧的是,AI可能变得超级强大,并开始以人类无法控制的方式行事。
控制不太明显的威胁
但是并非所有人都相信,科幻电影中的“终结者”必然会成为现实。菲尔特恩教授说,计算机科学领域还不存在完美基础,可以促使机器智能水平突然加速提高。未来今日研究所创始人兼首席执行官艾米·韦伯(Amy Webb)则认为,应该严肃对待这些威胁。
韦伯解释称,AI被开发出来的目的之一就是在“无监督学习”系统中教授机器自己学会学习。那意味着,要对这些AI系统做出正确决策能力给予充分信任。韦伯以课堂上学生学习数学进行类比,她说:“如果学生错误地学到1+1=3,然后再将它传给其他孩子,结果会怎样?这个错误会被放大,进而影响其他以此为基础的知识。”
韦伯认为,这种危险远比数学课上学错知识更高。她说:“我们将会要求它们对人员身份、安全、武器部署以及其他重要事情做出决定。”博斯特罗姆教授将AI当前面临的问题归为“可扩展性控制”,即如何确保任何智能AI能与程序员的意图保持一致。
解决方案即将诞生
越来越多的研究人员正致力于解决这些问题,组建“世界性政府”或制定“国际AI协调法案”可能是一种方法。尽管博斯特罗姆表示,他不认为全球事务短期内会出现任何迫在眉睫的改变,“世界性政府”可能是政治聚合下个阶段的产物。博斯特罗姆说:“我们已经一路走来,从狩猎采集部落到城邦、国家,再到目前的联邦和国际机构。下一步,我们就可能建立世界性政府。”
虽然韦伯认为国际合作非常重要,但她怀疑“世界性政府”是否能够很快出现,以及时解决当前问题。她指出:“全世界所有国家都希望就AI标准和用途达成一致,但我们目前甚至还没有就气候变化问题取得共识。对于国际合作解决AI的开发问题,可能还需要一些时间。”
技术政策研究所总裁斯科特·沃尔斯特恩(Scott Wallsten)表示,随着AI正变得无所不在,政府决策也可能受到人类行为意外改变所影响。他说:“基于AI的更安全汽车会让人们做出更鲁莽的反应吗?比如他们相信汽车在路灯前会自动停下,但它却闯了红灯。”
沃尔斯特恩表示,考虑到这一点,本地、国家以及国际层面上的有效政策解决方案应该更多地开始研究AI的影响。他总结称:“任何解决潜在挑战的措施首先都要对存在的问题进行深入理解,比如哪些问题需要解决、如何解决等,这样的方案才更有意义。”