在古希腊神话中,潘多拉差一点就成为完美的化身。传说中,众神赠予她诸般礼物,美貌、智慧、华丽的衣装、语言的能力……她拥有世界上的一切天赋,正如今天人类正在创造着的人工智能一样,它不知疲倦,有着看上去完美的理性和远远超出人类的计算能力。直到有一天,潘多拉打开了宙斯给予的魔盒,世间从此便有了灾难和祸害。
完美的人工智能目前虽仅存于人们的想象之中,但是2024年人工智能所展现出的能力已经足够令人惊叹。基于大模型的生成式人工智能,被认为有着成为未来通用人工智能的潜力。在人工智能自然语言处理工具ChatGPT的最新模型GPT-4o中,人工智能已经可以实时对音频、视觉和文本进行推理。它可以通过摄像头看到对话者的表情,通过语气的变化和中断判断对话者的情绪和指令,像人一样实时展开对话。而在更多的应用场景中,具体领域的人工智能已经渗透到人类世界的诸多方面。例如自动驾驶中的人机共驾,智能数字工厂中的设备诊断与维修、技术判断与决策,医疗领域的人工智能读图、诊疗,社会治理中人工智能的自动判断和决策,甚至还有互联网空间中的人工智能发言和讨论。在不经意间,人工智能已经走进了我们的生活,在我们尚未察觉到的地方发挥作用。
如何保证人工智能不会像潘多拉一样,给人类带来不可控制的灾难与祸患?早在20世纪40年代,这一问题就被一位叫作阿西莫夫的科幻作家提出,他还给出了一段著名的回答,即“机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾”。这就是著名的“机器人三原则”,它给出了人类发展人工智能的安全底线。
在阿西莫夫提出三原则后的几十年间,虽然也有不同的科幻作家和未来学家提出补充的准则,却几乎没有严肃的社会科学学者对此进行思考和研究。这恐怕与人工智能技术本身尚处在科学幻想之中,并未真实地介入人类社会生活有关。如今,当幻想照进现实,科幻小说中描绘的世界正在逐步实现,我们进行社会学意义上的思考时,不难发现事情远比阿西莫夫想象的复杂,“机器人三原则”并不能保证一个没有灾难和风险的人工智能世界。
一
人工智能在诞生之初,就被寄予了代替人类完成智力任务乃至更多现实任务的期待。我们抛开人工智能的具体技术,从社会道德规范的层面做一个思想实验。假设有两种极端的人工智能模型。第一种是极端地遵守人类社会一切准则的人工智能,例如自动驾驶的人工智能永远不会违反交通规则,下围棋的人工智能“阿尔法狗”永远不会违反围棋的基本规则,我们把这样的人工智能叫作“老实人”模型,它是这个世界上最严格的遵纪守法者。
这种模型似乎就是人工智能本来应该有的样子,理性、自律、从不违反规则。如果人工智能的工作对象仅仅是自然界还好,这时的人工智能就如同一台忠诚的机器,不会有太大问题。但是如果其工作对象涉及人类,存在人工智能和人进行社会互动甚至博弈的过程,那么“老实人”特有的问题就会出现了。比如人工智能自动驾驶,表面看上去是简单地开车从A点到B点,但实质上包含着人工智能和其他人类驾驶员、路上的行人之间的路权博弈,是一种社会行为。试想,一个永远不会违反任何规则的老实人,在一个充满着制度的模糊、违规乃至欺诈的社会中,如何独立完成任务?
于是,在当下已经出现的人工智能驾驶场景中,我们可以看到这样的情形反复出现。在一个路口,前方有一辆违停车辆,人工智能驾驶着汽车走到车辆后面,老老实实地停下来,等待前方的车辆驶离。如果刚好相邻车道和本车道之间是交通规则中不能越过的实线,那么人工智能就会一直等下去,永远不会绕行变道,这个路口也就几乎永远都过不去。解决这个问题在技术上并不难,只要赋予人工智能在这一条件下违规的权利即可。但为什么很多厂家不敢让人工智能越过实线?因为“老实人”模型必须遵守交通规则,否则会带来一系列不可控的风险。在另外的场景中,严格遵守交通规则的人工智能驾驶者,在面对不断加塞、不断违规的人类驾驶者时也只能选择避让,直到错过变道的机会或者错过需要拐出的路口,最后把无法处理的场景交给车里的人类驾驶员。以上种种场景,在换成人类驾驶员后变得十分容易解决,就是越过实线或者违反交通规则,以达到通行的目的。
随着人工智能在社会治理、法律等领域的应用越来越多,类似的场景也会不断上演。当人工智能的博弈对象变为真实的人类以后,“老实人”模型就如同一个只知道套路和规则的武林高手,尽管武艺高强,但是它的对手却很可能“不讲武德”,完全无视规则的存在,或者巧妙地利用规则的漏洞。此时,从人类的视角看,人工智能无疑是蠢笨、僵化的“木头脑袋”,这何尝不是社会中那些真实的“老实人”在所谓“聪明人”眼中的形象?
于是,“老实人”模型似乎难以独立和人类进行博弈,除非所有的社会规则都被双方严格遵守,坦白地说,这种理想且理性的社会状态,只要有人的存在,就很难完全实现。那么,人工智能的能力仅限于此吗?恐怕并不是,人工智能的潜在博弈能力只是被暂时地封印而已。如果揭开这一道德的封印,哪怕只是小小一角,我们就会得到一种人工智能的“潘多拉”模型。它以最优先模仿人类行为,并且最高效完成任务为目标。当它仅仅以学习和模仿人类的行为为目的,通过机器学习来掌握人类行为的规律时,在放松人类价值观和既定社会规则的情况下,人工智能会爆发出可怕的完成任务的能力。早在数年前,美国亚马逊公司在使用人工智能进行简历筛选时,完全学习和模仿人类审查官的人工智能就被曝出潜在的种族歧视和性别歧视倾向。再以人工智能的自动驾驶为例,在很多情况下,人类驾驶员可以借助所谓的电子狗或者实际经验来判断前方路上有没有拍摄超速或违章的摄像头,从而躲避违反交通规则的处罚。这件事情如果由人工智能来完成,基于大数据和传感器探测的分析能力远比人类更强,可以更加炉火纯青地超速而不被处罚。一个同样“不讲武德”的人工智能,要比人类更轻松、更高速甚至更“安全”地在路权博弈中获胜。
完美的算计、完美的效率、完美的执行力,只不过最后打开了“潘多拉的盒子”,有可能带来更大的风险和灾难。在人工智能没有大量应用前,就已经有针对春运火车票、网上购物的抢票算法和作弊软件,而人工智能在这些领域的应用,尽管远远达不到阿西莫夫所谓的伤害人类的程度,但也足以破坏社会的公平正义,带来更多的潜在风险。
二
令人忧虑的事情在于,这种“潘多拉”模型反而更容易被人类接受,更加具备在真实而残酷的社会环境下独立完成工作的能力。因为它对人类行为的学习,不仅会学习积极的阳光的一面,也同样会学习阳光下的阴影。而这些阴影部分,往往潜藏着社会真实运作的潜规则和不平等逻辑。
“老实人”模型和“潘多拉”模型在现实的场景应用中并非那样泾渭分明,在那些稍微放松价值观监管的地方和悄悄违背社会规则的应用中,我们已经可以看到“潘多拉”人工智能的影子。在人工智能驾驶过程中,我们看到有些厂家为了提高通行效率,赋予了人工智能汽车加插队的能力;看到了自动驾驶汽车行驶在限速但不会被摄像头拍到的高架匝道上时,通过有意超速来提升效率的违规行为。我们也可以看到在ChatGPT产品发布后,人们通过特定的提示词绕开伦理和安全规范,让越狱版的ChatGPT成为恋爱对象的行为。以上种种人工智能的演进,都如同被众神所创造的潘多拉,拥有越来越多的天赋,却好奇地打开了魔盒的一角。
人工智能的发展,在本质上既是一个技术问题,又是一个社会学问题。未来人工智能会成为“老实人”还是“潘多拉”,并不完全取决于计算机技术的进步,也同样取决于我们如何看待和反思人工智能和人类社会的关系,以及人工智能和既定社会制度之间的关系。我们还将不得不面对人工智能的新发展,做出新的有效且必要的约束,甚至在某些方面重新构建社会的制度规则体系,以适应人工智能行动者介入人类生活后的世界。
【作者单位:中共中央党校(国家行政学院)社会和生态文明教研部社会学教研室】