人工智能也是人类的镜子。那些不如人意之处,折射的往往都是人性的不完美,也给人类提供了在更深的层面反省自己的契机。
人类的偏见经过算法“洗地”之后,又披上了貌似客观公正的“科学技术”的外衣。实际上,在有偏见的数据基础上训练出来的系统,也必然是有偏见的。比如,此前就爆出过微软的聊天机器人Tay,在与网友的厮混中很快就学了满嘴脏话,以及种族主义的极端言论,在推特上咒骂女权主义者和犹太人。这提醒我们注意,算法处理的数据是具有人类社会特点的,发展人工智能也好,运用算法也罢,必须目中有“人”,也就是要充分考虑到作为人工智能开发者的人类的局限性,以及这种局限性在人工智能中的“遗传”。
有人说,孩子是父母的镜子。人工智能也是人类的镜子。那些不如人意之处,折射的往往都是人性的不完美,也给人类提供了在更深的层面反省自己的契机。这次亚马逊的案例就让人认识到原来即便在倡导了几百年男女平权的西方社会,性别歧视问题依然如此严峻。
人工智能不可能只在脱离现实人类语境的真空中使用,否则,人工智能也就失去了它的意义。而在可预计的将来,把人类自身推向完美也不过是美好的梦想。那么,如何克服人工智能自我学习中的这些问题,让不完美的人类创造出接近完美的人工智能,就成为必须攻克的重要课题。
其实,以不完美创造完美,正是人类这个物种高明的地方。这一切的实现,不是靠反智的玄想,而是靠不断地打补丁和修复,在科技进步中克服科技前行产生的漏洞。2017年曾有报道披露,在Google Image上搜索“doctor”,获得的结果中大部分都是白人男性。这实际上反映了医生总是与男性相连,护士总是与女性相连的社会现实。后来,通过修改算法,基本解决了这一问题。
进而言之,人工智能的漏洞被及时发现和得到纠正,有赖于科技政策和机制的进一步规范。在这个问题上,倡导算法在一定限度内的透明和可解释性,不失为可行之策,同时还应加快建立人工智能犯错追责机制。比如,日本已经把AI医疗设备定位为辅助医生进行诊断的设备,规定AI医疗设备出错,由医生承担责任。这一做法是否完全合理,值得探讨。但是,提高算法问责的意识并将之纳入人工智能发展规划和顶层设计,确为人工智能长远发展并造福于人的必要举措。