近日,人工智能领域的主流企业-英国DeepMind公司宣布,他们不知道如何使人工智能和神经网络的行为不那么令人反感。人工智能系统创造者越来越经常遭遇的问题是,此类系统本身并不明白,什么是不知深浅、种族和性别歧视。
如果让OpenAI GPT-3原创文本系统去研究网络论坛中的文件,那么它将吸收所有最矛盾和最负面的内容。甚至,即使人对文本进行了初步处理,对系统来说也无济于事。
更令人苦恼的是,世界顶级人工智能培训公司之一的DeepMind公司,从2016年开始已在试图解决这个问题,但迄今为止还没能找到答案。难道,我们的未来智能机器人将粗俗无比?就像科幻作品《飞出个未来》中的机器人班德,即无礼又酗酒。
人工智能为何如此恨我们?
近年来,类似OpenAI GPT-3公司的情况有很多。应邀帮助人工智能警察的PredPol公司,常常建议向黑人居民居多的地区派出警队。几年中,类似的软件一直在帮助亚马逊人力资源部门招聘人才,但常常拒接接受女性。COMPAS系统可对罪犯中的潜在累犯进行评估,该系统总是倾向于黑人。但底特律警局局长指出,此类算法95%情况下无法区分黑人面孔,从而导致出现误捕。值得一提的是,谷歌图像识别软件最近将几张面孔标记为“大猩猩”。
北京师范大学-香港浸会大学联合国际学院许粲昊教授指出,机器是没有偏见的,毕竟,技术偏见的背后,是主导培训的公司。
他说:“人工智能机器学习的来源是输入数据,其学习的结果好坏根本在于训练输入的数据如何,其学习文本的输出与输入数据的三观是匹配的。好比小孩的教育,能够成为好人还是坏人,全看教导的人教的怎样。”
比如,亚马逊人力资源部门,他们依据是相当简单的事实:IT领域90%的员工是男性,因此,认为女性不适合此项工作。没人去维权或关注输入数据的初始偏差,因为IT领域的人员数量甚至更少。同时要知道,美国黑人 IT 专家。
许粲昊教授在接受卫星通讯社采访时指出:“毫无疑问,这应该不仅仅是现在的一个问题,过去也一直存在。我们经常可以看到报道,很多人工智能的训练都是基于西方的研究,意识形态会更加偏向白人,这种情况下训练出来的结果可能也会有一些人种倾向,包括价值观等。而社会中人们做出的一些决策和分析、生成的文本,甚至包括媒体的文章,可能很多都是基于人工智能的工作,所以人工智能确实会影响当前世界的发展。”
谁之错,怎么办?
联合国教科文组织网站上公布了蒙特利尔大学伦理学和政治哲学Marc-Antoine Dilak教授的采访录。他认为,“人工智能系统和种族与社会分工方法,或导致滥用,对此应该进行管理。”
Dilak认为:“软件程序错误率只有20%。但使用这项技术,不仅会歧视人,而且还会侵犯其不透露个人生活细节的权利。”
Dilak指出,此类案例表明:“有必要将人工智能领域研究纳入伦理范畴。”
许粲昊教授强调:“谁应该为人工智能系统的争议行为负责?首先是谁在选择筛选和输入数据,其次学习模型是谁创建和训练的,我认为这是两个基本问题。好比小孩的教育好坏取决于教导他的人。如果人工智能的文本输出具有争议性,那么它的训练数据和模型设计无疑是存在问题的。”
中国的经验
中国对此问题极为关注。近年来,政府在科技巨头百度、阿里巴巴、腾讯和华为的支持下,积极参与人工智能公民标准的创建。在国际标准化组织框架下,中国政府秉承的立场是,应为人工智能技术制定法律,确定伦理规范。
2018年,发布了《人工智能标准化白皮书》,并于 2021 年对其进行了更新。
同年5月,百度发表《AI伦理四原则》。公司在文件中指出,随着技术的快速发展和人工智能产品的不断使用,人们感觉到的变化是,人工智能正进入其生活。因此需要新的规则、新的价值观和新的伦理。9月份,腾讯和中国信息通信研究院也发布类似报告。2019年发布了《人工智能安全标准化白皮书》,2020年,《儿童人工智能交互北京共识》出版。
许粲昊教授指出:“如果没有政府监管,那么该由谁来管理算法、谁去管理训练的数据集、谁去管理人工智能?难道是科技公司的工程师或技术工人员,还是公司的高管?若是他们在训练数据集和算法中插入的内容监管部门不得而知,将有可能导致一些非常危险的后果,整个人工智能将处在失控或者由少数人控制的状态。这显然不是人类社会发展所希望出现的情况,所以干预是必然的,而且关键是谁在干预的问题。”
据《白皮书》分析,到2023年,中国人工智能市场将达到979亿美元。国内的AI产业发展迅猛:如果说,该领域的世界市场平均年增长26.2%,那么中国的指数高达44.5%。此外,中国在人工智能领域的专利数量居世界第一。中国凭借如此大规模的参与度,将在未来塑造人工智能伦理格局方面发挥巨大作用。