谁之错:人工智能的种族主义与偏执性

CC0 / / Технологии
Технологии - 俄罗斯卫星通讯社, 1920, 24.09.2021
关注
日常交往,同事不知分寸,知名人士的丑闻发言,以及政治家们的含有种族主义内容的评论。凡此种种,现代社会已习以为常,并有成熟的应对方式。然而,如果人工智能忘乎所以,举止不雅,这些问题该如何解决呢?更为主要的是,它们是从哪里学到这些的呢?

近日,人工智能领域的主流企业-英国DeepMind公司宣布,他们不知道如何使人工智能和神经网络的行为不那么令人反感。人工智能系统创造者越来越经常遭遇的问题是,此类系统本身并不明白,什么是不知深浅、种族和性别歧视。

如果让OpenAI GPT-3原创文本系统去研究网络论坛中的文件,那么它将吸收所有最矛盾和最负面的内容。甚至,即使人对文本进行了初步处理,对系统来说也无济于事

更令人苦恼的是,世界顶级人工智能培训公司之一的DeepMind公司,从2016年开始已在试图解决这个问题,但迄今为止还没能找到答案。难道,我们的未来智能机器人将粗俗无比?就像科幻作品《飞出个未来》中的机器人班德,即无礼又酗酒。

人工智能为何如此恨我们?

近年来,类似OpenAI GPT-3公司的情况有很多。应邀帮助人工智能警察的PredPol公司,常常建议向黑人居民居多的地区派出警队。几年中,类似的软件一直在帮助亚马逊人力资源部门招聘人才,但常常拒接接受女性。COMPAS系统可对罪犯中的潜在累犯进行评估,该系统总是倾向于黑人。但底特律警局局长指出,此类算法95%情况下无法区分黑人面孔,从而导致出现误捕。值得一提的是,谷歌图像识别软件最近将几张面孔标记为“大猩猩”。

A coronavirus disease (COVID-19) patient receives a chest x-ray in the ICU at SSM Health St. Anthony Hospital in Oklahoma City, Oklahoma, U.S. - 俄罗斯卫星通讯社, 1920, 24.09.2021
中国科学家将美国新冠疫情爆发的开始日期“提前”
几乎所有人都遭遇过人工智能不完善的问题。比如社交软件Tinder,在给用户设置吸引力指数,以此为基础去寻找潜在的候选人。通常认为,软件具有随机性。但是,算法计算出收入水平,进入个人空间,在其它社交网络中寻找用户信息。确定智能水平后,研究用户在通讯中的语言习惯。最终,如果男性收入高,有良好的教育,那么算法将提高其受欢迎指数。但受过良好教育和收入不错的女性则给出相反的评估。法国女记者在其《算法之爱》一书中对此有过介绍。

北京师范大学-香港浸会大学联合国际学院许粲昊教授指出,机器是没有偏见的,毕竟,技术偏见的背后,是主导培训的公司。

他说:“人工智能机器学习的来源是输入数据,其学习的结果好坏根本在于训练输入的数据如何,其学习文本的输出与输入数据的三观是匹配的。好比小孩的教育,能够成为好人还是坏人,全看教导的人教的怎样。”

比如,亚马逊人力资源部门,他们依据是相当简单的事实:IT领域90%的员工是男性,因此,认为女性不适合此项工作。没人去维权或关注输入数据的初始偏差,因为IT领域的人员数量甚至更少。同时要知道,美国黑人 IT 专家。

许粲昊教授在接受卫星通讯社采访时指出:“毫无疑问,这应该不仅仅是现在的一个问题,过去也一直存在。我们经常可以看到报道,很多人工智能的训练都是基于西方的研究,意识形态会更加偏向白人,这种情况下训练出来的结果可能也会有一些人种倾向,包括价值观等。而社会中人们做出的一些决策和分析、生成的文本,甚至包括媒体的文章,可能很多都是基于人工智能的工作,所以人工智能确实会影响当前世界的发展。”

谁之错,怎么办?

联合国教科文组织网站上公布了蒙特利尔大学伦理学和政治哲学Marc-Antoine Dilak教授的采访录。他认为,“人工智能系统和种族与社会分工方法,或导致滥用,对此应该进行管理。”

Посетители на международной конференции по искусственному интеллекту. Шанхай - 俄罗斯卫星通讯社, 1920, 04.09.2021
谁应对人工智能负责?美国和中国经验
例如,Dilak 引用了美国斯坦福大学Michal Kosinski 和 Yilun Wang 的研究成果。为了引起大家对人工智能伦理问题的关注,两位学者于2017年创建了一款程序,可通过照片确定人们的性取向。

Dilak认为:“软件程序错误率只有20%。但使用这项技术,不仅会歧视人,而且还会侵犯其不透露个人生活细节的权利。”

Dilak指出,此类案例表明:“有必要将人工智能领域研究纳入伦理范畴。”

许粲昊教授强调:“谁应该为人工智能系统的争议行为负责?首先是谁在选择筛选和输入数据,其次学习模型是谁创建和训练的,我认为这是两个基本问题。好比小孩的教育好坏取决于教导他的人。如果人工智能的文本输出具有争议性,那么它的训练数据和模型设计无疑是存在问题的。”

中国的经验

中国对此问题极为关注。近年来,政府在科技巨头百度、阿里巴巴、腾讯和华为的支持下,积极参与人工智能公民标准的创建。在国际标准化组织框架下,中国政府秉承的立场是,应为人工智能技术制定法律,确定伦理规范。

Искусственный интеллект поможет выявить будущих олимпийцев среди школьников - 俄罗斯卫星通讯社, 1920, 10.09.2021
俄罗斯媒体:人工智能有助于在中小学生中发现未来的奥运选手
2017年7月20日,中国国务院公布了《新一代人工智能发展规划》,提出到2020年、2025年和2030年人工智能阶段性发展目标。文件制定者们强调,“人工智能发展的不确定性,将带来新的问题。”

2018年,发布了《人工智能标准化白皮书》,并于 2021 年对其进行了更新

同年5月,百度发表《AI伦理四原则》。公司在文件中指出,随着技术的快速发展和人工智能产品的不断使用,人们感觉到的变化是,人工智能正进入其生活。因此需要新的规则、新的价值观和新的伦理。9月份,腾讯和中国信息通信研究院也发布类似报告。2019年发布了《人工智能安全标准化白皮书》,2020年,《儿童人工智能交互北京共识》出版

许粲昊教授指出:“如果没有政府监管,那么该由谁来管理算法、谁去管理训练的数据集、谁去管理人工智能?难道是科技公司的工程师或技术工人员,还是公司的高管?若是他们在训练数据集和算法中插入的内容监管部门不得而知,将有可能导致一些非常危险的后果,整个人工智能将处在失控或者由少数人控制的状态。这显然不是人类社会发展所希望出现的情况,所以干预是必然的,而且关键是谁在干预的问题。”

据《白皮书》分析,到2023年,中国人工智能市场将达到979亿美元。国内的AI产业发展迅猛:如果说,该领域的世界市场平均年增长26.2%,那么中国的指数高达44.5%。此外,中国在人工智能领域的专利数量居世界第一。中国凭借如此大规模的参与度,将在未来塑造人工智能伦理格局方面发挥巨大作用。

新闻时间线
0