14:34 2017年12月12日
直播 :
    人工智能能保护孩子免遭暴力了?

    人工智能能保护孩子免遭暴力了?

    © AFP 2017/ Johannes EISELE
    评论
    缩短网址
    0 42

    中国贵州民族大学正在研发可预防幼儿园和学校孩子遭受暴力侵犯并保证其安全的人工智能体系。

    目前,中国人工智能已广泛运用于寻找恐怖分子和罪犯领域。现在,准备将其用于学校,以便查出违法行径,并将其报告给父母和监管机构。

    最近一段时间里,北京发生红黄蓝幼儿园丑闻。据悉,有父母发现,孩子身上出现不明针眼痕迹,将此事报警。原来,一名幼儿园老师用针扎方式惩罚不听话的孩子。互联网上甚至出现传言,说孩子被喂食了不明药品,甚至,还遭到了性侵。警方调查过程中,并未确定其真实性。护法机构对摄像内容进行了研究,仅看到有老师针扎孩子情况。这种新型人工智能装置就是在此背景下开始研发的。

    很早以前,中国一些学校和幼儿园就装备了摄像头。但通常,没谁对其进行跟踪。录制材料存档,仅在必要时才有人翻看。这次红黄蓝案件给父母们敲响了警钟,违法行为被制止。按照惯例,老型摄像装置仅能纪录幼儿园发生了什么,但却不能及时发现违法行径。鉴于此,贵州民族大学的学者们决定使用人工智能来完善这一体系。学者们认为,神经网络将昼夜分析录像材料。如果发现违法情况,机器将及时通报给警局、教育机构负责人、父母,并向他们提供必要佐证材料。

    目前,中国在使用人工智能发现犯罪方面居世界领先地位。今年7月,国务院发布《新一代人工智能发展规划》。根据规划,截止到2020年,人工智能领域总的产值将达到228亿美元,到2025年,其资本额将达到600亿美元,居世界第一位。今年夏天,中央政法委书记孟建柱指出,需使用人工智能,预测和制止未发生的严重犯罪,其中包括恐怖主义攻击和社会秩序混乱。

    尽管这些规划有科幻色彩,但中国确实在做将其变成现实的工作。比如,中国云从科技正在测试一套人脸识别系统,该系统同时可对人的步伐、到哪里去过和购买了什么进行分析。如果某人经常光顾武器店,那么他将受到怀疑。据该公司代表介绍,购买厨房刀具算不了什么。但如果此人购买刀具同时还买了袋子和锤子,然后还多次出现在人群聚集区。那么系统会认为,此人具有潜在威胁。系统的独特性还在于,它可以自动工作。可从摄像头自动收集数据并对其进行整理。并将可疑人等通报给护法机构。

    贵州民族大学也想研发这种可对教师进行监控的系统。然而,研究人员遇到了一些困难。比如,与老师相比,孩子的个头很小,他们很容易从系统中消失。此外,孩子的动作与成年人是不一样的。他们喜欢蹦跳,彼此嬉闹,或者带着玩具枪互相追逐。从成人角度看,这些都是不正常的。因此,对成人进行跟踪的神经系统,无法正确厘清孩子们的行为。因此,这套系统还很难在幼儿园中使用。中国心理卫生协会会员、国家二级心理咨询师肖雪萍这样认为。

    她说:“我在听到这一人工智能系统介绍后,首先想到的是,如果我作为一名幼儿园老师,我在工作过程中将会有多焦虑、多紧张。因为我会怀疑,这个系统是不是真的有那么精确?那么稳定?不会在分析视频中老师的动作过程中产生误会吗?例如,有些时候,我可能在做某一个动作的时候,视频中看起来像是打耳光,但事实上我并没有打孩子,遇到这种情况恐怕很难解释。其次,这样的一个人工智能系统,在进行安装之前,其实已经有了一个假设和前提——就是设定老师在与幼儿相处的过程中存在虐待幼儿的可能性。那么这样的假设是对大部分优秀、善良幼师的不尊重。此外,我认为,如果真的要对幼儿教育安全方面采取防范措施的话,相关部门应该更多地从提升幼师的待遇、提升幼师职业认同感、加强管理和文化宣传等方面入手。即便真的要应用人工智能系统监控是否存在虐待儿童的行为,也应该在那些曾经发生过此类事件的幼儿园实施,而不应针对所有的幼儿园。”

    确实有这样的问题:究竟如何对待人工智能收集的材料?机器是否会发生错误?如果考虑到神经系统学习技术,那么这确实不是令人欣慰的问题。比如,“阿尔法狗”学习软件就是明证。该人工智能学下围棋最终战胜了最为强悍的对手。开始时,“阿尔法狗”学习人与人之间所下的3000万个棋步,然后这套软件自己和自己下棋,以完善自己的技能。通过这种方式,神经网络学会根据实际情况从可能的步骤中找出最佳方案。问题在于,这种自我学习的程序已经成形。人无法弄清,人工智能做出这样或那样决定的依据是什么。换句话说,机器不会解释,为何这样认为。从某种角度看,会失去对它们的控制。因此,在某些情况下,系统不能提供富有逻辑的结论。不愿透露姓名的中国计算机安全专家在接受卫星通讯社采访时这样认为。

    他说:“我认为这个人工智能系统的设想过于理想化。关键问题在于,我们如果要解决某些问题,应该拿出一个可实现性的方案,部署此类人工智能系统,将是一个非常庞大的系统工程。此类系统的实用性比它的先进性更加重要,而可靠性和安全性比一切都重要。就这套系统目前的方案而言,这更像是一种研究性的设想,而不是一个严谨的工程方案。如果进行实际应用,要在什么样情况下,给多少幼儿园安装这套系统?这套系统的核心节点放在哪里?处于核心节点上的视频安全性又要如何保障?包括资金问题,这些都没有解决,仅仅是卖一个人工智能的噱头,我对此不敢恭维”。

    为了这套系统能够顺利工作,贵州民族大学的专家们给其提供了大量的视频材料。简单说来,哪些是正确的行为,哪些是值得怀疑的行为。设计者自己也承认,需要长时间和大量数据,才能让系统自我学习、完善工作状态。但是,系统究竟是否能有效工作,暂时还是一个待解问题。再有,将孩子视频加载到神经网络中,父母该如何看待这个问题。在中国,伴随大数据技术的发展,已经出现资料被非法泄露给第三方的案例。比如,最近微信、支付宝和芝麻信用使用者的数据流失。9月份的时候,《中国日报》曾报道过,广东省有410人因出售个人和贷款机构信息资料而被捕,警方共收缴了1亿多份带有个人资料的文件。

    关键词
    人工智能, 中国
    社区公约讨论