亚历山大·加斯尼科夫是七本书的作者,其中包括俄罗斯交通流数学建模专著,曾在莫斯科物理技术学院、高等经济大学和俄罗斯科学院工作,包括领导俄罗斯科学院系统编程研究所人工智能中心的一个小组。他最近参加了在莫斯科举行的人工智能之旅国际会议的全体会议。俄罗斯总统普京也出席了此次会议。
亚历山大·加斯尼科夫在接受我社采访时指出,近几十年来与人工智能和脑科学的发展相关的进步表明,人类对自身作为一个物种的理解正在发生巨大的演变。他假设:在不久的将来人会随着所创建的有助于生活的神经网络一起进化,并承担部分功能。
亚历山大·加斯尼科夫校长说:“这就是进化,无法抗拒它。潘多拉魔盒已经打开。可以理解,今后将有一场创造强人工智能的运动。这会使我们在自己的发展中变得不稳定。这可以通过与知识崇拜有关的人工选择来部分抵消。也就是说,社会成员不仅知道如何使用人工智能,而且就像在自己的学科领域还拥有一些知识、技能,且是主动的,即代表独立价值,将在社会上更加成功。”
创新城大学校长亚历山大·加斯尼科夫
© 俄创新城大学新闻处
这位俄罗斯科学家强调,他看到的危险并不在于神经网络将开始控制和操纵人类,而在于随着时间的推移,自然智能将会越来越依赖“助手”。
亚历山大·加斯尼科夫专家接着说:“有一种风险:我们可能会变得更加倾向使用小工具,并能提出正确的问题,而我们头脑中的知识会越来越少。我们可以把这一点与我们的免疫力作比较,与我们几百年前祖先的免疫力相比,不借助各种现代助手,我们的免疫力已变得脆弱得多。”
根据创新城大学校长的说法,他担心的并不是机器会接管世界。他看不到在不久的将来会有这样的风险,因为一切都受到控制,而核武器的威胁更加明显。
亚历山大·加斯尼科夫专家警告:“更令人担忧的是,如果有质量足够好的学习数据,我们所谈论的一切都会工作并且工作得很好。而我们对数据的信任程度如何,则是个重要问题。例如,如果我们以新闻流为例,那么在世界不同地区,新闻的颜色可能完全不同。对数据的信任问题将在不久的将来发挥重要作用,因为很快大量数据将由生成模型本身生成。”
亚历山大·加斯尼科夫专家指出,他理解许多人对大语言模型(例如ChatGPT)的威胁的担忧,这种威胁由人类控制,以及可能导致的后果。他提到了当时已有的具体预测,即强人工智能将在10 年内出现。这位俄罗斯科学家支持普京总统的立场,即禁止人工智能毫无意义,应像对待核武器的使用一样,给人工智能也要制定相应的使用规则。