https://sputniknews.cn/20231204/1055481566.html
俄科学家:人工智能正逐渐成为关乎生存的问题
俄科学家:人工智能正逐渐成为关乎生存的问题
俄罗斯卫星通讯社
了解人工智能并能应用它的必要性正在成为现代人类进化的必要条件。尽管如此,正是那些在自己专业领域也拥有知识的人将在社会上最有可能取得成功。创新城大学校长亚历山大·加斯尼科夫在接受俄罗斯卫星通讯社采访时表达了自己的这一看法。 2023年12月4日, 俄罗斯卫星通讯社
2023-12-04T21:07+0800
2023-12-04T21:07+0800
2023-12-04T21:59+0800
评论
人工智能
生存
https://cdn.sputniknews.cn/img/07e5/01/1a/1032964498_0:92:1920:1172_1920x0_80_0_0_cb3f10a1d9a1a1fd8eb3eee11f54d2f4.jpg
亚历山大·加斯尼科夫是七本书的作者,其中包括俄罗斯交通流数学建模专著,曾在莫斯科物理技术学院、高等经济大学和俄罗斯科学院工作,包括领导俄罗斯科学院系统编程研究所人工智能中心的一个小组。他最近参加了在莫斯科举行的人工智能之旅国际会议的全体会议。俄罗斯总统普京也出席了此次会议。亚历山大·加斯尼科夫在接受我社采访时指出,近几十年来与人工智能和脑科学的发展相关的进步表明,人类对自身作为一个物种的理解正在发生巨大的演变。他假设:在不久的将来人会随着所创建的有助于生活的神经网络一起进化,并承担部分功能。这位俄罗斯科学家强调,他看到的危险并不在于神经网络将开始控制和操纵人类,而在于随着时间的推移,自然智能将会越来越依赖“助手”。根据创新城大学校长的说法,他担心的并不是机器会接管世界。他看不到在不久的将来会有这样的风险,因为一切都受到控制,而核武器的威胁更加明显。亚历山大·加斯尼科夫专家指出,他理解许多人对大语言模型(例如ChatGPT)的威胁的担忧,这种威胁由人类控制,以及可能导致的后果。他提到了当时已有的具体预测,即强人工智能将在10 年内出现。这位俄罗斯科学家支持普京总统的立场,即禁止人工智能毫无意义,应像对待核武器的使用一样,给人工智能也要制定相应的使用规则。
https://sputniknews.cn/20231125/1055246173.html
https://sputniknews.cn/20231110/1054852234.html
俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
新闻
cn_CN
俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.sputniknews.cn/img/07e5/01/1a/1032964498_107:0:1815:1281_1920x0_80_0_0_280d8954dae2eb262fa432745bdbe02f.jpg俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
评论, 人工智能, 生存
俄科学家:人工智能正逐渐成为关乎生存的问题
2023年12月4日, 21:07 (更新: 2023年12月4日, 21:59) 独家
了解人工智能并能应用它的必要性正在成为现代人类进化的必要条件。尽管如此,正是那些在自己专业领域也拥有知识的人将在社会上最有可能取得成功。创新城大学校长亚历山大·加斯尼科夫在接受俄罗斯卫星通讯社采访时表达了自己的这一看法。
亚历山大·加斯尼科夫是七本书的作者,其中包括俄罗斯交通流数学建模专著,曾在莫斯科物理技术学院、高等经济大学和俄罗斯科学院工作,包括领导俄罗斯科学院系统编程研究所人工智能中心的一个小组。他最近参加了在莫斯科举行的人工智能之旅国际会议的全体会议。俄罗斯总统普京也出席了此次会议。
亚历山大·加斯尼科夫在接受我社采访时指出,近几十年来与人工智能和脑科学的发展相关的进步表明,人类对自身作为一个物种的理解正在发生巨大的演变。他假设:在不久的将来人会随着所创建的有助于生活的神经网络一起进化,并承担部分功能。
亚历山大·加斯尼科夫校长说:“这就是进化,无法抗拒它。潘多拉魔盒已经打开。可以理解,今后将有一场创造强人工智能的运动。这会使我们在自己的发展中变得不稳定。这可以通过与知识崇拜有关的人工选择来部分抵消。也就是说,社会成员不仅知道如何使用人工智能,而且就像在自己的学科领域还拥有一些知识、技能,且是主动的,即代表独立价值,将在社会上更加成功。”
这位俄罗斯科学家强调,他看到的危险并不在于神经网络将开始控制和操纵人类,而在于随着时间的推移,自然智能将会越来越依赖“助手”。
亚历山大·加斯尼科夫专家接着说:“有一种风险:我们可能会变得更加倾向使用小工具,并能提出正确的问题,而我们头脑中的知识会越来越少。我们可以把这一点与我们的免疫力作比较,与我们几百年前祖先的免疫力相比,不借助各种现代助手,我们的免疫力已变得脆弱得多。”
根据创新城大学校长的说法,他担心的并不是机器会接管世界。他看不到在不久的将来会有这样的风险,因为一切都受到控制,而核武器的威胁更加明显。
亚历山大·加斯尼科夫专家警告:“更令人担忧的是,如果有质量足够好的学习数据,我们所谈论的一切都会工作并且工作得很好。而我们对数据的信任程度如何,则是个重要问题。例如,如果我们以新闻流为例,那么在世界不同地区,新闻的颜色可能完全不同。对数据的信任问题将在不久的将来发挥重要作用,因为很快大量数据将由生成模型本身生成。”
亚历山大·加斯尼科夫专家指出,他理解许多人对大语言模型(例如ChatGPT)的威胁的担忧,这种威胁由人类控制,以及可能导致的后果。他提到了当时已有的具体预测,即强人工智能将在10 年内出现。这位俄罗斯科学家支持普京总统的立场,即禁止人工智能毫无意义,应像对待核武器的使用一样,给人工智能也要制定相应的使用规则。