https://sputniknews.cn/20231122/1055182917.html
中国专家: 人工智能不应回答用户的危险问题
中国专家: 人工智能不应回答用户的危险问题
俄罗斯卫星通讯社
清华大学人工智能研究院副院长张淮称,人工智能(AI)不应向用户提供如何制造武器等危险问题的答案,但它应与人类对世界有共同的理解。 2023年11月22日, 俄罗斯卫星通讯社
2023-11-22T23:09+0800
2023-11-22T23:09+0800
2023-11-23T05:18+0800
人工智能
国际
生活
https://cdn.sputniknews.cn/img/102495/74/1024957454_0:3:1024:579_1920x0_80_0_0_ca73d054345a1cf3035cafdcb5b74438.jpg
这位专家介绍,尽管目前存在各种障碍,但人工智能在未来将能够取代人类完成大量简单的任务。“2023人工智能之旅”(AI Journey 2023) 人工智能与机器学习国际会议于 11 月 22 日至 24 日在俄罗斯举行,来自各国的数十位人工智能领域的专家和开发人员将出席会议。
https://sputniknews.cn/20231122/1055174452.html
俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
新闻
cn_CN
俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn.sputniknews.cn/img/102495/74/1024957454_125:0:900:581_1920x0_80_0_0_9c37565cfefc4234428917369a83a269.jpg俄罗斯卫星通讯社
feedback.cn@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
人工智能, 国际, 生活
中国专家: 人工智能不应回答用户的危险问题
2023年11月22日, 23:09 (更新: 2023年11月23日, 05:18) 清华大学人工智能研究院副院长张淮称,人工智能(AI)不应向用户提供如何制造武器等危险问题的答案,但它应与人类对世界有共同的理解。
他用英文发表讲话称:“你可以问人工智能如何制造毒品,如何制造核武器。人工智能也可以给你相应的答案,但这些危险问题不应给予答案。(人工智能)必须像人类一样,对世界有共同的认知,它必须符合人类的想法。”
这位专家介绍,尽管目前存在各种障碍,但人工智能在未来将能够取代人类完成大量简单的任务。
张淮补充称:“我认为机器可以代替人类完成大量脑力和体力劳动,但从情感的角度来看,我不确定有这样的需要。我认为应各得其所——让机器做它擅长的事,让人类做自己擅长的事,为什么要让机器有情绪和人类的情感?没有这个必要。”
“2023人工智能之旅”(AI Journey 2023) 人工智能与机器学习国际会议于 11 月 22 日至 24 日在俄罗斯举行,来自各国的数十位人工智能领域的专家和开发人员将出席会议。