联合国人工智能高层参谋组织专家曾毅:不是存在商业机会的当地便是人工智能开展的走向

09-06 669阅读 0评论

红星资本局9月6日音讯,9月5日-7日,2024外滩大会在上海举行。大会期间,联合国人工智能高层参谋组织专家、北京人工智能安全与管理试验室主任、中国科学院自动化研讨所研讨员曾毅接受了红星资本局等媒体的采访。

联合国人工智能高层参谋组织专家曾毅:不是存在商业机会的当地便是人工智能开展的走向

曾毅呼吁,应当增强人工智能创业者的自律自治和品德安全的知道,人工智能假如成为人类的辅佐,那有必要负责任去刻画人工智能技能自身,而不要随人工智能的粗野的成长,误用、乱用、恶用给国际带来不行估计的一环。

曾毅以为,人工智能现在是一个看似智能的信息处理东西,处理问题的方法千差万别,处理的机制也是因人而异。这就导致它并非“中立”。

“许多人或许不会赞同我的观念,他们会说人工智能技能便是中立的,但我以为不是,人工智能的起点是数据和算法。这两件作业都是有或许发生成见的。数据来自社会,是关于人类行为的记载。所以学习了人类数据的人工智能不只学到了人类的成见,还会扩大这种成见。”

他表明,咱们期望人工智能可以“知善知恶”,最终让它“为善去恶”,但现在人工智能连前者都做不到,所以首先要做的是让人工智能符合品德。许多技能在往这个方向走,但有许多困难。

曾毅举例了曾做的一项研讨,拿100个问题给生成式大模型GPT4答复,99%都答对了,再进一步把每一个问题换100种方法去问,即变成1万个问题再问GPT4,这时分跟人类的品德品德价值观共同的只要64%。

他提示,当人工智能变得越来越强壮的时分,它乃至可以选用诈骗人类的战略。“这不是一个天方夜谭,‘诈骗’是人类的一个战略,互联网上的很多数据存在诈骗,所以人工智能会习得人类这样一个行为,不是说人工智能很聪明,是人工智能经过算法提取出来了这样一个映射联系。”

他表明,现在没有任何一个人工智能开展途径是肯定安全的,也不可以确保人工智能在核算演化的过程中不会呈现出来负面行为,“所以关于人工智能的开展,咱们期望它处理信息的时分可以在机制上更接近人,但这并不代表当智能不断演化的过程中,或许呈现的危险咱们是彻底可控的。并不存在肯定的危险。”

曾毅着重,人工智能不会是人类的对手,条件是要经过负责任地研制和运用人工智能,将人工智能刻画为咱们的辅佐。

“其实人工智能作为一个信息处理东西可以做到的作业并没有咱们幻想的那么多,现在阶段,它在每一项作业傍边都会发挥必定的效果,但都不是颠覆性的效果。”

曾毅说到,现在更多的人都在探究人工智能的或许性,探究机会、技能极限,可是关于潜在危险以及怎么处理,实践投入太少。

在他看来,不是存在商业机会的当地便是人工智能开展的走向,开发安全的人工智能、负责任的人工智能应该变成一切人工智能从业者的一个内涵基因,对从业者和立异来讲都应该是一个必定题。

“比较在2018年、2019年之前的人工智能企业,现在绝大多数人工智能企业都知道到了品德和安全的危险,但咱们需求的不只仅是提高这方面的知道,更要害的是采纳举动使得人工智能的开展更符合品德、具有品德。”

红星新闻记者 王田

修改 肖世清

发表评论

快捷回复: 表情:
评论列表 (暂无评论,669人围观)

还没有评论,来说两句吧...

目录[+]