当地时间本周二,包括OpenAI首席执行官Sam Altman在内的高级人工智能高管与专家和教授一起签署了一份声明,要在全球范围内提升“人工智能灭绝的风险”,同时敦促政策制定者,要像对待流行病、核战争一样对待。
银柿财经发现,发起声明倡议的人工智能安全中心(CAIS)是一家位于旧金山的研究和领域建设的非营利组织。它的使命是减少人工智能带来的大规模社会风险。
声明前言是这样写的:全球人工智能专家、记者、政策制定者和公众越来越多地讨论着,人工智能带来的一系列重要而紧迫的风险。即便如此,也很难表达我们对一些先进人工智能最严重风险的担忧。我们简明扼要的发言旨在克服这一障碍并想在广泛范围内与大家展开讨论。
(相关资料图)
银柿财经发现,这份声明的签署者已达到350多名,除了奥特曼,他们还包括人工智能公司 DeepMind和 Anthropic的首席执行官,以及微软和谷歌的高管。名单中还包括了清华大学智能清华大学智能产业研究院院长张亚琴、中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅等多位来自中国的专家教授。
近日,人工智能的监管,人工智能带来的风险等,都成了媒体和相关领域的热议话题。是不是要像应对核战一样对待人工智能,针对这一说法,浙江大学人工智能研究所所长、求是特聘教授吴飞向银柿财经表示,在他看来这个话题还是有点夸张了。
吴飞转发给银柿财经一篇文章来代表他的观点。文章中,他表示,目前集中在人工智能讨论上有四个问题,是否应该让机器用宣传和谎言充斥我们的信息渠道、是否应该自动化所有工作、是否应该发展最终可能超过并取代我们的非人类思维、是否应该冒险失去对文明的控制。在这些问题中,机器通过机械匹配所合成的非事实内容已经出现,另外三个问题离我们还很久远。
在文中,吴飞表示,人工智能的出现将使人类社会诸多业务模式发生一次变革,同样为奇妙的“多样性”打开了一扇窗户。
3月29日,生命未来研究所呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。吴飞认为,按下暂停键应视为对人工智能长远健康发展的一次深思,而不是一次具体行为。
吴飞进一步阐述,机器是人类创造出来的,人类的作用就是在人和机器共处的社会中,不断用知识强化机器。我们需要用进化观点去看待这个过程,尽可能发展种种可能性,而不是陷入“人机相斗”和“人机相害”的臆想中。
银柿财经发现,人工智能的第三位教父、Meta 首席人工智能科学家杨立昆(Yann LeCun)以及所在的Meta公司却无人签署这份声明。去年10月,杨立昆(Yann LeCun)在接受 ZDNet 的一次采访中,提出了一个重要观点。他表示:“今天的人工智能方法永远不会带来真正的智能。所有人工智能都面临的某些基本问题,特别是如何衡量信息。关于AI的发展走向,学术界和业界都需要进行深刻反思。”
在与 ZDNet 的对话中,杨立昆指出:“我对目前深度学习领域最成功的许多研究途径,都持有极大的怀疑态度。”
X 关闭
Copyright © 2015-2022 华声制鞋网版权所有 备案号:京ICP备2021034106号-36 联系邮箱:55 16 53 8 @qq.com