图灵奖得主吵起来了,LeCun:Bengio、Hinton等的AI灭绝论是荒谬的
文章转载来源:机器之心
来源:机器之心
LeCun 表示,绝大多数学术同行都非常支持开放式 AI 研发,但还是有反对者。
关于 AI 风险的问题,各路大佬们也是意见不统一。有人带头签署联名信,呼吁 AI 实验室应立即暂停研究,深度学习三巨头 Geoffrey Hinton、Yoshua Bengio 等都支持这一观点。
就在近几日,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,呼吁各国政府应该采取行动,管理 AI 带来的风险。
文中提到了一些紧急治理措施,例如,让国家机构也参与进来,从而防止人们对 AI 的滥用。为了实现有效的监管,政府需要全面了解人工智能的发展。监管机构应采取一系列措施,如模型注册、对举报人进行有效保护以及对模型开发和超级计算机使用的监控等。监管机构还需要在部署之前访问先进的人工智能系统,以评估其危险功能。
不仅如此,时间再往前一点,今年五月,美国非营利组织人工智能安全中心发表了一份声明,警告人工智能应被视为与流行病一样存在灭绝人类的风险,支持该声明的人同样包括 Hinton、Bengio 等人。
今年 5 月,为了畅所欲言地谈论人工智能带来的风险,Hinton 还辞去了在谷歌的工作。在一次纽约时报的采访中,他表示:‘大多数人认为这(AI 危害)还很遥远。我过去也认为这还很遥远,可能是 30 到 50 年甚至更长的时间。但显然,我现在不这么想了。’
可以预见,在 Hinton 等 AI 大佬眼里,管理 AI 带来的风险是一项非常紧急的事情。
然而,作为深度学习三巨头之一的 Yann LeCun,对 AI 发展持有非常乐观的态度。对于签署关于 AI 风险的联名信,他基本上都是持反对态度,认为人工智能的发展远未构成对人类的威胁。
刚刚, LeCun 在与 X 用户的交流中,对网友的一些关于 AI 风险的问题给出了回答。
- 星际资讯
免责声明:投资有风险,入市须谨慎。本资讯不作为投资建议。