说是以后,各家公司们在研发先进 AI 系统之前,得提前报备,通过后才能继续研发。
而且命令还事无巨细。。。
像必须给 AI 生成的内容打水印、得保护相关工人的权益,别让 AI 整得一堆人失业、要想法子护住美国在 AI 的领先地位等等,都在这一纸命令中。
总之看下来,比起发展 AI ,老美更加看重安全,希望把 AI 这只猛兽关在笼子里发展。
这可就一石激起千层浪了,有些人立马拍手叫好,觉得早该这么干了。毕竟,你也不想看到 AI 让大伙们失去工作。
有些人则觉得完了,这下 AI 发展的康庄大道,彻底被那些老顽固给堵死了,没救了,毁灭吧赶紧的。
一开始还只是网友们在吵吵闹闹,但没想到,不少 AI 圈儿的大佬也各就各位,做起了 “ 嘴强王者 ” ,发表着自己观点。
下面就给大家简单介绍一下,各位运动员。
参与这次 “ 肉搏战 ” 的主要人物有三位,两位图灵奖得主,也就是深度学习之父三巨头中的二位:LeCun 和 Hinton 。
还有一位则是深度学习和机器学习的先驱者,谷歌大脑创始人之一的吴恩达。
率先打响第一枪的,是斯坦福副教授吴恩达,他在 X 上写了一条推文。
他的立场很明确,就是——严格监管AI ,根本不利于创新。
吴恩达还洋洋洒洒地写了一篇长文,先是列了一些现在网上常听到的 “ AI 会让人类灭绝 ” 、 “ AI 会取代多少人的工作 ” 等等的言论。
然后直接竖起靶子开打,说这样的言论纯属炒作,是最可怕的,它会助长一些过于严格的规定出现,进一步 “ 压制开源和创新 ” 。
还细数了因强监管导致 AI 研究缓慢甚至停滞的案例,像什么加州暂停无人驾驶汽车项目,有人搞出破坏生成式大模型的工具等等。
吴恩达的推文呢,就像在瓦斯泄露的房间里点燃了一根火柴,本来整个 AI 圈子在这个话题上的分为都已经剑拔弩张了,这下直接炸了。。。
炸出的第一位就是觉得 AI 早该管管的 Hinton ,他也没藏着掖着,直接正面迎战,并且还拿自己开涮。
你吴恩达说 AI 有毁灭人类的风险很小,但我 Hinton 当初离开谷歌,可正是为了能把这些风险说出来。
Hinton 还直接在吴恩达的帖子下反问他,如果 AI 没得到很好的监管,那未来 30 年人类灭绝的概率是多少呢?我目前的答案是 0.1 ,你自己心里肯定也有数。
面对 Hinton 的接连反击,吴恩达倒是大方回应,先是撇清关系,说自己并没觉得 AI 安全得很。
只是觉得有些观点,说太过头了,可以说在散播恐慌了。甚至,这些观点已经影响到了 AI 的发展,美国这次的监管令就是活生生的例子。
最后吴恩达还有点阴阳地来了一句:我知道你出发点是好的,但我觉得你天天这么逼逼叨,绝对弊大于利。
至于 30 年后 AI 导致人类灭绝的问题,也立马召唤出了另一位大佬,也就是吴恩达的 “ 同盟 ” LeCun 。
他直接 “ 以彼之矛攻彼之盾 ” 回呛 Hinton :
导致人类灭绝的因素海了去了,比 AI 有威胁的多的是,并且 AI 倒是有可能让人类免于灭绝呢。
有趣的是,有网友也跟着 LeCun 一起向 Hinton 倒油,挖出之前他在 2016 年预测的放射科医生 5 年内就会被 AI 取代的言论。
这下直接把 Hinton 本人 “ 噎 ” 得语无伦次了起来,连忙给自己圆场,说自己在时间尺度上确实有些毛病。。。
同时, LeCun 还直接点名道姓 Hinton 和 Bengio ,说他们现在的立场,对那些不想开源代码、开放模型的科技巨头来说,简直就是助纣为虐。
过度监管等于是拉高了 AI 研发的门槛,后来的人想要进入这行就变得更难了。
而现在,辩论还在继续,很多从业者都来为自己的支持方呐喊助威。
像是 Meta 的 CTO Mike 就直接吐槽,你们聊 AI 只说坏处全不看好处是吧?
AI 如果不行了的确没法毁灭人类,但人类没了 AI 的能力,被什么地震、陨石、核武器灭绝的可能性也会增加啊。
根据前线战报,一向爱凑热闹的马斯克也来掺和了一脚。
但这次他却没有整活,反而是 cos 起了公平公正的蜻蜓队长。
他煞有介事地来了句:真正的战斗是在灭绝论者和人文主义者之间。一旦你注意到了这场战斗,就没法对此视而不见。
不过我们看下来,和国内不少媒体渲染的 “ 骂战 ”“ 撕起来 ” 不大一样。
大家的观点虽然针锋相对,聊得也很激烈,但基本都是有理有据的观点输出,也能让人清楚看到业界对 AI 的不同看法到底是啥情况。
就像亚马逊创始人 Beff Jezos 在评论区说的,这样的评论很关键,也是人们所需要的。
归根到底, AI 发展与监管之间的平衡问题,现在的业界肯定还没法有个确切的答案。
但可以肯定的是,就像网友说的 “ 真理越辩越明 ” 一样,在双方不断地拉扯之下,监管与 AI 发展的天平总会到达一个平衡状态。
而站在咱的角度上,只能祈祷那是个正确的答案。