GPT-5 不能停,吴恩达 LeCun 直播回怼马斯克:汽车都还没发明,要什么安全带
大模型研究不能停!
吳恩達和 LeCun 為了這事兒,甚至親自搞了場直播。畢竟再不出手,事態眼看著越來越嚴重了:
馬斯克等人叫停 GPT-5 研發的事態再次升級,已從千人聯名發展到超過 13500 人簽署。
兩人還直言,暫停 AI 研究就是反理性:
AI 研究暫停 6 個月,才是真正巨大的傷害。
應該受監管的是 AI 產品,而不是背后的研究。
此前暫停比 GPT-4 強大的 AI 試驗的呼吁,已得到深度學習三巨頭中的 Yoshua Bengio 簽名支持,Hinton 未簽名但表示“要比 6 個月更長才行”。
此次吳恩達與 LeCun 兩人,除了直播闡述各自的觀點外,還回應了網友關心的更多問題。
觀看了直播和視頻回放的網友們則表示,視頻出境比推特發言提供了更多的上下文背景和微妙的語氣差異。
AGI 逃出實驗室,需要擔心嗎?
LeCun 認為,現在人們對 AI 的擔憂和恐懼應分為兩類:
一、與未來有關的,AI 不受控制、逃離實驗室、甚至統治人類的猜測。
二、與現實有關的,AI 在公平、偏見上的缺陷和對社會經濟的沖擊。
對第一類,他認為未來 AI 不太可能還是 ChatGPT 式的語言模型,無法對不存在的事物做安全規范。
汽車還沒發明出來,該怎么去設計安全帶呢?
對第二類擔憂,吳恩達和 LeCun 都表示監管有必要,但不能以犧牲研究和創新為代價。
吳恩達表示,AI 在教育、醫療等方面創造巨大價值,幫助了很多人。
暫停 AI 研究才會對這些人造成傷害,并減緩價值的創造。
LeCun 認為,“AI 逃跑”或者“AI 統治人類”這種末日論還讓人們對 AI 產生了不切實際的期待。
ChatGPT 給人帶來這種想法是因為它語言流利,但語言并不是智能的全部。
語言模型對現實世界的理解非常表面,盡管 GPT-4 是多模態的,但仍然沒有任何對現實的“經驗”,這就是為什么它還是會一本正經地胡說八道。
而且這個問題,4 年前 LeCun 已經在《科學美國人》上與冷泉港實驗室神經科學家 Anthony Zador 一起撰文回應過了,標題就叫《不必害怕終結者》。
在直播節目中 LeCun 再次重申了文章的主要觀點。
統治的動機只出現在社會化物種中,如人類和其他動物,需要在競爭中生存、進化。
而我們完全可以把 AI 設計成非社會化物種,設計成非支配性的(non-dominant)、順從的(submissive)、或者遵守特定規則以符合人類整體的利益。
吳恩達則用生物科學史上的里程碑事件“阿希洛馬會議”來比較。
1975 年,DNA 重組技術剛剛興起,其安全性和有效性受到質疑。世界各國生物學家、律師和政府代表等召開會議,經過公開辯論,最終對暫緩或禁止一些試驗、提出科研行動指南等達成共識。
吳恩達認為,當年的情況與今天 AI 領域發生的事并不一樣,DNA 病毒逃出實驗室是一個現實的擔憂,而他沒有看到今天的 AI 有任何逃出實驗室的風險,至少要幾十年甚至幾百年才有可能。
在回答觀眾提問“什么情況下你會同意暫停 AI 研究?”時,LeCun 也表示應該區分“潛在危害、真實危害”與“想像中的危害”,當真實危害出現時應該采取手段規范產品。
第一輛汽車并不安全,當時沒有安全帶、沒有好的剎車、也沒有紅綠燈,過去的科技都是逐漸變安全的,AI 也沒什么特殊性。
而對于“如何看待 Yoshua Bengio 簽署了聯名?”這個問題,LeCun 表示他和 Bengio 一直是朋友,他認為 Bengio 擔心的點在于“公司為了盈利掌握科技本質上就是壞的”,但他自己不這么看待,兩人觀點一致之處在于 AI 研究應該公開進行。
Bengio 最近也在個人網站詳細解釋了他為什么會簽署。
隨著 ChatGPT 到來,商業競爭激烈了十多倍,風險在于各公司會急于開發巨大的 AI 系統,把過去十幾年間開放的透明的習慣拋在腦后。
直播結束后,吳恩達與 LeCun 兩人還在與網友做進一步交流。
對于“你為什么不相信 AI 會逃出實驗室”,LeCun 表示讓 AI 在一個特定硬件平臺上保持運行都很難了。
對于“AI 達到奇點發生突變、不受控制”的回應則是,在現實世界中每個進程都會有摩擦力,指數增長會迅速變成 Sigmoid 函數。
還有網友開玩笑說,語言模型經常被形容為“隨機吐出詞匯的鸚鵡”,但真實的鸚鵡危險多了,有喙、爪子和傷害人的意圖。
LeCun 補充道,澳大利亞鳳頭鸚鵡更兇狠,我呼吁對鳳頭鸚鵡實施 6 個月的管制。
One More Thing
對于影響力越來越大的 AI 暫停 6 個月提案,也有越來越多的人表達自己的觀點。
比爾蓋茨對路透社表示“我不認為讓一個特定的組織暫停就會解決這些問題。在一個全球性的行業中,暫停很難執行”。
據福布斯報道,谷歌前 CEO 埃里克施密特認為“監管部門大多數人對科技的理解還不足以正確規范其發展。另外如果在美國暫停 6 個月,只會讓別的國家受益。”
與此同時,AI 研究界另一股聲音的影響力也逐漸加大。
由非贏利組織 LAION-AI(Stable Diffusion 訓練數據提供者)發起的請愿書也有超過 1400 人簽署。
這個項目呼吁建設公眾資助的國際化超級 AI 基礎設施,配備 10 萬最先進的 AI 加速芯片,確保創新和安全。
就相當于粒子物理學界的 CERN(歐洲核子研究組織)。
支持者包括 LSTM 之父 Jürgen Schmidhuber,HuggingFace 聯合創始人 Thomas Wolf 等知名研究者。
完整視頻回放:
https://www.youtube.com/watch?v=BY9KV8uCtj4&t=33s
AI 轉寫文本:
https://gist.github.com/simonw/b3d48d6fcec247596fa2cca841d3fb7a
參考鏈接:
-
[1]https://twitter.com/AndrewYNg/status/1644418518056861696
-
[2]https://blogs.scientificamerican.com/observations/dont-fear-the-terminator/
本文來自微信公眾號:量子位 (ID:QbitAI),作者:夢晨
總結
以上是生活随笔為你收集整理的GPT-5 不能停,吴恩达 LeCun 直播回怼马斯克:汽车都还没发明,要什么安全带的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Fiori launchpad里tile
- 下一篇: linkedin上看到的CRM团队信息