OpenAI CEO 阿尔特曼最新访谈:越多人参与AI,才能更好的控制AI
原文來源:GenAI新世界
圖片來源:由無界AI生成
據外媒消息,在人工智能飛速發展的世界里,關于未來的討論往往集中在所謂的 "人工通用智能 "(artificial general intelligence)上。在這個階段,人工智能將有能力完成人類能夠完成的任何工作,而且只會做得更好。
近期與 OpenAI 的首席執行官山姆·阿爾特曼(Sam Altman)和首席技術官米拉·穆拉蒂(Mira Murati)的對話談論了關于“AGI 的潛在收益和風險”的話題。
以下是他們談話的節選:
AGI 將是人類迄今為止創造出的最好工具
問:為什么AGI是目標?
山姆·阿爾特曼:在未來十年或幾十年里,對改善人類生存條件最重要的兩樣東西,一是豐富和廉價的智能:越強大、越通用、越智能越好。我認為這就是 AG。然后二是豐富而廉價的能源。如果我們能在世界上完成這兩件事,那么幾乎很難想象我們還能做多少其他事情。我們堅信,只要給人們提供更好的工具,他們就會做出讓你驚訝的事情。我認為,AGI 將是人類迄今為止創造出的最好工具。
有了它,我們就能解決各種問題。我們將能以新的、創造性的方式表達自己。我們將為彼此、為自己、為世界、為這個正在展開的人類故事創造出不可思議的東西。這是新的,任何新事物都伴隨著變化,而變化并不總是一帆風順的。
問:它什么時候會出現,我們怎么知道它出現了?
米拉·穆拉蒂:可能在未來十年,但這有點棘手。我們經常談論智能,談論它有多智能,談論它是否有意識、有知覺等等,但這些說法并不完全正確。因為它們定義了我們自己的智能,而我們正在構建的東西略有不同。
OpenAI首席技術官米拉·穆拉蒂(Mira Murati)
問:有些人對你們用來訓練某些模型的一些數據并不滿意。比如:好萊塢,出版商。當您在做之后的模型時,您圍繞數據做了哪些事情?
山姆·阿爾特曼:首先,我們顯然只能使用其他人允許的數據。挑戰之一是,不同類型的數據擁有截然不同的所有者。因此,我們正在嘗試很多東西。我們正在建立多樣的合作關系,我們認為,就像任何一個新領域一樣,我們會找到一些東西,成為新的標準。
此外,隨著這些模型越來越智能,能力越來越強,我們需要的訓練數據也會越來越少。我認為,由于我們正在取得的技術進步,有關數據的對話以及所有這一切的形態都將發生轉變。
問:出版商們都想花錢買數據。這場競賽的未來是誰能為最好的數據支付最多的錢嗎?
山姆·阿爾特曼:不,這正是我想說的。人們真正喜歡 GPT 模型的地方,從根本上說,并不在于它知道特定的知識。有更好的方法可以找到這些知識。而是它有這種幼年推理能力,而且會越來越好。這才是它的真正意義所在。
阿爾特曼:我不希望AI跟人類保持親密關系
問:未來我們是否會與這類機器人建立深厚的關系?
米拉·穆拉蒂:這將是一種重要的關系。因為我們正在構建的系統將無處不在:在你的家中、在你的教育環境中、在你的工作環境中,甚至在你娛樂的時候。
這就是為什么把它做好實際上非常重要。我們必須小心謹慎地設計這種互動,使其最終能夠提升體驗、帶來樂趣、提高工作效率并增強創造力。
我們還希望確保,在產品方面,我們對這些系統有一種掌控感,即我們可以引導它們做我們希望它們做的事情,而且輸出是可靠的。隨著它掌握更多關于你的喜好、你喜歡的東西、你做的事情的信息,以及模型能力的提高,它將變得更加個性化。
而且不只是一個系統。您可以擁有許多針對特定領域和任務的個性化系統。
問:責任重大。你將控制人們的朋友,也許還會成為人們的戀人。你如何看待這種控制?
山姆·阿爾特曼:我們不會是這里唯一的參與者。會有很多人參與進來。因此,我們可以在技術發展的軌跡上 "推波助瀾"。但是:
a)我們真的認為,決定權屬于人類,屬于整個社會;
b) 我們將是在這里構建復雜系統的眾多參與者之一。會有提供不同服務的競爭產品,會有不同類型的社會擁護者和反對者,還會有監管方面的問題。
我個人對未來的這一愿景深表憂慮,因為在未來,每個人都會與人工智能朋友走得很近,甚至比人類朋友走得更近。我個人并不希望如此。我認為其他人會想要那樣,有些人會建造那樣的東西。如果那是世界想要的,而且我們認為有意義,我們就會去做。
在實驗室中不會誕生安全的AI
問:我們現在已經有了簡單的聊天機器人。我們消除現在到處彌漫的對人工智能的恐懼?
山姆·阿爾特曼:不需要太多的想象力,就能想到值得高度警惕的情況。再說一遍,我們之所以這樣做,是因為我們對巨大的發展前景和令人難以置信的積極影響感到非常興奮。如果不為人類追求這些,那將是道德上的失敗。但我們必須正視--這也發生在許多其他技術上--隨之而來的弊端。
這意味著你要考慮風險。你會努力衡量自己的能力,并嘗試以一種能夠降低風險的方式來構建自己的技術。然后,當你說 "嘿,這是一種新的安全技術 "時,你就會把它提供給其他人。
問:其中有哪些?
米拉·穆拉蒂:這不是一個單一的解決方案。從數據到模型,再到產品中的工具,當然還有政策。然后再考慮整個監管和社會基礎設施,以跟上我們正在構建的這些技術。
因此,當你考慮一路上有哪些具體的安全措施時,首先就是先推出技術,慢慢地與現實接觸;了解它如何影響某些實際的用例和行業,并實際處理其中的影響。不管是監管還是版權,不管是什么影響,實際上都要吸收這些影響,處理好這些影響,然后繼續發展越來越多的能力。我不認為在實驗室、在真空中構建技術-——不與現實世界接觸、不與現實中的摩擦接觸——是真正安全部署技術的好方法。
山姆·阿爾特曼:米拉提出的觀點非常重要。要在實驗室里讓一項技術變得 "安全 "是非常困難的。社會使用事物的方式不同,適應的方式也不同。我認為,我們部署的人工智能越多,世界上使用的人工智能越多,人工智能就越安全,我們就越能共同決定:"嘿,這里有一件事是不可接受的風險容忍度,而人們擔心的另一件事,則完全沒問題。"
為AI內容添加“水印”不是非黑即白的事情
問:現在,至少從 OpenAI 來說,還沒有一種工具可以讓我輸入一張圖片或一些文字,然后問 "這是人工智能生成的嗎?",對嗎?
米拉·穆拉蒂:就圖像而言,我們的技術幾乎 99% 可靠。但我們仍在測試,還為時尚早。
問:這是你計劃發布的內容嗎?
米拉·穆拉蒂:是的。
問:圖片和文字都可以嗎?
米拉·穆拉蒂:對于文字,我們要弄清楚什么是有意義的。對于圖片來說,這個問題更直接一些。我們經常會做實驗,推出一些東西,然后得到反饋。有時我們會把它收回來,做得更好,然后再次推出。
山姆·阿爾特曼:對于內容 "水印 "這個概念,并不是每個人都有相同的看法。有很多人真的不希望自己生成的內容帶有水印。另外,它也不是對所有內容都有超強的適應性。比如,也許你可以為圖片加上水印,也許可以為較長的文字加上水印,也許不能為較短的文字加上水印。
這就是我們希望參與對話的原因。在這一點上,我們愿意遵循社會的集體意愿。我認為這不是一個非黑即白的問題。
AI可能會加劇不平等
問:我們即將改變工作的性質。社會上有很大一部分人甚至沒有參與這場討論。我們怎樣才能制定出這樣一些框架,并自愿地去做一些事情,從而真正實現一個更美好的世界,而不會把其他人拋在后面?
米拉·穆拉蒂:我完全同意你的觀點,這是一項終極技術,它可能真的會加劇不平等,讓我們人類和文明的情況變得更糟。也有可能是驚人的,它可以帶來很多創造力和生產力,提高我們的生活水平。也許很多人不想每周工作 8 小時或 100 小時。也許他們想每天工作四小時,然后做很多其他事情。
這肯定會對勞動力造成很大的干擾。
山姆·阿爾特曼:這是一個超級重要的問題。每一次技術革命都會影響就業市場。我一點也不怕。事實上,我認為這是好事,我認為這是進步的方式。我們會找到新的、更好的工作。
我認為,作為一個社會,我們確實需要面對的是這種情況發生的速度。我們必須為這一轉變做些什么。僅僅給人們全民基本收入是不夠的。人們需要有自主權,有能力影響這一切,我們需要共同成為未來的設計師。
正如你所說,并不是每個人都會參與這些討論,但每年都會有更多人參與。把這個工具交到人們手中,讓數十億人使用 ChatGPT,不僅讓人們有機會思考即將發生的事情并參與對話,還讓人們利用這個工具推動未來的發展。這對我們來說非常重要。
總結
以上是生活随笔為你收集整理的OpenAI CEO 阿尔特曼最新访谈:越多人参与AI,才能更好的控制AI的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Autonomous Worlds 圣经
- 下一篇: 自己的个性签名怎么写