日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

通向AGI的规划和展望 - Sam Altman ,the CEO of OpenAI

發布時間:2024/1/1 72 豆豆
生活随笔 收集整理的這篇文章主要介紹了 通向AGI的规划和展望 - Sam Altman ,the CEO of OpenAI 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

我們OpenAI的使命是確保AGI(通用人工智能) - 一種智能程度普遍高于人類的AI系統可以造福于全人類。如果我們成功創建了AGI,這項技術可以豐富我們的生活、推動全球經濟發展,幫助我們發現能改變人類目前所受限的新技術,提升全人類的幸福。

AGI有很大的潛力,可以賦予每個人令人難以置信的新能力;我們可以想象一個世界,在這個世界中,我們所有人都可以從AGI那里獲得任何你想做的任務的幫助,包括現在人工智能不太行的認知任務(現在的人工智能在感知任務上的表現更為出色),減少我們很多的工作量,為人類的聰明才智和創造力提供更廣闊的空間。

另一方面,不得不承認,伴隨AGI而來的,會存在嚴重的濫用AGI、AGI造成錯誤事故,以及造成一些社會層面恐慌混亂的風險。雖然AGI的優勢如此之大,相對的風險也如此大,但我們不認為社會會因對其能力的恐懼而阻止它的發展,相反,社會和AGI的開發者應該想辦法把AGI做得更好。雖然我們無法預測將來具體會發生什么,而且我們目前的項目進展也會遇到一些障礙,但我們只需要關注一些關鍵問題,我們將最關心的三個AGI原則總結如下:

1.我們希望借助AGI的能力,使人類在所生存的這個宇宙中實現最大化的繁榮發展。我們不指望未來是一個毫無保留全部托出的烏托邦,但我們想要最大限度地利用AGI的優勢,降低它的負面影響,并使AGI成為人類發展的助推器;

2.我們希望AGI的益處、利用和治理能夠被廣泛而公正地分享;

3.我們希望成功地應對AGI帶來巨大的風險。在面對這些風險時,我們承認理論上看似正確的事情在實踐中可能會出現一些奇怪的狀況。但我們相信,我們必須通過部署不那么強大的技術版本來不斷學習和適應,以便將“一次性成功”的風險降到最低。

為了更充分的應對AGI的到來而做好準備,我們認為現在有幾件事情非常值得去做。

首先,隨著我們創建的系統越來越強大,我們希望能夠部署它們,并在現實世界中實踐如何更好使用它們,積累相關使用經驗。我們認為這是謹慎地引導AGI的最佳方式,逐漸過渡到擁有AGI的世界比突然進入這樣的世界更好。強大的人工智能將使世界進步的速度大大加快,逐步適應這種變化也是更好的選擇。

這種逐步過渡的方式可以給人們、政策制定者和機構足夠的時間去了解正在發生的事情和變化,親身體驗這些AI系統的好處和弊端,以適應我們的經濟社會發展,并制定相應的監管措施。這也允許社會和人工智能共同進化,讓人們在風險相對較低的情況下,對于未來真正所想要的,所追求的,有更清晰的思考和規劃。

在應對AI系統部署所面臨的各種挑戰時,最佳方式無疑是通過快速學習和謹慎迭代,來構建一個緊密的反饋循環。社會將面臨這些AI系統部署應用的問題,例如,哪些是人工智能系統所允許的行為,如何解決AI系統偏見問題,如何處理人類的就業崗位流失問題等。最優決策將取決于技術的發展路徑,像任何新興領域一樣,大多數專家的預測到目前為止都是錯誤的。這使得在我們在提前對項目做出詳細規劃變得非常困難,因為不得不考慮未來外部變量的變化,會影響我們一開始的設想。

一般來說,我們認為在世界范圍內更廣泛的使用人工智能將會帶來巨大益處,并希望推廣和促進它的使用(通過將模型放入我們的API、開放源代碼等)。我們相信民主化的訪問也將產生更多更棒的研究,更分散的權力(沒有將算法權利集中在少數人中),更多的AI應用帶來的增益,以及讓更多的人貢獻自己對此的新想法。

隨著我們的系統越來越接近通用人工智能,我們對模型的創建和部署會變得越來越謹慎。我們的決策將需要比往常的新技術應用部署有更高的謹慎,也會比許多用戶希望的更謹慎。雖然也有AI領域的觀點認為AGI(包括后繼系統)的風險是虛假的,如果他們最終是正確的,我們會對此感到高興,但我們仍然會視風險存在去運作AI系統。

在某個時候,AI系統部署利弊之間的平衡(例如賦予惡意行為者權力,造成社會和經濟混亂,加速不安全的競賽等)可能會發生變化,在這種情況下,我們將圍繞持續性迭代優化改進部署目標,修正和改變我們之前的計劃。

其次,我們正在努力創建越來越和現實對齊,更為可控的模型。我們從第一版GPT-3模型轉向InstructGPT和ChatGPT模型就是一個踐行此目標的例子。

我們尤其認為社會必須就AI的使用范圍達成廣泛共識,在這個范圍內,個體用戶應具有很大的自主權。我們最終的希望是,全球機構將就這些界限達成共識;在短期內,我們計劃進行外部輸入的實驗,不斷完善我們的AI使用界限規則。同時世界機構也需要增強這方面的額外能力和經驗,以便為AGI 的復雜決策的部署應用做好相關的準備。

雖然我們產品內置的“默認設置”可能會一定范圍內限制用戶使用發揮的空間,但我們計劃讓用戶更輕松地更改他們正在使用的AI的行為。我們相信這樣是對的,賦予每個人做出自己的決定的權力,尊重和鞏固多樣性的力量。

隨著我們的模型變得更加強大,我們需要開發新的對齊技術(以及測試來了解我們當前的技術何時失效)。我們的短期計劃是使用AI幫助人類評估更復雜模型的輸出并監控復雜系統,并在長期內使用AI幫助我們想出更好的技術對齊方案。

更重要的是,我們經常認為需要同時取得AI在安全性和應用性能上的協同發展。單獨談論它們其中之一可能是一種錯誤的二元論,它們在許多方面是彼此相關的。我們目前做得最好的安全工作,就是與我們最強的AI模型一起完成的。所以,調高安全進步與模型能力進步的比率也很重要。

最后,我們希望進行全球對話,探討三個關鍵問題:如何治理這些系統,如何公平分配它們產生的利益以及如何公平的進行共享接入。

除了上述這三個問題,我們嘗試以一種使我們的激勵與正向結果相一致方式,來建立我們的公司治理結構。我們在公司章程中有一條條款是關于協助其他組織推進安全性,而不是在后期階段的AGI開發與他們進行激烈競爭。我們設有一個股東回報上限,這樣我們就不會被激勵去追求無盡的利潤,從而冒險部署可能造成災難性危險的AI系統(當然這也是為了與社會進行分享利益的一種方式)。我們有一個非營利組織來管理我們,讓我們始終以人類的利益為導向而運營(并且可以置于任何營利利益之上),為了人類的安全需要,我們甚至可以做像取消股東的股權義務這樣的行為,我們當然還會去贊助全球最廣泛的UBI(普遍基本收入)試驗。

同時我們也認為,向我們這樣的AI機構在發布新系統之前接受獨立審計很重要,我們將在今年晚些時候詳細討論這個問題。在某個時候,在新的AI系統進行訓練之前,很有必要進行獨立審查,對于目前最先進的AI系統,我們也同意限制其用于創建新模型的計算資源增長率。我們認為,關于AGI的相關安全使用,包括應該何時停止訓練運行、決定釋放安全模型或從生產中撤回模型的這些決策,需要在公共標準的制定中進行體現。最后,我們認為政府的介入參與也很重要,世界上的一些主要政府應該主動監督關注,超過一定規模的大模型的訓練運行可能產生的問題,對此需要培養并具備對此的風險洞察力。

關于更遠的規劃,我們認為,人類的未來應該由人類決定,并且分享我們的工作進展信息對于公眾來說是很重要的。所有嘗試構建AGI的工作都應該受到嚴格審查,并對重大決策進行公眾咨詢。

第一個實現的AGI將成為智能持續演進的起點。我們認為,從這個起點開始會持續的向前進步,并在相當長的一段時間內保持過去十年的發展速度。如果這個真的實現,世界可能會變得非常不同,風險也會變得很高。一個錯位的超級智能AGI可能會給世界帶來嚴重的傷害,一個擁有決定性超級智能領先地位的專制政權也同樣如此。

另外,能夠加速科學進展的人工智能是特別值得考慮的,因為這可能比其他一切都更具影響力。足以加速自身進展的AGI可能會引起重大變革的出現,這可能發生得非常迅速(即使過渡開始比較緩慢,我們也預計在最后階段會變得非常迅速)。我們認為,一個更緩慢的啟動方式更容易保障安全,所以AGI的工作在關鍵時刻通過人類協調介入,使之減速就變得非常重要(即使在不需要介入協調問題的情況下,減速也可能很重要,因為要給社會足夠的時間來適應這種變化)。

成功地過渡到具有超級智能的世界,可能是人類歷史上最重要、最令人充滿希望,也最令人恐懼的項目。這種成功還遠未得到保證,而其間的利害關系(無限的下行和無限的上行)卻可能將我們所有人團結起來。

我們可以想象人類能到達這樣一個世界,這個世界的繁榮可能對于我們中的任何人來說都無法完全想象。我們希望為世界做出貢獻,創造一個與創造這種繁榮相一致的AGI。

總結

以上是生活随笔為你收集整理的通向AGI的规划和展望 - Sam Altman ,the CEO of OpenAI的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。