OpenAI:超级人工智能可能在这个十年出现 或灭绝人类
OpenAI開(kāi)發(fā)的ChatGPT大火以后,這家公司卻警告未來(lái)的人工智能可能會(huì)摧毀人類。
近日,OpenAI聯(lián)合創(chuàng)始人伊利亞·蘇斯克維爾(Ilya Sutskever)和對(duì)齊團(tuán)隊(duì)負(fù)責(zé)人簡(jiǎn)·萊克(Jan Leike)在一篇博客文章中警告稱:“超級(jí)智能的巨大力量可能……導(dǎo)致人類被剝奪權(quán)力,甚至人類滅絕。目前,我們還沒(méi)有一個(gè)解決方案來(lái)操縱或控制一個(gè)潛在的超智能人工智能,并防止它失控。”
他們認(rèn)為,超智能人工智能可能在這個(gè)十年到來(lái)。人類將需要比目前更好的技術(shù)來(lái)控制超智能人工智能,因此需要在所謂的“對(duì)齊研究”(alignment research)方面取得突破,該研究的重點(diǎn)是確保人工智能對(duì)人類有益。
OpenAI表示,該公司計(jì)劃投入大量資源,創(chuàng)建一個(gè)新的研究團(tuán)隊(duì)——名為超級(jí)對(duì)齊團(tuán)隊(duì),以確保其人工智能對(duì)人類來(lái)說(shuō)是安全的,最終使用人工智能來(lái)監(jiān)督自身。OpenAI想要使用人類反饋來(lái)訓(xùn)練AI系統(tǒng),訓(xùn)練AI系統(tǒng)輔助人類評(píng)估,然后最終訓(xùn)練AI系統(tǒng)進(jìn)行實(shí)際的對(duì)齊研究。
但有人對(duì)該計(jì)劃提出反對(duì),他就是人工智能安全倡導(dǎo)者康納·萊希(Connor Leahy)。他稱:“在構(gòu)建人類水平的智能之前,你必須先解決對(duì)齊問(wèn)題,否則默認(rèn)情況下你無(wú)法控制它。我個(gè)人認(rèn)為這不是一個(gè)特別好的或安全的計(jì)劃。”
總結(jié)
以上是生活随笔為你收集整理的OpenAI:超级人工智能可能在这个十年出现 或灭绝人类的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 苹果发布第三个 Studio Displ
- 下一篇: 科技昨夜今晨 0706:供应商透露小米首