【新要聞】Sam Altman問(wèn)答張宏江:模型開(kāi)源是正確發(fā)展路徑,應(yīng)小心前行
發(fā)布時(shí)間:2023-06-11 06:38:39 文章來(lái)源:21世紀(jì)經(jīng)濟(jì)報(bào)道
在過(guò)去四周里,OpenAI聯(lián)合創(chuàng)始人SamAltman已經(jīng)走過(guò)五個(gè)大洲的近20個(gè)國(guó)

在過(guò)去四周里,OpenAI聯(lián)合創(chuàng)始人Sam Altman已經(jīng)走過(guò)五個(gè)大洲的近 20 個(gè)國(guó)家,與學(xué)生、開(kāi)發(fā)人員和國(guó)家元首會(huì)面,他希望推進(jìn)人工智能在全球范圍內(nèi)的合作。


(相關(guān)資料圖)

6月10日,在2023北京智源大會(huì)-AI安全與對(duì)齊論壇上,Sam Altman與智源研究院理事長(zhǎng)張宏江進(jìn)行了視頻問(wèn)答。

人工智能發(fā)展已勢(shì)不可擋,而保障安全勢(shì)在必行。Sam Altman提出在加大對(duì)AI系統(tǒng)對(duì)齊性能的研究外,亟需設(shè)計(jì)出公平的、有代表性和包容性的系統(tǒng)。此外,當(dāng)被問(wèn)及未來(lái)是否將重新開(kāi)放GPT的源代碼時(shí),Sam Altman表示,公司目前開(kāi)源了一部分模型,其他模型則不開(kāi)源,但隨著時(shí)間的推移,他期待在保證安全的前提下,有更多的開(kāi)源模型出現(xiàn)。

我們離安全的AGI有多遠(yuǎn)?

Sam Altman認(rèn)為,很難預(yù)測(cè)實(shí)現(xiàn)安全的AGI的確切時(shí)間,但他表示,在未來(lái)十年內(nèi),人類很可能擁有非常強(qiáng)大的人工智能,并且應(yīng)該為此做好準(zhǔn)備。

Sam Altman表示,目前業(yè)界存在關(guān)于模型數(shù)量與安全性相關(guān)性的不同看法,然而擁有少量模型或大量模型都不能讓我們更安全。

更重要的整體架構(gòu)的搭建,“是否有一種機(jī)制,確保任何柯林斯模型都需要經(jīng)過(guò)足夠的安全測(cè)試?是否有一個(gè)框架,讓那些創(chuàng)建了完備柯林斯模型的人具備足夠的資源和責(zé)任心,確保他們創(chuàng)造的東西是安全可靠的?”

我們離安全的AGI有多遠(yuǎn)仍沒(méi)有確鑿回答,然而Sam Altman對(duì)此報(bào)有高度激情?!皩?duì)我而言,沒(méi)有比安全性工作更令人興奮、活力四溢、充實(shí)且重要的事情了。我堅(jiān)信,如果您個(gè)人對(duì)一項(xiàng)重要的倡議非常認(rèn)可,您將會(huì)有無(wú)窮的力量去解決它。”

Sam Altman表示,沒(méi)人能阻擋人工智能的發(fā)展,而安全性工作作為其中的一部分,即使艱難也是必須進(jìn)行。

如何推進(jìn)全球合作?

Sam Altman的環(huán)球之旅已經(jīng)進(jìn)行到第四周,在此期間,他已經(jīng)去到五個(gè)大洲的近 20 個(gè)國(guó)家,與學(xué)生、開(kāi)發(fā)人員和國(guó)家元首會(huì)面。他試圖推進(jìn)全球合作。

Sam Altman認(rèn)為,進(jìn)一步完善人工智能安全性需要了解不同國(guó)家和不同背景下用戶的偏好,因此需要吸納多元觀念。同時(shí),他表示,鑒于解決先進(jìn)人工智能系統(tǒng)的困難,需要世界各地的優(yōu)秀人才共同努力。

Sam Altman認(rèn)為推進(jìn)全球合作中一個(gè)重要進(jìn)展是人們開(kāi)始對(duì)如何安全開(kāi)發(fā)先進(jìn)AI系統(tǒng)的國(guó)際標(biāo)準(zhǔn)感到興奮。

“過(guò)去6個(gè)月里,關(guān)于AGI的風(fēng)險(xiǎn)和討論取得了很大的進(jìn)展,人們似乎致力于制定一個(gè)框架,讓AI造福人類?!盨am Altman表示。

在推進(jìn)全球合作的過(guò)程中,Sam Altman主要有三種計(jì)劃,一是在訓(xùn)練廣泛模型并在其部署之前,思考應(yīng)該進(jìn)行什么樣的測(cè)試;二是就構(gòu)建反映人們目標(biāo)、價(jià)值觀和實(shí)踐的數(shù)據(jù)庫(kù)進(jìn)行了新的討論,三是利用數(shù)據(jù)庫(kù)來(lái)使他們的系統(tǒng)與之對(duì)齊,并探討了開(kāi)展共享AI安全性研究的形式問(wèn)題

Sam Altman表示,“雖然全球合作總是很困難,但是我認(rèn)為這既是機(jī)會(huì)也是威脅,它將世界團(tuán)結(jié)在一起。”

如何通過(guò)技術(shù)解決安全問(wèn)題?

張宏江提到,在過(guò)去幾年中,許多AI系統(tǒng)都付出了很多努力來(lái)優(yōu)化其對(duì)齊性能。但僅通過(guò)對(duì)齊性的研究也許并不能完全解決AGI的安全性問(wèn)題。

Sam Altman認(rèn)為,“對(duì)齊”的研究還在不斷演變之中,從傳統(tǒng)意義上講,讓模型按照用戶意圖進(jìn)行溝通的對(duì)齊僅是其中的一部分,還會(huì)有其他方面的問(wèn)題,例如,如何驗(yàn)證系統(tǒng)正在按照我們的意愿行事,以及將系統(tǒng)與哪些價(jià)值觀對(duì)齊等,最重要的是全面考慮如何獲得安全的AGI。

“在技術(shù)之外,我們必須設(shè)計(jì)出公平的、有代表性和包容性的系統(tǒng)。我們不僅需要考慮AI模型本身的安全性,還需要考慮整個(gè)系統(tǒng)的安全性。因此,我們需要構(gòu)建安全的分類器和檢測(cè)器,以監(jiān)測(cè)符合用戶政策的情況。”Sam Altman表示。

此外,他認(rèn)為很難預(yù)測(cè)和預(yù)先解決任何技術(shù)可能出現(xiàn)的問(wèn)題。因此,從實(shí)際使用中學(xué)習(xí)并快速部署數(shù)據(jù),觀察在一個(gè)國(guó)家中會(huì)發(fā)生什么,并給人們提供時(shí)間來(lái)學(xué)習(xí)、更新和思考這些模型將如何影響他們的生活,這也非常重要。

被問(wèn)及是否將重新開(kāi)放GPT的源代碼,就像在ChatGPT3.0之前一樣時(shí),Sam Altman表示,公司開(kāi)源了一部分模型,其他模型則不開(kāi)源,但隨著時(shí)間的推移,他期待有更多的開(kāi)源模型出現(xiàn)。“目前我沒(méi)有具體的模型或時(shí)間表,但這是我們正在努力的事情?!?/p>

據(jù)了解,Sam Altman主持了一個(gè)開(kāi)源機(jī)構(gòu),將采用一種算法來(lái)開(kāi)發(fā)模型,并引入新的Python模型和A-15模型。

開(kāi)源是否會(huì)引發(fā)安全問(wèn)題?Sam Altman以A-15模型為例說(shuō)明,該模型提供了額外的安全控制,能夠阻止某些用戶、某些類型的微調(diào)。

“這是一個(gè)重要的回歸點(diǎn)。就目前模型的規(guī)模而言,我對(duì)此并不太擔(dān)心,但隨著模型變得越來(lái)越大,確保正確性的代價(jià)可能會(huì)變得昂貴。我認(rèn)為開(kāi)源一切可能不是最優(yōu)的路徑,盡管這確實(shí)是正確的路徑。我認(rèn)為我們只需小心地朝著這些節(jié)點(diǎn)前進(jìn)。”Sam Altman表示。

(文章來(lái)源:21世紀(jì)經(jīng)濟(jì)報(bào)道)

標(biāo)簽:

資訊播報(bào)

樂(lè)活HOT

娛樂(lè)LOVE

精彩推送