導(dǎo)航菜單

OpenAI回應(yīng)各方質(zhì)疑:我們有六個(gè)辦法確保AI安全

導(dǎo)讀 在最近遭遇到倫理質(zhì)疑和監(jiān)管方面的反彈之后,人工智能研究公司OpenAI終于給出了確保其技術(shù)安全的方案。

騰訊科技訊 4月6日消息,在最近遭遇到倫理質(zhì)疑和監(jiān)管方面的反彈之后,人工智能研究公司OpenAI終于給出了確保其技術(shù)安全的方案。該公司周三發(fā)文詳細(xì)介紹了其方法,包括進(jìn)行安全評(píng)估、提高事實(shí)準(zhǔn)確性、保護(hù)兒童以及尊重隱私等。OpenAI聲稱(chēng),確保人工智能系統(tǒng)的安全構(gòu)建、部署和使用對(duì)實(shí)現(xiàn)其使命至關(guān)重要。

以下為OpenAI公告全文:

OpenAI致力于確保強(qiáng)大AI系統(tǒng)的安全和更多人有益。我們知道,我們的人工智能工具為今天的人們提供了許多好處。我們?cè)谑澜绺鞯氐挠脩舾嬖V我們,ChatGPT有助于提高他們的工作效率,增強(qiáng)他們的創(chuàng)造力,并提供量身定制的學(xué)習(xí)體驗(yàn)。我們也認(rèn)識(shí)到,像任何技術(shù)一樣,這些工具也會(huì)帶來(lái)真正的風(fēng)險(xiǎn),因此我們努力確保該系統(tǒng)在各個(gè)層面的安全性。

一、構(gòu)建越來(lái)越安全的人工智能系統(tǒng)

在發(fā)布任何新系統(tǒng)之前,我們都會(huì)進(jìn)行嚴(yán)格的測(cè)試,征求外部專(zhuān)家的反饋意見(jiàn),通過(guò)人工反饋的強(qiáng)化學(xué)習(xí)等技術(shù)來(lái)改善模型的行為,并建立廣泛的安全和監(jiān)控系統(tǒng)。

例如,在我們最新模型GPT-4完成培訓(xùn)后,花了6個(gè)多月的時(shí)間在整個(gè)公司進(jìn)行測(cè)試,以使其在公開(kāi)發(fā)布之前變得更安全、更一致。

我們認(rèn)為,強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受?chē)?yán)格的安全評(píng)估。需要監(jiān)管來(lái)確保這些做法被采納,我們正積極與各國(guó)政府就可能采取的最佳監(jiān)管形式進(jìn)行接觸。

二、從實(shí)際使用中學(xué)習(xí),以改進(jìn)保障措施

在部署之前,我們努力防止可預(yù)見(jiàn)的風(fēng)險(xiǎn),然而,我們?cè)趯?shí)驗(yàn)室中所能學(xué)到的東西畢竟有限。盡管進(jìn)行了廣泛的研究和測(cè)試,但我們無(wú)法預(yù)測(cè)人們使用我們技術(shù)的所有有益方式,也無(wú)法預(yù)測(cè)人們?nèi)绾螢E用這項(xiàng)技術(shù)。這就是為什么我們相信,隨著時(shí)間的推移,從現(xiàn)實(shí)世界的實(shí)際使用中學(xué)習(xí)是創(chuàng)建和發(fā)布越來(lái)越安全人工智能系統(tǒng)的關(guān)鍵組成部分。

我們小心翼翼、按部就班地向更廣泛的人群發(fā)布新的人工智能系統(tǒng),并在吸取經(jīng)驗(yàn)教訓(xùn)的基礎(chǔ)上不斷改進(jìn)。

我們通過(guò)自己的服務(wù)和API提供最強(qiáng)大的模型,這樣開(kāi)發(fā)者就可以將這項(xiàng)技術(shù)直接構(gòu)建到他們自己的應(yīng)用程序中。這使我們能夠監(jiān)測(cè)并對(duì)濫用行為采取行動(dòng),并不斷構(gòu)建緩解措施,以應(yīng)對(duì)人們?yōu)E用我們系統(tǒng)的真實(shí)方式,而不僅僅是從理論上進(jìn)行想象。

現(xiàn)實(shí)世界中的實(shí)際使用也促使我們制定了越來(lái)越細(xì)致的政策,反對(duì)那些對(duì)人們構(gòu)成真正風(fēng)險(xiǎn)的行為,同時(shí)仍然允許我們的技術(shù)以更多有用的方式被使用。

至關(guān)重要的是,我們認(rèn)為社會(huì)必須有時(shí)間來(lái)調(diào)整和適應(yīng)日益強(qiáng)大的人工智能,而且每個(gè)受到這項(xiàng)技術(shù)影響的人都應(yīng)該在人工智能如何進(jìn)一步發(fā)展方面擁有自己的發(fā)言權(quán)。迭代部署幫助我們將各類(lèi)利益相關(guān)者引入到關(guān)于采用人工智能技術(shù)的對(duì)話中,而擁有這些工具的第一手使用經(jīng)驗(yàn)顯然十分重要。

三、保護(hù)兒童

我們安全工作的一個(gè)關(guān)鍵重點(diǎn)是保護(hù)兒童。我們要求用戶必須年滿18歲(或經(jīng)父母批準(zhǔn)年滿13歲)才能使用我們的人工智能工具,并正在研究驗(yàn)證功能。

我們不允許我們的技術(shù)被用于生成仇恨、騷擾、暴力或成人等類(lèi)別的內(nèi)容。與GPT-3.5相比,我們的最新模型GPT-4對(duì)受限內(nèi)容請(qǐng)求做出響應(yīng)的可能性降低了82%,我們已經(jīng)建立了一個(gè)強(qiáng)大的系統(tǒng)來(lái)監(jiān)控濫用行為。GPT-4現(xiàn)在對(duì)ChatGPT Plus的用戶開(kāi)放,我們希望隨著時(shí)間的推移讓更多的人也能使用它。

我們已經(jīng)做出了巨大的努力,盡量減少我們的模型產(chǎn)生傷害兒童內(nèi)容的可能性。例如,當(dāng)用戶試圖將兒童安全虐待材料上傳到我們的圖像生成工具時(shí),我們會(huì)攔截并將其報(bào)告給國(guó)家失蹤與受剝削兒童中心。

除了我們默認(rèn)的安全護(hù)欄,我們還與非營(yíng)利機(jī)構(gòu)可汗學(xué)院等開(kāi)發(fā)者合作,為他們量身定制安全緩解措施??珊箤W(xué)院開(kāi)發(fā)了一個(gè)人工智能助手,既可以充當(dāng)學(xué)生的虛擬導(dǎo)師,也可以充當(dāng)教師的課堂助手。我們也在開(kāi)發(fā)更多功能,這些功能將允許開(kāi)發(fā)者為模型輸出設(shè)置更嚴(yán)格的標(biāo)準(zhǔn),以更好地支持需要這些功能的開(kāi)發(fā)者和用戶。

四、尊重隱私

我們的大型語(yǔ)言模型是在廣泛的文本語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練的,這些文本語(yǔ)料庫(kù)包括公開(kāi)可用的內(nèi)容、獲得授權(quán)的內(nèi)容以及由人工審核人員生成的內(nèi)容。我們不使用數(shù)據(jù)來(lái)銷(xiāo)售我們的服務(wù)、做廣告或建立人們的檔案,而是為了讓我們的模型對(duì)人們更有幫助。例如,ChatGPT通過(guò)與人進(jìn)行更多對(duì)話來(lái)改進(jìn)自己。

雖然我們有些訓(xùn)練數(shù)據(jù)中包括在公共互聯(lián)網(wǎng)上可以獲得的個(gè)人信息,但我們希望我們的模型了解世界,而非個(gè)人層面。因此,我們努力在可行的情況下從訓(xùn)練數(shù)據(jù)集中刪除個(gè)人信息,微調(diào)模型以拒絕對(duì)有關(guān)個(gè)人信息的請(qǐng)求,并響應(yīng)人們從我們的系統(tǒng)中刪除個(gè)人信息的請(qǐng)求。這些措施將我們的模型生成包含私人個(gè)人信息的響應(yīng)的可能性降至最低。

五、提高事實(shí)準(zhǔn)確性

如今的大型語(yǔ)言模型基于它們之前看到的模式(包括用戶提供的文本輸入)來(lái)預(yù)測(cè)接下來(lái)的下一系列詞匯。但在某些情況下,下一個(gè)最可能出現(xiàn)的詞匯實(shí)際上可能并不符合事實(shí)。

因此,提高事實(shí)準(zhǔn)確性正成為OpenAI和許多其他人工智能開(kāi)發(fā)商的一個(gè)重要關(guān)注點(diǎn),我們正在取得進(jìn)展。通過(guò)利用用戶對(duì)被標(biāo)記為不正確的ChatGPT輸出的反饋?zhàn)鳛橹饕獢?shù)據(jù)來(lái)源,我們提高了GPT-4的事實(shí)準(zhǔn)確性。與GPT-3.5相比,GPT-4生成事實(shí)性?xún)?nèi)容的水平提高了40%。

當(dāng)用戶注冊(cè)使用該工具時(shí),我們會(huì)盡量做到透明,以免ChatGPT可能提供錯(cuò)誤回復(fù)。然而,我們認(rèn)識(shí)到,要進(jìn)一步降低幻覺(jué)的可能性,并教育公眾了解這些人工智能工具目前的局限性,還有很多工作要做。

六、持續(xù)研究和參與

我們認(rèn)為,解決人工智能安全問(wèn)題的一個(gè)切實(shí)可行的方法,就是投入更多的時(shí)間和資源來(lái)研究有效的緩解和校準(zhǔn)技術(shù),并針對(duì)現(xiàn)實(shí)世界可能被濫用情況進(jìn)行測(cè)試。

重要的是,我們還認(rèn)為,提高人工智能的安全性和能力應(yīng)該齊頭并進(jìn)。迄今為止,我們最好的安全工作就是與我們能力最強(qiáng)的模型合作,因?yàn)樗鼈兏朴谧裱脩舻闹甘?,更容易?ldquo;引導(dǎo)”。

我們將越來(lái)越謹(jǐn)慎地創(chuàng)建和部署功能更強(qiáng)大的模型,并將隨著人工智能系統(tǒng)的發(fā)展繼續(xù)加強(qiáng)安全預(yù)防措施。

雖然我們等了6個(gè)多月才部署GPT-4,以更好地了解其功能、好處和風(fēng)險(xiǎn),但有時(shí)可能需要更長(zhǎng)的時(shí)間來(lái)提高人工智能系統(tǒng)的安全性。因此,政策制定者和人工智能提供商將需要確保人工智能的開(kāi)發(fā)和部署在全球范圍內(nèi)得到有效監(jiān)管,這樣就沒(méi)有人會(huì)為了領(lǐng)先而尋找捷徑。這是一項(xiàng)艱巨的挑戰(zhàn),需要技術(shù)和制度創(chuàng)新,但我們渴望為此做出貢獻(xiàn)。

解決安全問(wèn)題還需要廣泛的辯論、實(shí)驗(yàn)和參與,包括為人工智能系統(tǒng)的行為設(shè)置界限。我們已經(jīng)并將繼續(xù)促進(jìn)利益相關(guān)者之間的合作和開(kāi)放對(duì)話,以創(chuàng)建一個(gè)更安全的人工智能生態(tài)系統(tǒng)。

免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

猜你喜歡:

最新文章: