2023年10月10日,根據(jù)英國媒體《金融時報》報道谷歌DeepMind、OpenAI、Anthropic等AI領(lǐng)域知名的企業(yè)現(xiàn)在正在聯(lián)合制定一套人工智能模型能夠遵守的價值觀和原則,防止人工智能大模型出現(xiàn)濫用的行為。
隨著Openai的等多家公司開始將人工智能技術(shù)商業(yè)化以后,人工智能領(lǐng)域的研究人員認為為了防止這些人工智能系統(tǒng)生成有害內(nèi)容或者錯誤的信息,必須要采取相關(guān)的應(yīng)對方案,建議所有的人工智能科技公司,必須要制定有關(guān)于人工智能的限制規(guī)定。在制作人工智能大模型的同時,讓人工智能首先要學(xué)習(xí)價值觀和原則,在沒有人類干預(yù)和管制的情況下,依舊能夠管控自身。
英國《金融時報》報道表示,讓人工智能應(yīng)用程序擁有尊重,寬容的性質(zhì)已經(jīng)成為了生成式人工智能發(fā)展的方向。不過哪怕制定人工智能的憲法,依舊無法完全保證人工智能不會出現(xiàn)被濫用的情況。因為在人工智能的研發(fā)方面,往往會攜帶著人工智能工程師和計算機科學(xué)家的主觀意見,所以很難也為人工智能的限制進行有效的評估。
在各大科技公司爭先爭奪人工智能技術(shù)商業(yè)化的同時,人工智能研究人員認為實現(xiàn)人工智能系統(tǒng)的安全防護措施,完全沒有跟上人工智能發(fā)展的速度。在一般情況下各大科技公司主要以人類反饋的強化學(xué)習(xí)方法來處理人工智能所生成的問題。能夠?qū)⑷祟惙答伒膹娀瘜W(xué)習(xí)方法,應(yīng)用科技公司會雇用大量的承包商來審核人工智能模型的回復(fù)結(jié)果,對于回復(fù)結(jié)果進行分類,在積攢的足夠的評分以后。人工智能模型就會逐漸開始了解好壞之分,并且在之后回復(fù)的過程中,就會自動過濾掉一些比較差的信息。