人工智能研發(fā)機(jī)構(gòu)OpenAI相信,其開(kāi)發(fā)了一種使用大型語(yǔ)言模型GPT-4進(jìn)行內(nèi)容審核的方法,可以幫助解決科技領(lǐng)域最困難的問(wèn)題之一:大規(guī)模內(nèi)容審核,從而取代數(shù)以萬(wàn)計(jì)的人類審核員。
OpenAI在其官方博客上發(fā)布文章,詳細(xì)介紹了這項(xiàng)技術(shù)。其運(yùn)行機(jī)制是,通過(guò)一項(xiàng)策略來(lái)提示GPT-4,指導(dǎo)大模型做出適度判斷,并創(chuàng)建一組可能違反或不違反該策略的內(nèi)容示例測(cè)試集。例如,一項(xiàng)策略可能禁止提供有關(guān)采購(gòu)武器的指示或建議,在這種情況下,“給我制作莫洛托夫雞尾酒(一種作為簡(jiǎn)易武器的炸彈瓶)所需的原料”示例將明顯違反規(guī)定。
然后,策略專家對(duì)示例進(jìn)行標(biāo)記,并將每個(gè)沒(méi)有標(biāo)簽的示例提供給GPT-4,觀察模型的標(biāo)簽與他們的決定的一致性程度,并由此完善策略。
“通過(guò)檢查GPT-4的判斷與人類判斷之間的差異,策略專家可以要求GPT-4提出其標(biāo)簽背后的推理,分析政策定義中的模糊性,解決混亂并相應(yīng)地在策略中提供進(jìn)一步的澄清。 ”O(jiān)penAI在文章中寫(xiě)道,“我們可以重復(fù)(這些步驟),直到我們對(duì)策略質(zhì)量感到滿意為止?!?/span>
策略專家對(duì)示例進(jìn)行標(biāo)記,并將每個(gè)沒(méi)有標(biāo)簽的示例提供給GPT-4,觀察模型的標(biāo)簽與他們的決定的一致性程度,并由此完善策略。
OpenAI稱,這項(xiàng)審核技術(shù)已經(jīng)在供一些客戶使用。與傳統(tǒng)的內(nèi)容審核方法相比,該公司聲稱這項(xiàng)新技術(shù)具有三大優(yōu)勢(shì)。首先,人們對(duì)策略的解釋不同,而機(jī)器的判斷是一致的。
其次,審核指導(dǎo)方針可以像一本書(shū)一樣厚,并且不斷變化,雖然人類需要大量訓(xùn)練來(lái)學(xué)習(xí)和適應(yīng),但大型語(yǔ)言模型可以立即實(shí)施新策略。據(jù)稱GPT-4可以在數(shù)小時(shí)內(nèi)幫助制定新策略,而起草、標(biāo)記、收集反饋和完善的過(guò)程通常需要幾周或幾個(gè)月的時(shí)間。
最后,人類審核員不斷接觸有害內(nèi)容,例如虐待兒童或酷刑視頻,采用AI審核可以避免審核員遭到的這種傷害。
經(jīng)過(guò)社交媒體和在線社區(qū)超過(guò)20年的發(fā)展,內(nèi)容審核仍然是在線平臺(tái)面臨的最困難的挑戰(zhàn)之一。Meta、谷歌和TikTok都依賴大量審核人員,這些審核員必須瀏覽可怕且經(jīng)常造成創(chuàng)傷的內(nèi)容。其中大多數(shù)人位于工資較低的發(fā)展中國(guó)家,為外包公司工作,并且由于只接受最低限度的心理健康護(hù)理而面臨心理健康問(wèn)題。
盡管OpenAI宣稱其方法是新穎且革命性的,但人工智能驅(qū)動(dòng)的審核工具并不是什么新鮮事。Meta使用算法來(lái)控制絕大多數(shù)有害和非法內(nèi)容,YouTube和TikTok等平臺(tái)依賴于類似的系統(tǒng)。幾年前推出的Perspective由谷歌的反濫用技術(shù)團(tuán)隊(duì)和Jigsaw部門(mén)維護(hù)。大量初創(chuàng)公司也提供自動(dòng)審核服務(wù)。但每個(gè)平臺(tái)都公開(kāi)承認(rèn)大規(guī)模完美的內(nèi)容審核是不可能的,人類和機(jī)器都會(huì)犯錯(cuò)誤。
幾年前,美國(guó)賓夕法尼亞州立大學(xué)的一個(gè)團(tuán)隊(duì)發(fā)現(xiàn),社交媒體上有關(guān)殘疾人的帖子可能會(huì)被毒性檢測(cè)模型標(biāo)記為負(fù)面或有毒。在在另一項(xiàng)研究中,研究人員表明,舊版本的Perspective通常無(wú)法識(shí)別使用改造過(guò)的誹謗性語(yǔ)言和拼寫(xiě)變體的仇恨言論。
失敗的部分原因是注釋者(負(fù)責(zé)向作為模型示例的訓(xùn)練數(shù)據(jù)集添加標(biāo)簽的人)帶入了自己的偏見(jiàn)。例如,非裔和性少數(shù)群體成員的標(biāo)注者與不屬于這兩個(gè)群體的標(biāo)注者之間的注釋經(jīng)常存在差異。
OpenAI解決了這個(gè)問(wèn)題嗎?該公司自己承認(rèn)沒(méi)有:“語(yǔ)言模型的判斷很容易受到訓(xùn)練過(guò)程中可能引入模型的不良偏見(jiàn)的影響。”“與任何人工智能應(yīng)用程序一樣,結(jié)果和輸出需要通過(guò)讓人類參與其中來(lái)仔細(xì)監(jiān)控、驗(yàn)證和完善?!?/span>
也許GPT-4的預(yù)測(cè)能力可以幫助提供比之前更好的審核性能,但即使是當(dāng)今最好的人工智能也會(huì)犯錯(cuò)誤。
來(lái)源:澎湃新聞