近期,科技界迎來了一項(xiàng)新的突破,谷歌公司正式推出了其最新一代的人工智能模型——PaliGemma 2。這一模型不僅在圖像分析領(lǐng)域展現(xiàn)了卓越的能力,更引人注目的是,它聲稱具備了情感識(shí)別的功能。
據(jù)相關(guān)報(bào)道,PaliGemma 2不僅能夠精確地分析圖像并生成詳盡的描述,還能夠識(shí)別出圖像中人物的情感狀態(tài)。然而,要實(shí)現(xiàn)這一技術(shù),谷歌對(duì)模型進(jìn)行了深入的微調(diào)。盡管如此,這一技術(shù)的問世還是引起了廣泛的討論和擔(dān)憂。
多年來,眾多初創(chuàng)企業(yè)和科技巨頭一直在探索能夠檢測(cè)情感的AI技術(shù),以期將其應(yīng)用于銷售培訓(xùn)、事故預(yù)防等多個(gè)領(lǐng)域。谷歌表示,PaliGemma 2已經(jīng)經(jīng)過了廣泛的測(cè)試,并評(píng)估了其在人群偏見方面的表現(xiàn)。公司聲稱,該模型在“毒性和粗俗程度”的評(píng)估上優(yōu)于行業(yè)基準(zhǔn)。
然而,谷歌并未公開其測(cè)試所使用的完整基準(zhǔn),也未具體說明測(cè)試的類型。目前唯一公開的基準(zhǔn)是FairFace,一個(gè)包含數(shù)萬張人臉圖像的數(shù)據(jù)集。雖然谷歌表示PaliGemma 2在該基準(zhǔn)測(cè)試中表現(xiàn)良好,但一些研究人員對(duì)FairFace作為偏見衡量標(biāo)準(zhǔn)的可靠性提出了質(zhì)疑,指出該數(shù)據(jù)集在種族多樣性方面存在局限性。
情感識(shí)別技術(shù)一直面臨著可靠性和偏見的問題。以面部分析為例,研究表明,現(xiàn)有的系統(tǒng)往往對(duì)某些面部表情(如微笑)存在偏好。最新的研究還發(fā)現(xiàn),部分情感分析模型在解讀黑人面部的情感時(shí),更傾向于將其判斷為負(fù)面情感,而對(duì)白人面部則相對(duì)更為正面。
谷歌公開發(fā)布PaliGemma 2后,專家們對(duì)其潛在的濫用風(fēng)險(xiǎn)表示了高度關(guān)注。他們擔(dān)心,如果這種情感識(shí)別AI被應(yīng)用于執(zhí)法、招聘、邊境管理等高風(fēng)險(xiǎn)領(lǐng)域,可能會(huì)導(dǎo)致對(duì)邊緣群體的歧視,甚至使人們的情感狀態(tài)被錯(cuò)誤解讀,從而引發(fā)不公平的待遇。
針對(duì)這些擔(dān)憂,谷歌回應(yīng)稱,已經(jīng)對(duì)PaliGemma 2的倫理性和安全性進(jìn)行了全面的評(píng)估,涵蓋了兒童安全、內(nèi)容安全等多個(gè)方面。公司表示,在發(fā)布該模型之前,已經(jīng)進(jìn)行了嚴(yán)格的測(cè)試,并承諾對(duì)模型的“代表性危害”進(jìn)行了充分的評(píng)估。
盡管如此,情感識(shí)別AI技術(shù)的局限性仍然十分明顯,無法全面解決情感表達(dá)的復(fù)雜性。單純的測(cè)試和評(píng)估并不能完全消除該技術(shù)潛在的問題。谷歌的PaliGemma 2雖然在圖像分析和情感識(shí)別方面取得了技術(shù)創(chuàng)新,但負(fù)責(zé)任的創(chuàng)新應(yīng)該從產(chǎn)品開發(fā)初期就全面考慮其可能帶來的社會(huì)影響,并在整個(gè)產(chǎn)品生命周期內(nèi)持續(xù)進(jìn)行評(píng)估。
隨著AI技術(shù)的不斷發(fā)展,一些科幻作品中的場(chǎng)景正逐漸變?yōu)楝F(xiàn)實(shí)。如何防止技術(shù)的濫用,確保其公正性和可靠性,已成為AI行業(yè)亟需解決的核心問題。這要求科技企業(yè)在追求技術(shù)創(chuàng)新的同時(shí),也要承擔(dān)起更多的社會(huì)責(zé)任。