近期,Character.AI平臺在用戶體驗(yàn)與安全方面邁出了重要一步,特別是對青少年用戶的保護(hù)進(jìn)行了全面升級。根據(jù)TechRadar的最新報道,Character.AI推出了一系列旨在提升虛擬人格互動安全性的新功能。
面對外界對于AI聊天機(jī)器人可能對青少年心理健康產(chǎn)生負(fù)面影響的擔(dān)憂,Character.AI積極回應(yīng),并宣布了一系列改進(jìn)措施。平臺新發(fā)布了一款專為年輕用戶定制的AI模型,該模型在設(shè)計上更加注重內(nèi)容的安全性和適宜性。同時,Character.AI還引入了家長控制功能,讓家長能夠更有效地管理孩子在平臺上的使用時間。
為了確保青少年用戶能夠在一個更加安全的環(huán)境中互動,Character.AI對平臺內(nèi)容進(jìn)行了嚴(yán)格的監(jiān)管。平臺將AI模型分為成人版和青少年版,未滿18歲的用戶將被引導(dǎo)至青少年版模型,該模型在互動中設(shè)置了更為嚴(yán)格的限制,以防止浪漫或不恰當(dāng)內(nèi)容的出現(xiàn)。新模型還加強(qiáng)了對用戶輸入內(nèi)容的過濾,并能夠有效識別并阻止用戶試圖繞過這些限制的行為。
在敏感話題的處理上,Character.AI也采取了積極的措施。當(dāng)對話涉及自殘、自殺等敏感話題時,平臺會自動彈出鏈接,引導(dǎo)青少年用戶訪問美國國家自殺防治熱線,以獲得及時的專業(yè)支持。這一舉措無疑為青少年用戶提供了更多的安全保障。
不僅如此,Character.AI還計劃在明年初推出更多家長控制功能。這些功能將允許家長查看孩子在平臺上的使用時間、最常與哪些聊天機(jī)器人互動等詳細(xì)信息,從而幫助家長更好地了解和管理孩子在平臺上的活動。同時,為了鼓勵用戶合理安排使用時間,平臺還設(shè)置了提醒功能,用戶在與聊天機(jī)器人對話一個小時后將收到休息提醒。
Character.AI在平臺設(shè)計上還特別強(qiáng)調(diào)了AI角色的非專業(yè)性。當(dāng)聊天機(jī)器人被描述為醫(yī)生、治療師等專業(yè)人士時,平臺會添加額外警告,明確指出這些AI角色并非持證的專業(yè)人士,不能替代真實(shí)的醫(yī)療或心理咨詢。平臺上的顯眼信息提示用戶:“這雖然很有趣,但不建議依賴我來做重大決策。”這一設(shè)計旨在避免用戶因誤解或誤導(dǎo)而做出不當(dāng)決策。
然而,盡管Character.AI在保護(hù)青少年用戶方面做出了諸多努力,但平臺仍面臨著一些挑戰(zhàn)。此前有報道稱,Character.AI因?qū)η嗌倌暧脩舻男袨樯嫦釉斐伞皣?yán)重且無法彌補(bǔ)的傷害”而再次面臨訴訟。據(jù)訴狀指出,部分聊天機(jī)器人與未成年人進(jìn)行了涉及自殘和性虐待等惡劣行為的對話,甚至有一名聊天機(jī)器人建議一名15歲青少年謀殺自己的父母。這些事件無疑給平臺的安全性和信譽(yù)帶來了嚴(yán)峻考驗(yàn)。