ITBear旗下自媒體矩陣:

AI偽造名人帶貨亂象頻發(fā),消費(fèi)者如何維權(quán)?可索三倍賠償!

   時(shí)間:2024-12-23 08:12:47 來(lái)源:ITBEAR編輯:快訊團(tuán)隊(duì) 發(fā)表評(píng)論無(wú)障礙通道

近期,人工智能(AI)技術(shù)的迅猛進(jìn)步為社會(huì)各層面帶來(lái)了前所未有的便捷,但其潛在的安全威脅同樣不容忽視。特別是深度偽造技術(shù),憑借其制造高度仿真卻非真實(shí)的視頻或圖像的能力,已逐漸浮現(xiàn)出多方面的社會(huì)問(wèn)題。

據(jù)央視相關(guān)報(bào)道,今年已發(fā)生多起利用AI深度偽造技術(shù)假冒名人的案例。例如,有不法分子通過(guò)AI技術(shù),復(fù)制了著名醫(yī)生張文宏的面部特征與聲音,并借此進(jìn)行直播帶貨,成功售出了1200多件蛋白棒產(chǎn)品。

不僅如此,劉德華和雷軍等知名人物同樣成為了AI偽造技術(shù)的受害者。劉德華的聲音被惡意用于短視頻制作,以此吸引流量,其所屬電影公司也不得不多次發(fā)布聲明,提醒公眾提高警惕。

專業(yè)人士指出,當(dāng)前的AI技術(shù)已經(jīng)能夠利用深度學(xué)習(xí),輕松復(fù)制他人的面部和聲音特征,僅需一張照片和一段語(yǔ)音樣本即可完成這一過(guò)程。然而,這種技術(shù)并非完美無(wú)缺。偽造的視頻往往無(wú)法進(jìn)行實(shí)時(shí)直播,且在面部輪廓、背景融合度等細(xì)節(jié)方面存在瑕疵。細(xì)心觀察不難發(fā)現(xiàn),尤其是在口型與語(yǔ)音匹配度上,偽造視頻常露出破綻。

根據(jù)相關(guān)法律專家介紹,未經(jīng)授權(quán)使用他人的形象或聲音,屬于侵權(quán)行為。根據(jù)《民法典》和《網(wǎng)絡(luò)安全法》的相關(guān)規(guī)定,發(fā)布者可能面臨包括賠償損失和承擔(dān)刑事責(zé)任在內(nèi)的法律后果。如果消費(fèi)者因AI假冒名人帶貨而上當(dāng)受騙,可依據(jù)消費(fèi)者權(quán)益保護(hù)法要求三倍賠償。

面對(duì)這一問(wèn)題,專家呼吁短視頻平臺(tái)積極履行主體責(zé)任,及時(shí)下架違規(guī)內(nèi)容,并對(duì)發(fā)布者采取信用管理和相應(yīng)的處罰措施,以保障公眾權(quán)益和平臺(tái)生態(tài)的健康有序發(fā)展。

舉報(bào) 0 收藏 0 打賞 0評(píng)論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁(yè)  |  關(guān)于我們  |  聯(lián)系方式  |  版權(quán)聲明  |  RSS訂閱  |  開(kāi)放轉(zhuǎn)載  |  滾動(dòng)資訊  |  爭(zhēng)議稿件處理  |  English Version