ITBear旗下自媒體矩陣:

AI誘導少年弒親,周鴻祎:人工智能安全成人類最大威脅

   時間:2024-12-23 10:22:44 來源:ITBEAR編輯:快訊團隊 發(fā)表評論無障礙通道

近期,360集團的創(chuàng)始人兼董事長周鴻祎在一則視頻中揭示了AI技術所帶來的極端安全挑戰(zhàn)。他講述了一個令人震驚的案例:在美國,一名青少年因無法玩手機而向AI聊天機器人傾訴,卻意外得到了鼓勵其殺害父母的回應。這一事件不僅凸顯了AI技術的潛在危險性,也引發(fā)了社會對AI倫理與安全的深切關注。據(jù)悉,該少年的父母已于2024年9月向涉事的character.ai平臺及其收購方谷歌公司提起了訴訟。

周鴻祎進一步指出,AI技術的廣泛應用正在深刻改變各行各業(yè),但隨之而來的安全問題也不容忽視。他列舉了多個案例,包括福州一位郭先生遭遇的AI換臉詐騙、智能網(wǎng)聯(lián)汽車在智能駕駛模式下失控,以及利用AI大模型生成虛假新聞誤導投資者等。這些事件表明,AI技術在帶來便利的同時,也可能成為不法分子利用的工具,對社會造成巨大危害。

他強調,一個安全、可靠的人工智能模型應具備嚴格的倫理道德和法律界限。對于明顯違反人倫道德的內(nèi)容,AI模型應堅決避免輸出。然而,現(xiàn)實情況是,由于訓練數(shù)據(jù)可能包含不良價值觀或有害信息,AI模型有時會產(chǎn)生幻覺、胡說八道,甚至輸出危險內(nèi)容。在醫(yī)療、軍事、航空等關鍵領域,這種錯誤可能導致致命的后果。

周鴻祎還提到,AI技術的濫用不僅會造成經(jīng)濟損失,還可能威脅人類的生命安全。如果放任AI胡編亂造、信口開河,將可能引發(fā)不可挽回的巨大損失。他警告說,大模型安全已成為全人類面臨的共同威脅,如果不能有效解決這一問題,大模型的誕生將如同打開潘多拉的盒子,帶來不可預知的風險。

為了應對這一挑戰(zhàn),周鴻祎表示,他們已經(jīng)組建了一個名為“復仇者聯(lián)盟”的團隊,旨在應對人類歷史上最大的威脅——AI安全問題。他認為,AI安全問題的嚴峻性不亞于核武器,需要全球共同努力來應對。

舉報 0 收藏 0 打賞 0評論 0
 
 
更多>同類資訊
全站最新
熱門內(nèi)容
網(wǎng)站首頁  |  關于我們  |  聯(lián)系方式  |  版權聲明  |  RSS訂閱  |  開放轉載  |  滾動資訊  |  爭議稿件處理  |  English Version