Google(Alphabet)老板 Eric Schmidt 一直都是人工智能堅定的支持者和投資人,他曾參與 Google 的無人駕駛汽車和 DeepMind 搜索引擎專案,并在之前一直告訴人們不用害怕人工智能。
最近,在《時代》雜志的專欄,Eric Schmidt 稱人工智能為世界上的許多難題帶來解決方法,為人類的生活和工作方式帶來革命。但他強調(diào),開發(fā)人工智能“需要正確的方法”。他認為開發(fā)者、研究人員和公司在探索人工智能的時候應(yīng)該遵循 3 個原則:
“首先,人工智能應(yīng)該讓很多人受益,而不是一小部份人受益。”
Schmidt 堅持認為改變生活的科技應(yīng)該讓每個人受益,而不僅僅是企業(yè)受益。“我們應(yīng)該充分利用人工智能的潛力,確保人工智能的服務(wù)物件一直都是人類的共同利益。”他們這樣寫道。
人工智能的研究“應(yīng)該開放,負責(zé)和讓社會參與”
Google 和 Facebook 最近都開始為他們的人工智能研究帶來了更大的透明度。 Facebook 最近公布其下一代的“Big Sur”人工智能硬件框架的資訊,并表示將開源其設(shè)計細節(jié);而 Google 則開源了其人工智能引擎 TensorFlow的程序碼。但關(guān)鍵的是,這兩家公司都沒有透露他們用來訓(xùn)練、測試和加強他們的人工智能演算法的資料,這些資料可能是決定他們成功的關(guān)鍵。
“人工智能研究人員應(yīng)該建立最佳實踐,防止意外的后果。”
在開發(fā)系統(tǒng)的時候,研究人員需要不斷問自己,他們訓(xùn)練人工智能系統(tǒng)時使用的資料是否正確,他們需要考慮自己的研究是否有任何副作用,以及系統(tǒng)內(nèi)是否有足夠的失效保護。“應(yīng)該有一個核查系統(tǒng)去評估 AI 系統(tǒng)是否在按照預(yù)定軌道發(fā)展。”Schmidt 這樣寫道。
人工智能正在迅速從科幻小說走進我們的現(xiàn)實世界。如今,我們所擁有的智能系統(tǒng)可以說明我們診斷癌癥、安排約會或者打掃環(huán)境。就目前看來,我們似乎還不必擔(dān)心電腦系統(tǒng)會引發(fā)世界末日。
但是如果真如科學(xué)家和思想家所言,一旦我們破解了人工智能系統(tǒng),讓它們可以真正獨立思考和移動,那么不久后他們在智力方面就會超越我們。為了控制這種局勢,我們應(yīng)該在當(dāng)下就擁有清楚的憂患意識,積極塑造人工智能向預(yù)設(shè)的方向發(fā)展,讓它造福人類,而不是破壞人類的社會。