Friendly AI 真的對人類有善嗎?看完這篇文章小編就怕怕了

AI 對人類帶來無限的可能,但對 Tesla 創辦人 Elon Musk 或 Softbank 創辦人孫正義來說,AI 就為人類生活帶來危機。不過,有人提出 Friendly AI (簡寫為 FAI) 概念,希望對人類帶來正面的影響。這些 Friendly AI,是否如他們的名字一樣,那麽 Friendly (友善) 的呢?

Friendly AI 的核心宗旨,就是能夠對人類有正面影響的 AI,而非負面影響的,尤其是指一些對人類生活有極大影響、超越人類智能、稱為 「Superintelligence (超級智能)」的 AI 技術。這個詞語由美國的非牟利機構 Machine Intelligence Research Institute (簡稱 MIRI) 的創辦人 Eliezer Yudkowsky 提出。

Eliezer Yudkowsky 是一位奇人:他沒有讀過中學及大學,但卻是一位著名的 AI 研究員,於 2000 年開辦 MIRI,並著有大量關於 AI 研究的學術文章。 2008 年,他就對 Friendly AI 的設計提出相關觀點:他認為在設計 AI 的最早段時期,就必須加入 Friendliness (意即對人類沒有惡意的欲念或觀念) 納入其中。

另一方面,他亦強調,AI 如果「走了岔路」,原因有二:

  1. 人類設計師在設計 AI 時出錯。
  2. AI 在自我學習期間,學會了對人類心懷敵意。

這就是設計 AI 時的一大挑戰,如何避免 AI 出錯,正是 Eliezer Yudkowsky 提出 Friendly AI 概念的主張。

大家可能會覺得:「如果 AI 出問題,把他直接關閉,不就一勞永逸嗎?」舉個例子, 2017 年年中,Facebook 訓練一對聊天機械人、分別名為 Bob 及 Alice 學習談判,但因為人為出錯的關係,他倆自行發展出他們自己才懂的「語言」(但在人類眼中,只是一堆不合文法的廢話) ,因為程式員怕他們會「自行進化」,嚇得他們馬上關閉相關 AI 系統,幸而系統亦能「被關閉」而停止運作。

但如果人類程式員沒有關閉 Bob 及 Alice 呢?或是系統有能力「否定」人類對系統的修改呢?甚至拒絶人類所下達的「關閉指令」呢?後果可能就超出了人類的想像了。(當然,未必一定是壞結果的。) 因此, Eliezer Yudkowsky 就提出 Corrigible 的概念:AI 必須能被人類修改,令 AI 不會懂得拒絕人類的修改指令及關閉指令。

簡而言之,Friendly AI 中的 Friendly 一詞,並非只是要和人類做好朋友這麽簡單,而是在說:人類可在安全的情況下運用 AI ,並享受 AI 在功能上帶來的方便,而又不會對人類世界做成壞影響。

另一方面,Elon Musk 對 AI 持保留態度,因此他希望藉著他創立的 OpenAI、令 AI 得以正常發展。以 AI 制衡 AI,Elon Musk 的想法可行嗎?大家快去看看吧!

編輯推介:

免費網上 AI 平台,你用過了沒有?

AI 與人類以《Dota 2》決一勝負,到底 AI 贏幾多?

95% 英國 CEO 認為 AI 為生意帶來重大轉變!

Leave a Reply

Your email address will not be published. Required fields are marked *