上星期睇了一套電影《超越潛能》,沒有甚麼驚喜,但題材值得我們深思。電影內容講一位名叫卡威博士,是人工智能科學家,他研發了一部有感知能力的機器,能集結全人類的智慧與複雜情感,創造出超越人類且有自我意識的超級電腦。他被反科技極端分子暗殺,但成功被妻子及科學家朋友轉化成有感知能力的電腦,身體更漸漸成為無所不能的上帝,能夠以神蹟治好一些病人難以治好的疾病。
令我願意俾錢睇戲的原因是人工智能的發展,現今科學界真的有人正在研究中。著名物理學家霍金早前指出,如果繼續發展人工智能,人類可能會面臨毀滅危機。此事驟耳聽來,似有點危言聳聽,但細心想來,卻也合情合理。
霍金等人擔心將來的電腦可以在網絡上自行學習,製造出我們無法認識的武器。由於電腦很難分辨善與惡,對與錯,它們有可能根據製造者意願,而大規模殲滅人類,控制地球!我認為按目前的發展趨勢,將來一定有不少精巧的機械人,懂得自我維修功能,工作能力在人類之上,它們一旦被賦予不道德的意識,有了製造者的「好惡之心」,就是人類災難之始。很多年前,英國有專家想利用一台超級電腦去模擬嬰孩牙牙學語的模式,結果這台高智慧的電腦運作一段時間後便自動停工,據說它反饋的訊息是告訴操作員,上述程序過於單調乏味,它不願幹這種無聊而重複的工作。
任何生命、任何東西一旦有了喜惡心,他或它就會懂得選擇,當結果不如己意時,便可能會反抗,繼而不受控制。
古人說:「至道無難,唯嫌揀擇,但莫憎愛,洞然明白。」意思是要掌握宇宙的最高義理其實不難,最怕是一旦存有愛憎之心,清淨自然的本性便從此受污染,人便會墮落了。如果有一天機器也能生出「好惡之心」,它亦會失卻自在無礙的境界,陷於跟人類相同的欲念與執着,世界便會從此多事。霍金警告世人,如果繼續發展人工智能,人類或會遭受沒頂之災,大抵就是這個原因。機器在不少範疇上的能力已超越人類千百倍,但目前尚未出現人機爭利的情況,皆因人類有欲望而機器沒有,雙方自然可以和平共存,但隨着人工智能愈發先進,未來便不一樣了。
有飛機工程師研究如何減少航機墜毀的問題,他們想透過人工智能,將飛機的電腦系統設計得很害怕被毀,於是在高空飛行時,若遇上氣流、風暴或附近有其他飛行物,機上的電腦因害怕意外受損,便會自動減速,即使駕駛員想控制加速,系統亦不會接受。這種研究方向本來是為保障人類安全,但若然成功,就是機器向人類抗命的開始。
人工智能是會自己學習的,航機上的電腦既害怕在暴雨中起飛,推而廣之,它也可以不愛在所有雨天中飛行,可以拒絕飛到一切多雨的區域,更可以選擇只降落在沙漠中乾旱的城市,甚至可以偏愛在某一、兩個城市的某一、兩個停機坪停留。一架航機本來可以在人力操控下飛到世界任何角落,但當賦予高水平的人工智能後,它便有了好惡感覺,便會自行「揀擇」,就不再是任由人類操控的儀器了。
飛機有機會反抗人類,其他有人工智能的機器不也一樣?故此霍金提醒人類大限將至,警告創造人工智能或是人類史上最重大的事情,但亦可能是人類犯下最嚴重的錯誤,看來並非空言恫嚇。
沒有留言:
張貼留言