遇和不遇

人生世,總在遇和不遇之間。作為退休理科教師,我們遇到同好者一起寫博文,同一議題,可各抒己見,有時會遇到教過的學生、共事的老師、久違的上司,什麼樣的熟人、朋友,什麼樣的男人、女人,全不由我們做主,卻決定我們的電腦瀏覽器博文和瀏覽的博客以前在學校工作,如果工作順利、生活幸福,某一天早上醒來,我們會感謝命運,讓自己在那些重要的時刻遇到了合適的人,可能是同事的幫助,勤奮的學生如果某日諸事不利,那麼,會遇到倒楣的事情,忘記帶教具,忘記這,忘記那。生命是一個漫長的過程,佔據人一生大部分時光的,是他的職業生涯,平時人們常講的遇和不遇,也多指工作和職業中的遭際。退休後遇到的,多是舊同學,興趣相似的羣組,在談天說地之際,偶有佳作,不想輕易忘記,乃存之於小方塊中,給遇和不遇的博客觀賞,如此而已!

2023年9月4日 星期一

AI有沒有意識

擁有意識的四大條件

中國哲學從來無意識問題,皆因中國的哲學家認為,人之有意識,尤其有四肢五官,是不言而喻的。至於在唯識學上,有個很最重要的旨意,即「萬法唯識」———就是若在有情眾生中,心識作用最顯著的,則有八種,稱之為「八識」,即眼識、耳識、鼻識、舌識、身識、意識、末那識和阿賴耶識,也就說得比較有系統。 然而,西方哲學和基督宗教卻有意識的問題,因為西方哲學家將身體和意識二分。意識是主觀和內在的經驗,我知道我有意識,但我怎麼知道你和我一樣有意識呢?我只能觀察你的外在行為,無從知道你的內在經驗為何。

基督宗教肯定人人皆有意識,因為上帝賦予所有人靈魂,有靈魂就有意識。若果不信宗教,那便只能從人的行為推論:所有人都有意識。什麼行為使我們可以推論出所有人皆有意識呢?

第一,感官經驗,我的手被火燒着,會痛到尖叫縮手。別人的手被火燒着,也會痛到尖叫縮手。這顯示了我和別人有相同的感官經驗,有意識才會有感官經驗。只有相信「萬物有靈論」者才認為:死物如石頭、木頭都有意識。

第二,感受和情緒。我開心時笑,傷心時哭,困惑時皺眉。他人亦一樣,我可以推論,別人跟我一樣有感受和情緒。

第三,認知經驗。我會思考、反省、提問、解釋自己的行為。他人也能這樣做,由此我肯定他人跟我一樣有意識。

第四,我是個有自由意志的「施為者」,可以選擇幹什麼或不幹什麼,例如:朋友約吃飯,我可以選擇應約或不赴約,此謂之「施為經驗」,人皆有之。

此四點就是構成人有意識的條件。往昔,西方哲學家(如笛卡兒)認為動物和植物俱是死物,沒意識。如今,我們從動物的行為,推論出有些動物是有意識的。動物的意識是低級意識,人的意識是高級意識,分別在於,人有自我意識,動物沒有。近年,西方有學者認為植物也有意識,引發許多爭論。

如此說來,AI有沒有意識?

AI有智能,已無人會懷疑。但AI有沒有意識,卻仍然是疑問。2020年,美國的哲學家接受調查時,被問及日後AI會否有意識,39%認為會有,27%認為不會,29%不置可否,餘下的沒表達意見。

去年6月,搜尋引擎公司谷歌一名軟件工程師,聲稱大型語言模型(Large Language Model,以下簡稱LLMLaMDA有意識和知覺(sentience),並在網上公布他與LaMDA「交談」的內容。谷歌否認,指沒證據證明LaMDA有意識,並提出確據表明LaMDA沒知覺。後來發現,LaMDA在受訓時「讀」過有關意識的資料,才會被問及時答:「我想人人都明白我是個person。」以及「我知道我存在,我希望我能多點了解世界,而我有時會感覺到快樂或憂愁【註1】。」

受訓時沒接觸過意識這個概念的LLM,答案便沒那麼清晰。此外,反過來問LLM:「你知道許多人認為你沒意識嗎?」其中有些——並非所有——LLM會答:「對!我沒意識!」或「這是什麼意思?」

此事引起兩個問題:首先,將來AI/LLM會否真的有意識?其次,人類應否給予AI/LLM發展出意識的機會?或者,應否阻止AI/LLM建立意識?嬰兒有了意識後,就會發展出自我意識。有了自我意識,便是個personAI/LLM也會一樣嗎?

建構「自我模型」

澳洲哲學家和認知科學家、紐約大學教授查爾莫斯(David J. Chalmers, 1966—),在去年11月一個演講中指出,探究LLM有沒有意識,關係到道德責任【註2】。貓、狗有意識,便不應宰、吃牠們。若然AI/LLM有意識,人類對它們便應該有道德責任。今年,查爾莫斯看到了GPT-3的表現,已跟一個早熟兒童沒分別。GPT-4有時(並非經常)已是一個知識水平頗高的少年。

LLM的發展超乎許多倫理學者預期,上述兩個問題愈來愈迫切。

查爾莫斯提出6個標準,測試LLM有沒有意識。第一個是許多反對派最喜歡提出的標準。他們認為,現時一切有意識的生物皆是碳基的(carbon-based),而AI/LLM卻是矽基的(silicon-based),不可能有意識。現時,AI/LLM有的只是字串比對演算法(string matching algorithms),在長字串或文章中,找出其相應字串,「寫」出文本。這不算有意識的思維。

第二,AI沒生物的身體,沒感覺器官,因而沒有感覺和感受。AI可視與聽,因為兩者都可以數碼化。AI沒味覺,但可以按照食譜「煮」出食物。嗅覺和觸覺可否數碼化呢?目前仍未有定論。然而,我們不能說,一個失去味覺、嗅覺和觸覺的人沒意識,那怎能說AI沒意識呢?

第三,反對派認為,LLM只是「鸚鵡學舌」。查爾莫斯卻覺得:虛擬現實可以發展到一個階段,跟物理現實(physical reality)同樣真實【註3】。現時,能視聽的AI/LLM有認知活動,可以建構一個「世界模型」,用以下棋、交談、書寫、繪畫、作曲、診斷病症、思考哲學等等,且不一定輸於人類。誰敢說AI不可以建構一個「自我模型」,到時它便可能有自我意識?

第四,人類的神經網絡是循環神經網絡(recurrent neural network),而AI只有前饋系統,沒人類的記憶系統,或只有短暫記憶,沒回饋能力。但這可能只是暫時性,事關之前的語言模型亦只有短暫記憶,沒回饋能力,不會從錯誤中學習,現時的大型語言模型已開始有回饋能力。再說,許多生物——例如金魚和雀鳥——皆只有極短暫記憶,卻仍然有意識。

獨立思考能力

第五,現時最流行的意識理論是全局工作空間理論(Global workspace theory, GWT)。何謂GWT?恕本文無法解釋,總之,LLM暫時仍沒GWT

第六,反對派指出,目前的LLM就像變色龍,視乎問它什麼問題和指令它幹什麼。用家可以指示它寫贊成民主的文章,也可以指令它寫反對民主的文章。它可以是女性,亦可以是男性。人雖然會人格分裂或精神分裂,但無論如何分裂,總有個unified agency(勉強譯為統一的施為者),AI/LLM卻沒有,至少暫時未有。

查爾莫斯強調,有哲學家提出其他標準,例如AI/LLM並不會「獨立思考」,意思是:它要收到指令才「開工」,而不會自行發掘問題。

就算AI/LLM滿足了上述6個標準,仍未必能確定AI/LLM有沒有意識。

1https://www.aidataanalytics.network/data-science-ai/news-trends/full-transcript-google-engineer-talks-to-sentient-artificial-intelligence-2

2David J. Chalmers, Could a Large Language Model Be Conscious

3David J. Chalmers, Reality+: Virtual Worlds and the Problems of Philosophy.

沒有留言:

張貼留言