遇和不遇

人生世,總在遇和不遇之間。作為退休理科教師,我們遇到同好者一起寫博文,同一議題,可各抒己見,有時會遇到教過的學生、共事的老師、久違的上司,什麼樣的熟人、朋友,什麼樣的男人、女人,全不由我們做主,卻決定我們的電腦瀏覽器博文和瀏覽的博客以前在學校工作,如果工作順利、生活幸福,某一天早上醒來,我們會感謝命運,讓自己在那些重要的時刻遇到了合適的人,可能是同事的幫助,勤奮的學生如果某日諸事不利,那麼,會遇到倒楣的事情,忘記帶教具,忘記這,忘記那。生命是一個漫長的過程,佔據人一生大部分時光的,是他的職業生涯,平時人們常講的遇和不遇,也多指工作和職業中的遭際。退休後遇到的,多是舊同學,興趣相似的羣組,在談天說地之際,偶有佳作,不想輕易忘記,乃存之於小方塊中,給遇和不遇的博客觀賞,如此而已!

2023年12月28日 星期四

問題AI

        人工智能(AI) ChatGPT是OpenAI開發的人工智慧聊天機器人程式, 懂得解答問題,但AI同時產生不少問題。

AI有「幻覺」 時常會「說謊」

  AI爆紅,這股由聊天機器人ChatGPT引發的風潮,在為人們帶來工作學習方便的同時,也讓外界認識到其潛在的不足和破壞力。不少用戶在使用ChatGPT等工具時,都會發現人工智能其實會「說謊」和捏造事實,絕非萬無一失。這種現象被稱為「AI幻覺」(AI Hallucination),其生成的答案真假難辨,甚至可以騙過專業人士的慧眼。專家指出,人類仍需在應用中干預AI的行為,包括在面對AI生成的信息時應格外注重事實查核,防止「AI幻覺」混淆視聽。我們可以從多個角度探討人工智能的利與弊。

  近日,英媒曝出美國得州的特斯拉工廠曾於2021年發生流血事故,工廠內的機器人發生故障,「襲擊」了一名工程師致其受傷,成為「AI可傷人」的最新例證。同為AI的大型語言模型(LLM),即ChatGPT背後所使用的技術,亦有發生故障的可能,即系統產生「AI幻覺」。該情況發生時,AI會根據使用者的提示產生虛假的捏造信息,可能會對原文增刪、竄改,甚至杜撰內容,並將這些存在謬誤的信息「一本正經」地作為答案傳回給使用者。

  就原理而言,大型語言模型接受了大量資料的訓練,它們利用這些知識來「理解」使用者的提示,並產生新內容。AI聊天機器人本質上是在預測句子中最有可能出現的詞語,因此它們有時會產生聽起來正確但實際上十分荒謬的答案。

AI為答問題「不擇手段」

  香港浸會大學高級講師、AI和數字媒體課程副主任保羅.門戈尼博士接受採訪時指出,儘管AI用於構建答案的信息可能均為真實,但多個真實條件聯繫起來構建出的答案未必會符合邏輯。

  對於AI幻覺的可能成因,門戈尼通俗地解釋稱,由於AI的設定限制了其對於用戶提出的問題「不能不知道」,因此會造成其想盡辦法回答用戶的問題,即使提供的答案存在謬誤,產生如AI幻覺的行為。

   目前對於AI幻覺產生的錯誤信息,仍無準確有效的辨別方法,而這些錯誤信息甚至能夠蒙蔽住專業人士的雙眼。11月,一名巴西法官被發現使用ChatGPT撰寫的裁決出現多處法律案例上的錯誤。美國紐約一名執業30年的律師在5月份被發現在法庭文件中引用的多宗案例及文章內容均為虛假,他承認曾依賴ChatGPT搜尋資料,並已反覆向AI確認這些資料的真實性。

  OpenAI和谷歌都警告用戶,AI聊天機器人可能會犯錯誤,並建議用戶在使用時仔細檢查其生成的答案。

勿依賴AI生成內容

  門戈尼表示,AI如同人一般會犯錯,且其犯錯是很正常且相對常見的。但其亦同人一般會從錯誤中學習,從而進步。他指出,通過以更多數據對AI進行更多的訓練,將有助於減少AI出現幻覺或出錯的機率。這也是訓練AI模型的核心,讓其在不斷犯錯中通過其神經網絡不斷學習改進,從而減少未來犯錯的機率。

  門戈尼稱,目前階段,AI對於人類最大的幫助仍是協助進行「頭腦風暴」,為人類提供思路與基礎。他指出,AI背後大量的數據能夠使其生成更多更好的想法,但是由於目前AI的邏輯能力仍然相對有限,其生成的一些想法可能脫離現實或無法實現,故而仍需人類承擔最終決策者的角色。

  至於為何人類仍需在應用中干預AI的行為,門戈尼認為,在技術層面上,由於訓練AI的算法及原理限制,AI的行為極可能存在偏見;而在道德層面上,AI則無法為其行為付出代價,故而AI不可能完全取代人類。不過他也指出,不能因AI存在犯錯的可能性就忽視其巨大的創意潛力,因噎廢食,拒絕科技進步。

  由於當下使用AI生成內容愈發普遍,門戈尼建議人們在使用AI的過程中,切勿對AI生成的內容產生「依賴感」。他還提醒普通民眾,應時刻秉持懷疑精神。在接觸AI或疑似AI生成的信息時,不應盡信自己所見所聽,主動進行事實查證,以人類的身份成為AI生成信息的最後一道門檻,「這也是為何人類在AI行為中不可或缺的原因之一。」

警惕AI污染

  幾個月前,在會議上結識了一位研究AI的教授。對於AI,他不僅研究,而且痴迷,幾乎每天在朋友圈發布他與AI交流合作的結果,有時是片段文章,更多時候是填滿九宮格的AI設計作品,畫風忽奇幻忽凌厲,樹騰雲,風捲花,狗生翅,魚化鳥,怪異不可名狀。起初我還頗有興趣欣賞一番,後來望而卻目,不忍直視,終於關閉了他的朋友圈。

  在微博上看到有位博主指出人類數據庫被AI生成圖污染的問題越來越嚴重了,聯繫到我自己的經歷,不免心有戚戚焉。隨着AI的發展,它們生產的文字和圖像越來越多,對著名藝術家的模仿之作,幾可亂真。這些內容被發布到網上後,常人很難甄別。AI生成的還包括聲音,比如「替」著名歌手唱歌,前段時間火爆一時的AI孫燕姿便是一例。這些AI製品剛出現時,確帶給人刺激和新奇,但若無節制滋長,特別是無意義的AI仿作大量出現,則需反思。

  我猜想,虛擬人、智能機器人進一步成熟後,AI生成的動作也會變多,它們不僅可以仿效體操健兒、舞蹈家和武林高手,還能發明許多真人的筋肉骨節不曾或無法完成的動作。而所有這一切,包括文字、圖像、聲音、動作,都將匯入人類數據庫。弔詭的是,正是在對AI的訓練中,我們愈發認識到數據庫之重要。AI是以數據庫為糧倉的,從中「吃」到什麼,營養如何,決定着它的成長。已有研究發現,人類數據庫目前已跟不上AI生長所需。據預計,在當前趨勢下,二零二六年高質量文本數據將被耗盡,再過二十年低質量文本數據亦將用罄。如果任由AI製品不斷入庫,AI或將實現自給自足?但若真的到了這一天,又會帶來何種結果,我無法從專業上回答這些問題,但作為真人類文化的保守派,卻隱隱覺得不妙。或應給AI製品加個標籤,將其與人類製品相區分,讓AI的歸AI,人類的歸人類,至少可算權宜之計吧。

沒有留言:

張貼留言