2022年10月7日 星期五

AI執法——電腦最終可取代人類?

運輸署最近在中環及觀塘兩區試行「AI抄牌」系統,這標誌着AI(人工智能)執法的年代已慢慢在港展開。AI的權力愈大,人的影響力便變得愈小。AI 掌管世界,是好是壞?分析又重回一個重心問題:電腦或AI 最終是否可以取代人類智慧?

塞車問題困擾本港多區,即使警方去年發出330萬張俗稱「牛肉乾」的定額罰款通知書,仍無法解決問題。運輸署擬先後在中環和觀塘的違泊重災區,安裝「自動執法系統」,透過高清攝錄機和人工智能(AI)協助識別違泊個案。
資訊科技商會榮譽會長方保僑稱,據他了解,運輸署為期半年的試驗期內,只會測試系統的AI技術,確定能否準確辨識汽車是否違泊,抑或是塞車致車輛停下,料試驗期內不會用相關資料向違泊個案提出檢控。
方續稱,運輸署收集涉嫌違泊片段,將交予警方「把關」,若系統最終通過測試,將擴至全港其他違泊重災區。觀塘區的測試要在明年5月才完成,亦即最快明年下半年才有望正式啟用。他又估計,下一個被「開刀」引入AI抄牌的地方,將會是有「金魚街」之稱的旺角通菜街和西洋菜街一帶。

方保僑表示,運輸署將會在中環雪廠街和觀塘開源道一帶的違泊黑點安裝高清攝錄機,拍攝車輛違泊情況。據他了解,當局在為期6個月的試驗期內,不會利用相關資料執法,「佢𠵱家呢6個月都係試驗,試驗咗之後佢係唔會抄牌住嘅,只不過係自己做內部測試,證實下究竟係做唔做到。」

皇后大道中近畢打街及近雪廠街觀塘道迴旋處

測試重點要求AI準確辨識車輛是否涉違泊

方續指,透過高清攝錄機拍下車牌「冇難度」,但AI是否能準確地辨識車輛是否涉違泊,才是測試焦點。他以塞車重災區之一的觀塘開源道迴旋處為例,「啲車成日塞喺度,咁佢停喺度5分鐘係咪就代表佢係違泊?定係我都只係塞車咋喎,我塞咗喺度5分鐘,前面唔郁,係咪都會當咗佢違例泊車呢?」

AI抄牌中招罰款額為320

方保僑預料,AI偵測到涉嫌違泊的車輛後,便會輸出片段,運輸署整合後,便會將一系列的片段轉交警方進一步調查。警方確認車輛違泊後,便會向車主發出「考慮檢控」通知書,車主確認後才會正式抄牌。他相信全部抄牌個案都只會「抄車牌」,並不會「抄人牌」,即罰款額為320元,而非較高的450元。

「多功能智慧燈柱」早前因私隱問題而引起軒然大波,方保僑曾是智慧燈柱技術諮詢專責委員會成員,他亦認為今次「自動執法系統」亦有可能會惹起關注,「佢𠵱家就話影唔到樣嘅,就冇用啦,咁呢啲私隱問題點處理,我諗呢啲都係問題嘅地方,所以就要諮詢區議會。」

一個有趣的個人觀察是,對AI認識愈少的人,往往對AI能力的信心反而愈大;相反,在真正了解AI的專家社群內,愈來愈多肯定人類智慧的討論,更提出了「人為監督」(human-in-the-loop)和「人為主導」(human-in-command)等概念,不止重新發現人在AI發展及運作上的重要,在關鍵事情上,更確定了人的凌駕地位。

電腦科技走入巿民日常生活的例子愈來愈多和明顯,甚至已到達了避無可避的地步。就如香港不少餐廳已改用QR code(二維碼),讓客人親自上網點菜。雖然透過店員點菜的選項往往仍然存在,但由於QR code的原意是減省人手,人手少了,客人要店員點菜的話便要多等一會,無形中向不懂得使用或不想使用資訊科技的顧客,提高了服務使用成本或作出懲罰。由於社會上並非所有人均有快速的網絡連接或智能手機,及具有相同的使用科技能力,這些不同待遇可被視為「數碼歧視」;更何况,達不到以上條件的人往往是收入及教育水平較低,或上了年紀的弱勢一群。

AI執法的三大問題

當私人公司於商業業務使用電腦及資訊科技,都可引發不少問題的時候,可想而知,用AI執法所挑起的爭議只會更大。只是初步分析下,亦可發現三大問題,需慎重考慮。

第一,很明顯,是政府所提供的服務和待遇的強制性,而嚴格來說,如抄牌等執法行為,更非服務而是懲罰。跟商業貨品或服務不同,面對政府,市民不可選擇服務提供者,而且在大部分情况下,皆不可選擇拒絕服務。在執法的情境下,接受「服務」更是強制性,例如拒絕警方抄牌或逃走等行為,只會招來更多「服務」——更大的懲罰。

由於政府的「服務」,特別是執法屬強制性,更有可能會對巿民帶來財物上的損失(例如罰款)或權利上的損害(例如因監禁而失去自由),用AI 執法,便必須保證AI 不會出錯,起碼水平不會低於之前的只用真人執法。

執法視乎情境 以智慧判斷方能合情合理

第二個問題是如何達到執法的合理性。要巿民守法,法律必先要合理。一個隨處可見的活生生例子,便是出入商場使用「安心出行」的要求。由於疫情已放緩,及連衛生署自己也在早前承認,由於人手及種種理由,以「安心出行」追蹤患者的緊密接觸者的功能已減弱,使巿民認為進出商場要使用「安心出行」變得多此一舉,遵守規定的人隨即大減。如果一個政府經常執行一些不合理的法律,長遠來說,政府的合法性亦會受損。

執法表面看來是簡單、清晰和直接,但在實際操作上,往往要視乎情境(context),並透過智慧去判斷,才能做到合情合理。舉例來說,若一個人打破別人房屋的窗口進入屋內,並把屋內小孩自行帶走,必定是嚴重的刑事罪行;但倘若當時的情况是正發生火警,這巿民只是因情况危急而衝入屋內救人,結果便180度逆轉,該市民立即由罪犯變成英雄。這便是情境對判斷執法行為的重要性。

再以一個與「AI抄牌」同樣是交通問題的交通燈過馬路情况來舉例。行人在紅燈時過馬路是違法,但若路上沒有任何車輛,而行人只在紅燈面前呆立,是十分浪費社會資源,既浪費了行人時間,也浪費了無車輛或行人使用的路面空間。在智慧城市(smart city)年代,開發智慧交通燈的理由便是為了應付以上情况,使在無行人的時間中,交通燈可長期為車輛開綠燈;相反地,有行人時便轉回行人綠燈,靈活變通,製造雙贏。而在未有AI的年代,視乎實際情境來執法是較合理和常見的做法。

結合以上第一和第二點,若用AI執法的話,必須既確保AI系統能力精準,但又需靈活因應情景而保持執法合理性。這便帶出第三個問題:AI真的有能力同時做到以上兩點嗎?

目前的AI研究可分成「弱AI」(weak AI)和「強AI」(strong AI)兩方面。「弱AI」是指透過電腦運算,包括現時極流行的「機器學習」(machine learning),解決一些可以透過邏輯、數學、數據及統計等來理解的問題。「強AI」的研究野心則大很多,就是使電腦擁有媲美人類的智慧,懂得理解非數學可以徹底掌握,又可因應情境而變化如感情、文化和價值等的隱性知識(tacit knowledge)。

在研究成果上,「弱AI」可以說是進步神速、一日千里,因為它正正在大數據年代發揮了電腦的強項。相反,「強AI」的研究進度卻未如人意,這一點由專門研究「強AI」的公司DeepMind歷年來都是蝕多過賺的財務狀况得到反映。而它開發的人工智能「AlphaGo」雖然在圍棋棋盤上與人類對弈戰無不勝,但其他應用範圍有限,未能達到「強AI」的期望。

須防盲目執法惹民怨

有研究更認為,要發展「強AI」根本是緣木求魚、一個永遠不能達成的幻想。本身是物理學家和哲學家的Ragnar Fjelland簡單直接和斬釘截鐵地指出,因為沒有感情、文化及血肉之軀等因素,而只有數學的零一運算邏輯,電腦根本不屬於人類的世界(not in the world),所以根本不能用人的方式來思想和運作;因此,新的研究方向已逐漸轉向用AI來「加強而非取代人類智慧」(to augment human intelligence, not to replace it)。

 

沒有留言:

張貼留言