2019年5月5日 星期日

人工智能應用於倫理問題

早前發表不少關於AI的博文:AI會否取代人類但對於AI應用於倫理問題比較少提,報章有文章討論,轉載之:
AI向善」回應疑慮 倫理爭議避政治化
【社評】人工智能(AI)應用倫理問題愈益受到關注,facebook等科網企業透過演算程式,控制用戶可以接觸的資訊,固然備受爭議;亞馬遜家居智能產品暗中蒐集用戶家居信息,同樣令人側目。歐盟率先制定AI道德指引,中國科網巨擘騰訊最近也提出「AI向善」發展觀,回應外界關切。善用AI可以便民,提高生產力,惟濫用風險亦不能低估,各地政府和科技界需要加強溝通對話,處理這一新興課題,避免將AI倫理問題政治化,變成沒完沒了的意識形態紛爭。
AI治安管理講分寸 「監控資本主義」要提防
科技發展不會被現行政策所限制,更不會停下來等待任何人。AI發展一日千里,中美成為領頭羊,不少人都在談論AI可以改善民眾生活,令社會運作更有效率,上月聯合國人居署便跟騰訊等代表在紐約舉行研討會,探討如何利用AI等新興技術,以創新高效手段,實現聯合國可持續發展目標。然而AI確是一把雙刃劍,倘若濫用,就有可能損害普羅大眾利益。AI倫理問題複雜,在於不同社會政治制度之下,具體展現出來的問題亦不一樣,一旦討論變得政治化,很容易變成只看別人眼中的刺,卻不去正視自己眼中的樑木。
針對中國AI發展,西方最關注官方會否濫用AI技術,政治監控人民,例如最近西方輿論便不時批評,中國政府運用人臉識別技術,在新疆大規模監控民眾。內地當局強調維穩,對於網絡信息的政治審查向惹詬病,AI技術會否成為監控新手段,確實需要關注,不過話說回來,除了中國之外,美英等國其實也在積極研究運用AI於執法監控,過度聚焦形而上的意識形態之別,容易忘記形而下的操作分寸拿揑才是問題核心。
若說濫用AI技術風險在中國主要集中在政治層面,當前西方社會面對的最大風險,則是「監控式資本主義」(surveillance capitalism)對個人私隱的剝削侵犯。若說前者意在維穩,後者則是為了追求更高利潤。
「監控式資本主義」是近年才出現的新概念,美國學者蘇波芙(Shoshana Zuboff)用它來形容fbGoogle等美國科網公司不斷搜刮、分析和販賣用戶數據牟利。蘇波芙認為,這是資本主義一種嶄新形式的剝削,而且比過去的更為可怕,因為它不僅無孔不入監控人們生活,還將人當成商品,試圖暗中控制人的行為,追求更多利潤。以前人們認為網上各式服務是免費,現在是監控型資本家視用戶為「免費」的賺錢工具。當用家以Google搜尋資料,其實Google也在蒐集用家情報,並且引導用家回應和選擇。
當前西方很多科技公司都在研發各種軟硬件裝置,試圖掌握用戶的情報和身心狀態。早前亞馬遜智能語音助理暗中錄下家居周邊聲音,交予公司人員分析,便惹來不少非議。另外,有公司研發出暗藏秘密鏡頭的商場廣告燈箱,借助人臉偵測技術,在未經商場顧客同意下,分析顧客年齡、性別以至心情,大賣度身訂做廣告。有英國科技公司則開發出AI管工系統,實時監察員工表現,一旦員工的手離開鍵盤5分鐘,系統會視為「不在工作」。這些發明都惹來侵犯私隱和過度監控的爭議。
國際對話善用AI 政治化礙衷誠合作
提防濫用AI技術,是國際社會需要共同正視的課題,無分政治意識形態或地域。現有的社會規範,明顯追不上科技發展,隨着各國爭相發展AI,當前最大風險是各方但求在這場AI競賽勝出,將倫理道德擱在一旁,又或把AI倫理問題政治化,作為打擊競爭對手的工具,但求拖別人後腿,導致各方無法衷誠合作,妨礙平等對話尋求共識。
上月初,歐盟發布首份AI道德指引,列出7項原則,包括尊重每個人的自主權利和私隱、提高AI應用透明度、防範數據隱含性別偏見種族歧視、確保AI用於促進社會發展等,掀起不少迴響。上周迪拜一場AI高峰論壇,騰訊代表以儒家思想人性本善為本,提出「AI向善」發展觀,以幫助人類提升生活品質、為社會發展創造新可能,作為發展AI的基本倫理方向。西方對於中國企業,總有很多猜疑,然而正如日本慶應義塾大學學者Danit Gal所言,騰訊在AI倫理問題方面所做過的事,不見得比西方科網巨企少,甚至有過之而無不及,例如騰訊有廣邀不同持份者,包括公共利益團體、大學乃至僧侶參與AI倫理討論。中美歐都是當前AI發展主要力量,唯有放下政治有色眼鏡,各方才能展開有意義對話。


沒有留言:

張貼留言