21世紀AI 以前所未有的速度與能力拓展,並在今年以生成式AI ─ ChatGPT 硬生生全面進入大家的日常生活中,只要有手機即可與之互動。隨著各式各樣的人工智慧服務被推出,AI 將更全面且深入的進入人類的食衣育樂住行中。科技樂觀者樂見其發展,但其風險跟負面影響也同時需要被重視。
科技巨頭面對強勢競爭是否還能堅守科技倫理與隱私權保護?當人類到了科技新紀元,是否有足夠信心跟謹慎意識到 AI 的風險並嘗試集結各國之力規範基於風險的立法?而當人類可快速獲取知識與答案,教育的意義又是什麼?使用AI 時也得更全面知道他可能帶來的影響跟因應方式,歡迎一起加入討論吧!
AI 教父辭職谷歌
被稱為「人工智能教父」的杰弗理·辛頓(Geoffrey Hinton)博士在今年四月宣布從谷歌離職。根據《紐約時報》上的專訪,辛頓表示他「後悔畢生的工作」、「很難看出我們要怎麼預防有心人士拿它來作惡」。擔心在科技巨頭劇烈競爭下,道德倫理跟監管尚未跟上時,不斷推陳出新的AI 技術,「殺手機器人」終有一天可能成真,對人類造成威脅。
辛頓博士在2012年與兩名學生在多倫多大學研究的人工神經網路(ANN),是近年來人工智慧發展的基礎,近半世紀辛頓博士協助開發ChatGPT 等聊天機器人的核心技術,直到四月底提出對AI 的擔憂辭職離開谷歌。
博士指出谷歌直到去年為止都是科技界的好管家,謹慎對待推出的技術跟影響力,但後來微軟推出Bing(聊天功能的搜尋引擎)挑戰谷歌,科技巨頭陷入一場無法阻止的競爭,難守道德倫理底線。AI 聊天以假亂真的回應方式,跟大量生產圖文的能力,辛頓擔心網路上將充斥虛假的照片、影片和文字,普通人將「再也無法辨別真相」。同時擔心未來的人工智能技術會對人類生存構成威脅,因為機器學習時常從分析的大量數據中學習開發者也意想不到的行為(湧現行為),AI 語言模型甚至能學習自我複製,以防原始模型被停用。
辛頓表示:「我認為人們不應該擴大人工智能研發規模,直到他們明白自己是否可以控制它。」
(重點擷取:“AI教父”從谷歌離職,警告AI風險:對自己畢生的工作感到後悔 | 區塊鏈 | 鉅亨號 | Anue鉅亨)
馬斯克等千人簽署公開信:呼籲暫停AI 實驗
在今年3月22日未來生活研究所(Future of Life Institute)透過網站發布一封《暫停大型人工智慧研究》的公開信,基於目前世界各國對於AI應用尚缺乏明確規範,認為所有AI 系統應要等到開發者足夠明白將會產生哪些影響跟風險,並確認是可控的之後,再持續開發。並於信中強調,人工智慧研究和開發應該重新聚焦於使當今系統更加準確且透明。
公開信訴求包含:
1、呼籲所有人工智慧實驗室立即暫停研發比GPT-4 更強大的AI 系統訓練,暫停時間至少6個月。
2、這種暫停應該是公開和可驗證的,並且包括所有關鍵參與者。
3、如果不能迅速實施這種暫停,政府應介入並暫停。
4、暫停期間AI 實驗室和專家共同開發安全規範,建立可信任的AI 系統,並由外部獨立人士嚴格稽查。
5、AI 開發人員應與立法機關合作,加速AI 治理系統的建立。
此公開信並非要求全面停止AI 研發,而是先暫停發展進度,希望在越演越烈的科技巨頭競爭前急時喊停,避免開發出不可預測跟不透明的AI 模型。公開信贊同OpenAI 曾經表達的觀點,認為在訓練未來AI 系統前應獲得獨立審查,並且限制投入開發新模型的運算資源。此封公開信獲1300多人連署,包含特斯拉執行長馬斯克Elon Musk、蘋果共同創辦人Steve Wozniak、通常被稱為「AI教父之一的」班吉歐(Yoshua Bengio)、AI領域研究先驅羅素(Stuart Russell)和Stability AI 執行長莫斯塔克(Emad Mostaque)等。
P.S.未來生命研究所是一家非營利組織,創立於2014年3月,創辦理念是降低核能戰爭風險,並改善 AI 治理。
(公開信:Pause Giant AI Experiments: An Open Letter - Future of Life Institute)
Open AI 回應馬斯克暫停AI研發的公開呼籲信:
開發出ChatGPT 的OpenAI 公司執行長奧特曼(Sam Altman)並未在連署名單,在公開信發出後回應,OpenAI 注重安全,否認正在研發功能更強的GPT-5,並透露公司正在研發GPT-4 的附加功能,以解決安全問題。奧特曼強調:「能力越強大,安全門檻也越高」。
AI隱憂與爭議
(一)擴大貧富差距
AI 教父辛頓博士受訪時表示他擔心AI 的快速發展會擴大貧富差距,使社會變得更加暴力。
勞動力的大量自動化,導致大量低技能勞動者失業,因失業致貧。 同時,人工智能帶動了新職業的興起,受教育獲高品質的人才更加富有。 企業之間擁有AI 優勢的大企業以科技優勢生產高科技新產品,減輕人力物力壓力,實現高效收益,但不具備技術優勢的小企業需要採用原始的生產方式,效率相對低的同時支付高昂的人工成本。而貧富差距更會體現在國與國之間,科技巨擎以龐大數據資本競爭開發,他國則被動跟上新潮或擔心產業衝擊。發展中國家的吉尼係數(判斷年所得分配公平程度的指標,數值愈高越不平均)比已發展國家的還高,主要原因是發展中國家的AI 自動化使用差距更大,產品生產方式更原始。而已發展國家已掌握AI 轉化成新生產力。整體而言人工智能會拉大貧富差距。
(參考資料:
https://www.researchgate.net/publication/366880061_AI_Widens_the_Gap_between_the_Rich_and_the_Poor)
(二)AI偏見與歧視
AI 倫理中討論最廣泛的問題就是預測性分析系統中的偏見與歧視問題,以下舉出幾個實例,反映社會最嚴重的偏見跟發生原因。
1、Amazon 亞馬遜自動朝聘系統歧視女性
曾經亞馬遜使用了 AI 藉由查看以前候選人簡歷,分析求職者跟各種職位的適合性。但因為女性以往在技術領域難以被肯定取得職位,將之前就存在的性別偏見再次帶入,演算法也傾向於選擇男性,最終在2017年終止此系統。
2、COMPAS 種族偏見與再犯罪率
COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) 是美國預測再犯罪率的工具,由Northpointe,Inc.研發。2016年ProPublica(紐約獨立非營利媒體)調查後發現此系統預測黑人相比白人更有可能被錯誤判斷為具有更高的再犯風險,並在其他變因都受到控制時,有高達77%的可能性黑人罪犯相比白人罪犯被認為是更高風險的。
How We Analyzed the COMPAS Recidivism Algorithm — ProPublica
3、美國醫療保健低估黑人病患需求
2019年研究人員發現,用於美國醫院的AI 系統分析超過2億人的醫療保健成本歷史,以成本評估哪些患者需要額外醫療照護。但這忽略黑人和白人患者不同的支付方式,整體來說黑人患者的醫療費用低於同等條件下的白人患者,因此系統得出黑人患者比同樣患病的白人患者更健康的錯誤結果(黑人患者獲得更低的風險評分),在相同需求下也無法獲得和白人患者一樣多的額外護理,估計種族偏見的計算方式使被確定需要額外護理的黑人患者人數減少了一半以上。
https://www.science.org/doi/full/10.1126/science.aax2342
4、ChatBot Tay 分享歧視推文
2016年微軟推出Tay 聊天機器,希望能在Twitter上與用戶對話互動中學習。但不到24小時,聊天機器人就開始分享種族主義、恐跨和反猶太主義的推文。它從與用戶的互動中學會歧視行為,不乏用戶對機器人提供煽動與歧視性言論。
以上例子皆是著名的AI 數據中的偏見,造成了嚴重歧視。因此要如何篩選與過濾掉歧視言論,是需要更被重視的議題。此外隨著AI 的可及性越來越廣,也需要容納不同的聲音跟需求,才能讓AI 的使用是正義且普及的。
(三)錯誤資訊(misinformation)
目前ChatGPT 與微軟Bing 被廣泛使用,但使用者常常會發現機器人一本正經的講出非事實的論述。當AI 聊天機器人給出錯誤答案時,稱之為「幻覺問題」(hallucinations problem)。但因為他們被訓練得很有禮貌、很會表述,因此一般大眾通常難以分辨話中真假。
紐約大學(New York University)教授Gary Marcus 說,「我們所創造的模型比較被適合理解為推論的機器,而不是一個事實的資料庫。」、 「我們希望他們所做的是更接近推理的能力(ability to reason),而不是記憶的能力。」聊天機器人未來將成為一大搜尋引擎,在資訊爆炸的後真實世界中人們更要學會查證與媒體素養能力。
(參考資料:人工智能缺陷與誤覺:讓機器產生幻覺的「怪異事件」 - BBC 英伦网)
(四)深度偽造 (deepfake) 假新聞
Deepfake 為 deep learning 和 fake 的組合,指透過AI 技術加工圖像或影音檔,常見應用是將影片中的人物置換成另一張臉,讓指定的臉出現在影片中,通常帶有惡意意圖。目前常見應用將名人的臉挪用至另外影片,如川普宣布核戰爭的唇形同步影片、歐巴馬被黑辱罵川普、烏克蘭總統澤倫斯基呼籲烏克蘭士兵放下武器投降的假新聞等,還有台灣2022年鬧得沸沸揚揚的小玉換臉A片使近120女性受害事件。
深偽技術並不全然是不好的應用,如《星際大戰:俠盜一號》片尾出現年輕萊雅公主,就帶給老影迷許多驚喜。一項技術的產生本身中立端看使用者心態,用在如心理戰、假新聞、影響輿論跟選戰,操縱人民成為侵蝕民主的利器,造成的負面影響就會很大。目前台灣在deepfake 影片監管上目前為製作不實影片並散布營利,最高處7年有期徒刑。雖有法律監管,但閱聽人不求上車與能「分辨真假」的查證心態才是更關鍵的。
(五)隱私權
根據清華大學人文社會AI 應用與發展研究中心博士後研究學者甘偵蓉于2022年12月刊登在科學月刊的文章〈個人隱私在AI 時代面臨哪些風險?資料治理的重要性〉,點出三個可能會侵害個人隱私的AI 演算法。
1. 個人資訊側寫
演算法蒐集個人資訊、分析建立資訊側寫(profiling),資訊側寫是一組以代碼標示特定個人的數位檔案,含個人資訊與數位足跡,通常是軟體或平台建置。舉例社群軟體追蹤貼文、照片、互動行為等都會被蒐集,分析使用者偏好,後續精準投放廣告,建立客製化的使用者介面。
2. 含個人資料的資料庫販售
資料庫可串連延伸運用,包括數據仲介公司整合不同管道或購買的數據,建立個人數位資訊側寫庫。這些資料庫可供販賣給客戶,並進行分析、預測,或媒合不同客戶的數據,取得仲介費等。舉例來說,旅遊公司將客戶資料交給數據仲介公司,後者根據客戶喜好分類,旅遊公司可推播符合偏好的旅遊廣告。數據仲介公司亦可媒合旅遊公司與防曬乳產品公司,讓運動用品公司向喜愛戶外活動的客戶投放廣告,旅遊公司和數據仲介公司都可賺取廣告費。這樣的延伸應用提供更精準的廣告投放和商業媒合機會。
3. 重新識別化個人資訊
數位資料可以無限複製儲存在多個地方,儘管演算法通常將資料匿名化處理,即使無法直接或間接識別個人,透過資料合併、串連和比對,仍有可能重新識別(reidentification)出個人身分。現代AI 演算法的預測能力使得數位平台和軟體能夠預測個人行為模式,進而推薦產品或投放廣告,增加個人隱私受侵害的風險。
(參考資料:個人隱私在AI時代面臨哪些風險?資料治理的重要性 - 科學月刊Science Monthly)
(六)著作權
隨著像MidJourney 的AI 繪圖工具出現,輸入文字後不到半分鐘就能生出相對應圖片,讓人好奇 AI 的藝術創作應受著作權保護嗎?如果拿別人的著作給AI再製,經過AI的再創作,是否構成侵害著作權?台灣現在有AI 繪圖的著作權嗎?
目前台灣著作權法規定著作權的保障對象限於「人類」的作品,由機器或技術的創作目前尚未有著作權,但未來仍可能有「擬制的人」的空間。而MidJourney 的關鍵字製圖,著作主體會是輸入關鍵字的人類還是行成圖像的AI技術呢?隨著AI 參與創作的機會越高,延伸出兩個分類─AI 為輔助創作與AI 是獨立創作。關於AI 在音樂、圖像、影音等創作越來越多,相信著作權的保障與分類會隨討論度增高而漸漸定案。
(參考資料:我用AI人工智慧做的圖有著作權嗎?臺灣怎麼規範?|法律百科 Legispedia)
(七)演算法對人類行為的影響
演算法對人類行為的影響可參考由美國哈佛大學教授 Shoshana Zuboff 提出的監控資本主義(Surveillance Capitalism),指私營企業和政府透過演算法在平台上蒐集使用者的數位足跡,以個人化服務推送廣告、過濾篩選出現在每個人介面上的資訊、建立二元同溫層,並將使用者資料交給第三方單位蒐集用戶個資,從過程中從過程中藉由大數據以預測和控制人類的行為。
最震驚世界的莫過於2018年震驚全球的「劍橋分析」事件,指英國一家名叫劍橋分析公司在未經Facebook 使用者的知情或同意獲取數百萬臉書用的個人數據,方式是用人格測驗App 吸引用戶使用,用戶在不知情的情況下洩漏個人與朋友的資訊給劍橋分析,造成8700萬筆資料外洩,並在後續作為政治廣告意圖,如幫川普當選、英國脫歐。收集用戶資料後劍橋分析將數據建成心理模型,廣大使用者被操弄其中卻渾然不知。在2022年Meta 同意支付7.25億美元作為和解。
(參考資料:https://www.bnext.com.tw/article/55756/cambridge-analytica-election-taiwan-facebook)
劍橋分析指是演算法侵蝕民主的其中一小環節。隨著AI 跟網路填斥在生活中,使用者數位足跡的蒐集、分析、干預到預測,會變得更全面且危險。監控資本主義提到我們現在到了最新的時代,之後會區分資本主義的階級會是數據,誰掌握了大數據就會站在資本主義的尖端。承認其對於民主的侵蝕並對此有所批判,在上網的同時有意識的保護自己的資訊跟持續倡議,才能逐漸建立跨國際的單位監管資訊與保護隱私權。
(參考資料:The Age of Surveillance Capitalism | Shoshana Zuboff | IAI - YouTube)
可能解套方式
(一)法律規範
美國、歐盟、德國、日本和中國等國家紛紛提出了應對人工智能發展的國家策略和規範,如美國的「人工智慧風險管理框架」「AI 權利法案藍圖」、歐盟的「人工智慧法草案」、韓國的「智慧資訊化基本法」以及中國的「新一代人工智能發展規劃」,都能看出各國對AI 基於風險立法的重視。
AI 監管容易面臨幾個難題包含無法有效衡量風險、難以實際援引現有網路或數位監管經驗、扼殺創新動能、或是要隨推陳出新的技術改變監管力道等,監管的時機點也是一大考量。目前對於AI 是否需要監管各國有各自觀點,但AI 風險需要被妥善跟謹慎處理,是國際間的共識。
今年三月歐盟達成《人工智慧法》(Artificial Intelligence Act )協議,為生成式AI 設立版權規則,以風險為基礎分級管制,也是世界上第一個規範人工智能的法律,若會員國或其他國家積極認同,也可跟上將內容轉為具有法律效力的國內法。
美國目前沒有AI 基本法,只有幾個法條中納入AI 條款。2020年美國白宮提出「AI 應用監管指南(Ethics Guidelines for Trustworthy AI)」提出美國聯邦機構在制定人工智慧應用相關規範時要考量的十項基本原則。此外伊利諾州的AI視訊面試法跟加州的聊天機器人揭露法也接續被提出跟討論。2022年美國國家標準暨技術研究院NIST 通過「人工智慧風險管理框架(AI RMF)」草案,促進AI 正確性跟避免歧視性;白宮科技政策辦公室(OSTP)也於十月發布「AI權利法案藍圖」,指導AI 的自動化系統建立。今年五月Google、微軟、OpenAI、人工智慧研究公司Anthropic的執行長們也和總統與高階官員討論AI 立法問題。
台灣也在今年擬出「人工智慧基本法」草案,還在持續商討中,目前期盼數位發展部為主管機關。
(二)公開評估AI系統
除了法律規範之外,公開的AI 系統評估也是重要的。在2023年05月白宮會議之前,包括微軟和Alphabet 在內的主要人工智慧公司承諾參與對系統的首次獨立公開評估,在八月的會議上AI 系統可供駭客和專家們測試與評估。希望藉由外部人員的檢測與試錯,幫助公司解決現有問題,並協助識別產品漏洞後修正。如何讓AI 更能被解釋且透明,如暫停AI 研發的公開信所言,公開評估AI 系統是不可或缺的。
(三)滿足多元需求的AI 服務與應用
當AI 發展勢不可擋必成趨勢,如何讓其服務能滿足不同需求的人們,也是AI 應用正義與普及性的重點。如現今有高達80億語音助理(voice assistants)如Siri 的應用,但其語音辨識對唐氏症的人不友善,無法辨認他們說話的內容,進而提供服務。因此一家加拿大的唐氏症非營利組織與Google 合作,邀請許多唐氏症的人提供自己的聲音,讓系統有足夠數據訓練,希望唐氏症的人也能享有方便的語音助理服務。
另外目前AI 應用多是利益導向,蒙特婁大學知名AI 學者Yoshua Bengio 表示希望能夠更激發研究人員轉往社會公益導向的AI 應用。
CDSS and Google partner for Project UnderstoodDonate your voice to Pro...
(四)重新探討教育的目的
隨著生成式AI 與ChatGPT 相繼問世,對於獲得答案與產出已經不是難事,獲取知識的管道也越來多元、豐富且快速。當這些科技工具出現,對於老師、學生與教學現場也帶來許多衝擊,同時讓人開始思考,教育的意義是什麼?
大學若要跟社會接軌,勢必容納AI 進入教學場域,日後隨需求漸廣,學生也要學習如何輸入指令,並學習更多AI 的應用。隨著資訊蒐集越快速,如何從大量數據當中分辨真偽並建立批判能力也是極其重要的素養養成。網路一輸入就能得到答案,教育方式也要從填鴨式的背誦到去看見文本與史觀之間跟人的連結,知識不再是死的,而是更深入的去探討這些歷史或知識如何在現實世界中運作,之前的歷史如何在現代的政治發揮影響?後真相時代真相的追求是甚麼?我們又處在權力架構下的哪個位置?越來越鞏固的資料數據趨於同質性,話語權與資源分配的不平等更加隱性且全面的影響整個社會與一件資訊的傳遞,而教育的意義即為練習在不是非黑即白的世界裡建立分辨真偽跟建立價值觀的過程。