如何拉開 AI 與惡的距離? 專訪中央研究院法律學研究所特聘研究員
從進入停車場的影像車牌辨識、網路上即時問答的聊天機器人、在 X 光片上指出病灶的智慧醫療、一直到可以自動跟車的自駕車,近年來 AI 人工智慧技術持續在各領域中茁壯發展。 在新技術以每日新又日新的速度改變社會與生活的同時,也有許多人憂心 AI 技術存在著更多樣的潛在威脅, 其所衍生倫理與法律議題,可能是既有的法律難以管控的。 法律等公權力應該如何介入,在確保技術發展的同時,不至於造成嚴重的社會問題? 本次科技大觀園專訪中央研究院法律學研究所特聘研究員李建良,從法律的觀點來討論 AI 科技興起可能帶來的隱憂。
AI 技術載舟抑或覆舟,癥結仍在於「人」
「當一個技術對人類有更大的益處,法律就應該幫助這個工具,讓正面效應可以擴大。」 有別於法律給人強調「防弊」的印象,自 2018 年就開始組織研究團隊,投入研究「人工智慧法律問題」的李建良,在討論 AI 議題,首先強調的卻是新技術為善的龐大潛力。 李建良認為,AI 的本質就是新技術。技術本身是中立的,妥善使用會帶來前所未見的好處, 舉例來說,自駕車相較於人類駕駛,不存在酒駕或過勞的問題,也會有更靈敏的反應跟路面的覺察能力,顯見有極大的正面效應。
而當然,法律最重要的功能之一仍是規範與防弊, 談及 AI 的議題時,李建良強調 AI 技術與任何新興的科技並沒有什麼不同。 新科技各種為惡的情況,多數本質上都是舊有的議題變形, 「新的技術可能會強化原有的惡行,讓人更容易受害,但仍然是使用者所造成的。」 李建良觀察,以某位網紅使用深偽技術(Deepfake)製作不雅片為例,在深偽技術可以快速進行「換臉」之前,原本即存在類似的影片。 只是相關的犯行使用了 AI 技術,享用了新科技更快速、更無從察覺的特性,而在被揭發之後也更加引人矚目。
「但本質上,這些都是現有法律就已經在處理的罪行。」 李建良認為,並不是所有與新技術相關的犯罪或議題都需要重新制定法規做處理,許多現行的法條就已經足夠。 只是現階段的人類社會逐步數位化,執法層面也需要許多的改變,才能更因應走向「紅樹林社會」兩棲在網路與實體生活中的犯行。
AI技術爆發,挑戰各領域重新思索倫理與法律規範
當然,隨著 AI 技術的引爆,法律領域也顯而易見面臨相關的挑戰。 現階段綜觀國際,其實並沒有真正的法律在管控 AI 技術的發展, 李建良觀察,要立法管束,目前實務上至少存在著兩大困難需要克服。 首先,AI 牽涉廣泛,包括醫療、自駕車、機器人、社群等諸多領域,難以使用單一法規完整規範。 其次,AI 技術存在著主要管控對象、範圍難以界定,以及該如何界定方不致危害自由的議題。 李建良舉例,現階段社群媒體營運端使用 AI 演算法調整使用者接收到的資料, 而當這類的技術持續進步,就有可能有機會進一步操控使用者的想法或行為、藉此為惡。 像這樣的 AI 應用存在著龐大的不平等空間,需要法律與公權力的介入。 但應該如何適當介入、何時介入,而不至於限制相關技術的發展空間,還需要非常多的討論與研究。
由於 AI 技術牽涉的範圍非常廣泛,李建良指出,最終可能不是一套 AI 的專法做規範,更有可能是在各領域發展各自的限制與要求, 而且這個過程將會是漸進的。 在法制面逐步完善之前,AI 發展的倫理準則也就更加重要。 2019 年科技部(現已改制為國家科學及技術委員會)揭示了八個目標方向的「人工智慧科研發展指引」,可以視作 AI 研究的官方規範指南。 但這些指引的內容都屬於大方向,各領域需要進一步探索落實細節。
對此,李建良也提出一個管制設定的思路,相關的討論可使用「問題取向」做思考, 透過列出會危及原則的條件,來訂定規範。 舉例來說,要求 AI 技術不得侵犯「人性尊嚴」,就應該討論 AI 技術在什麼情況下會對「人性尊嚴」產生威脅,然後加以限制、進行維護。 「在各領域中,怎樣是可信賴的?各種原則性的東西,最終都要跟各領域的特性做結合,」李建良強調。
不僅仰賴法律的制定,各領域持續、不懈怠的討論與精進,將是未來人類善用 AI 技術的唯一道路。