2023-05-29
AI發展太快惹恐慌!歐盟、加拿大搶先全球立法規管!OpenAI建議華府成立專責監管機構
由ChatGPT催生的生成式AI熱潮風靡全球,雖然創造了商機,但也衍生出不少亂象,迫使全球政府思考如何平衡AI的創新和規管;當中以歐盟與加拿大的立法行動尤為積極,著眼於推出強力法規。當業界擔心過度監管或會窒礙AI產業的成長之際,OpenAI執行長奧特曼竟然跳出來高喊政府要介入監管,更呼籲成立類似國際原子能總署的權威機構為產業制定規則。為甚麼奧特曼如此高調表態支持立法監管呢?究竟歐盟與加拿大的AI法案又有多嚴厲呢?
參議員:不可錯過規管AI機會
2023年5月16日,美國國會針對AI監管的聽證會,由參議員李察·布魯門薩爾(Richard Blumenthal)的發言揭開序幕。但有趣的是,他發言時嘴巴並沒有動,原來他正在播放一段由AI生成的錄音——講稿是由ChatGPT產製,然後用電腦合成他的聲音輸出成錄音檔。布魯門薩爾的做法是要凸顯生成式AI帶來的潛在風險,以及要受到監管的必要性。
美國參議員布魯門薩爾在聽證會上播放一段由AI生成、酷似其話音的演說錄音。他表示,AI能夠製作出如此逼真的錄音真是太神奇了,惟潛在威脅卻同樣可怕。(圖片來源:Twitter@SenBlumenthal 帳戶)
參議院司法委員會委員祖殊·霍利(Josh Hawley)警告,生成式AI可能是人類歷史上其中一項最重要的科技發明,但也有可能會產生像原子彈般的嚴重後果。資深參議員迪克·德賓(Dick Durbin)亦指出,當下AI爆紅跟20年前社交媒體崛起的情況非常相似,惟當年美國政府卻選擇不干預社交網站發展,以致近年問題叢生卻難以管制,所以絕不能重蹈覆轍,錯過監管AI的機會。
參議員德賓指出,當年美國政府錯過監管社交媒體的機會,不希望在如今的AI盛世也犯上同樣錯誤。(圖片來源:Twitter@SenatorDurbin 帳戶)
面對如此嚴厲的質詢,獲邀出席聽證會的OpenAI共同創辦人兼執行長山姆·奧特曼(Sam Altman)卻出乎意料地配合,甚至主動要求政府立法監管行業。他認為,即使AI可以幫助人類解決很多問題,但也可以強大到用難以預測的方式改變社會,而政府監管正是降低風險的關鍵。
OpenAI執行長奧特曼(右)出席國會聽證會時,表現得非常配合,甚至多次主動要求政府監管介入,因此與包括布魯門薩爾(左)在內的參議員相處融洽。(圖片來源:Twitter@SenBlumenthal 帳戶)
OpenAI提出AI監管3大建議
針對政府應如何監管AI產業,奧特曼似乎是早有準備,即席提出3項建議:
第一、建立一個新的政府部門,專責為AI的大型語言模型頒發許可證;假如發現有AI模型或公司不符合政府標準,該部門有權撤銷其許可證。
第二、為AI模型制定一套安全標準,評估其危險性。根據這套標準,AI模型必須通過安全測試,譬如有沒有「自我複製」或「向外滲透」的能力,以驗證它們是否懂得自主行動,不受人類控制。
第三、尋找獨立專家對AI模型各種指標上的表現作出獨立審查。
但對一些最具爭議性的問題,奧特曼卻沒有正面回應。譬如AI模型的數據訓練過程是否要透明化,並詳細列出訓練數據的來源;又例如AI應否使用版權作品進行數據訓練,而AI公司該如何補償相關的版權持有人等,他都避而不談。
網民:立法監管有利於OpenAI
儘管如此,奧特曼在聽證會上表現出來的合作態度,已讓一眾國會議員們非常滿意。相比起早前Meta執行長馬克·朱克伯格(Mark Zuckerberg)出席聽證會時,與議員之間劍拔弩張的氛圍,奧特曼明顯受到較友好的對待。基本上,議員們沒有批評OpenAI的做法,而是客氣地徵求奧特曼對AI監管的意見。畢竟,以往幾乎沒有科技公司高層主動要求政府監管行業。
然而,不少人對奧特曼的建議卻不太認同。有網民認為,OpenAI佔據業內領先位置的當下,積極呼籲政府插手監管,可能會對其他公司構成不利的競爭環境。更有AI研究人員指出,這其實是一種反競爭行為,因為獲頒許可證才能進入市場的做法,可能會難倒小公司,最終只會讓AI技術集中在少數大型企業手上。
奧特曼建議,日後AI公司要進入市場,必須獲得監管部門頒發許可證。但有AI研究人員質疑,此建議只對大企業,對小公司或研究人員卻非常不利,其實骨子裏是一種反競爭行為。(圖片來源:Twitter@sama 帳戶)
面對外界眾多質疑,奧特曼依然堅守其引入監管的立場。2023年5月22日,奧特曼跟另外兩位OpenAI 創辦人:董事長布格雷格·布羅克曼(Greg Brockman)、首席科學家伊利亞·蘇茨克維爾(Ilya Sutskever),在公司官方網誌聯合發文,提出需要有像國際原子能總署(International Atomic Energy Agency,IAEA)的權威機構,對AI產業加以規範,包括檢查AI系統、測試是否符合安全標準、限制部署程度及安全級別等。
奧特曼表示,支持成立為AI制定規範標準的國際機構,更指出各國政府在監管核武器方面已有先例,國際原子能總署正是最佳例子。圖中為該機構的維也納總部。(圖片來源:維基百科)
創立於1957年的國際原子能總署是聯合國附屬組織,對國際核能問題進行監管,並施加壓力,旨在促進核能技術和平發展。2005年,IAEA因防止核能被用於軍事目的,並確保全球和平與安全地使用核能,因而獲得諾貝爾和平獎。縱然這類監管機構有時可能無法直接介入某些極權國家的相關問題,惟起碼可以制定國際標準與協議,對落實全球AI監管可說是關鍵起步點。
Bard跳過歐洲與加拿大避監管
相較於OpenAI擁抱立法規管的取態,其競爭對手Google似乎選擇了迴避。2023年5月10日,Google在I/O開發者大會上發表升級版的聊天機械人Bard,並宣布在全球180國家陸續上路。但有趣的是,Google竟然刻意跳過歐洲與加拿大,暫時不會開放Bard給這兩個地區使用,這可能是考慮到當地監管法例過於強力。
歐洲經常處於新科技監管的前沿。早於2021年,歐盟執委會已提出《人工智能法》(Artificial Intelligence Act,AIA)草案,目的是平衡AI所帶來的好處和對社會造成的負面衝擊。根據草案,AI系統可按照其風險程度劃分為4個級別,並施以不同程度的監管方式。
歐盟執委會在2021年提出《人工智能法》草案,若通過立法,將會是世上第一部全面監管AI的法例。(圖片來源:歐盟執委會官網)
第一級為「不可接受風險」(Unacceptable Risk)」的AI:例如運用潛意識技術操控人類,在公共場合使用生物辨識系統進行執法、或被政府用作對公眾進行社會評分的AI系統,原則上在歐盟境內禁止使用,更不能進入歐盟市場。
第二級為「高風險」(High Risk)的AI:舉凡可能造成人身安全或基本權利負面影響的AI系統均在此列,例如水、電、交通等基礎設施的監控系統,用於招聘流程的履歷分類軟件、輔助執法行動的智能工具等。這類AI進入歐盟市場前需進行符合性評估(Conformity Assessment),合格後始能上市;進入市場後,仍需持續監控其符合性。
觸犯歐盟AI法例罰6%營業額
第三類為「低度風險」(Low Risk)」的AI:意指存有特定欺瞞風險的AI,譬如深偽技術(Deep Fake)製圖工具、與人互動的聊天機械人。由於它們具有身份詐欺的風險性,所以操作時必須保持透明,確保用戶對其個人資料被蒐集和利用之事有充足的認知。
第四級為「風險極小」(Minimal Risk)的AI:意指現行法例能夠妥適因應的風險,因此歐盟不予以額外規範。基本上,歐盟對這類AI的供應商沒有強制性規定,只會鼓勵業者自願建立和遵守行為準則(Codes of Conduct)。如有違反《AIA》的公司,最高罰款為3,000萬歐元(約2.5億港元),或全球年度營業額的6%,兩者取其高者。
2023年4月27日,歐洲議會成員就《人工智能法》草案達成臨時政治協議,要求生成式AI供應商必須披露,用於AI模型數據訓練的資料版權來源。在這項新規定下,網上出版商和內容創作者有望得知其版權內容在多大程度上被用作訓練AI模型,從而可以向OpenAI、Microsoft、Google等AI公司索取補償。
2023年5月11日,歐洲議會公民自由和消費者保護委員會通過一份規管AI的立場文件。該文件基於《AIA》草案再作進一步增補,加入對生物辨識監控、情緒辨識、以及預測性警務AI系統的禁令。相關草案預計於同年6月提交歐洲議會全體表決,然後交由歐洲議會、歐盟理事會、以及歐盟執行委員會代表在三方會談中敲定最終條款。一旦法案獲得全面通過,將會成為世上第一部綜合性AI法例,預計將產生全球性影響。
違反加拿大AI法案可判處監禁
另一邊廂,加拿大政府由創新、科學和工業部長代表,於2022年提交C-27號草案,內容包括私隱權制度的更新,以及新增的《人工智能及數據法案》(Artificial Intelligence and Data Act,AIDA)。該草案規管AI設計、開發、使用與提供行為,並提高對消費者的私隱保護,建立專門針對私隱和數據保護的法庭。
《AIDA》採用類似於歐盟《人工智能法》的方式,建立適用於「高影響力」AI系統的規範。所有公司將被要求評估旗下AI工具是否屬於「高影響力」系統。如是的話,該公司必須制定措施,以識別、評估和減輕使用該AI系統可能導致的傷害或有偏見輸出的風險,而且要持續監察緩解措施的遵守情況、以及這些緩解措施的有效性。
違反《AIDA》的罰則主要為按公司或個人收入衡量的罰款。一般來說,最高可被處以1,000萬美元(7,800萬港元)或全球總收入3%的罰款,以高者為準。特定嚴重狀況如以非法方式取得AI訓練所用的數據、明知或故意欺騙公眾造成嚴重心理傷害或財產上重大損失,有可能判處刑事監禁。目前草案仍處於二讀階段,預計日後可能會有更多潛在修訂。
除歐盟與加拿大外,七大工業國集團(G7)也認同必須加強AI監管。2023年5月20日,G7領袖在廣島峰會上發表的聯合聲明寫道,生成式AI應符合公平、透明度、防止網絡霸凌、尊重私隱和人權、以及具問責機制等價值觀。縱使各國在峰會上未有討論應如何規管AI,惟G7領袖已委派旗下高級官員,建立「廣島人工智能進程」(Hiroshima AI Process),討論AI相關事務。由是觀之,立法監管AI已是全球共識了。
隨著ChatGPT等生成式AI工具愈趨普及,世界各國政府已開始籌劃如何進行監管,因此在G7廣島峰會上也展開了AI規管的討論。(圖片來源:G7廣島峰會官網)
不過問題是,出於善意的監管有時可能因為力度過大,以致阻礙科技創新。當一項新科技誕生後,社會整體都需要花時間適應,其間可能會衍生出不少亂象,這時候監管部門才後知後覺地草擬法案,以致法例更新總是追不上科技發展。歐盟駐美國數碼資深特使德格拉夫(Gerard de Graaf)指出,問題在於當立法進程遠遠落後於市場發展,監管將成為進步和創新的障礙。在各國政府傾向規管AI的大趨勢下,生成式AI的發展步伐會否因此而被拖慢,日後還有待觀察。
延伸閲讀:
AI可能導致人類滅亡?白宮下令AI接受評估,歐盟擬立法監管AI,教AI做人或是最佳解決方法!
Google AI反擊戰!Bard用圖片答問題,Google搜尋直接生成答案!會損害全球網站利益?
OpenAI惹上官非!Getty Images、程式開發者控告AI公司侵權,引發「合理使用」爭議
【與拍賣官看藝術】畢加索的市場潛能有多強?亞洲收藏家如何從新角度鑑賞?► 即睇