每日經濟新聞
要聞

每經網首頁 > 要聞 > 正文

技術慢下來,還是治理跟上去?破解AIGC“科林格里奇困境”:用模型監督模型

每日經濟新聞 2023-12-28 19:59:03

◎技術控制兩難的“科林格里奇困境”,正成為當下AIGC(生成式人工智能)治理需要直面的挑戰。“技術慢下來,還是治理跟上去?”

每經記者 李卓    每經編輯 張海妮    

圖片來源:視覺中國-VCG41N1188747468 

英國技術哲學家大衛·科林格里奇在《技術的社會控制》(1980)中指出:一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能就難以爆發。反之,如果控制過晚,已經成為整個經濟和社會結構的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變。

這種技術控制兩難的“科林格里奇困境”,正成為當下AIGC(生成式人工智能)治理需要直面的挑戰。

12月27日,“AI發展與治理創新研討會”在北京舉行。來自中國科學院、中國社會科學院大學、復旦大學、浙江大學、國家部委研究機構和國內AI企業的專家學者圍繞AIGC技術、風險和治理展開了激烈探討。

2023年,伴隨AIGC在全球的競技式發展,國內大模型以通義千問、文心一言、訊飛星火等為代表,由通用大模型向行業大模型發展,應用百花齊放,涉及Chat、AIGC、數字人、智能體……

隨著在人工智能領域的探索與實踐的加深,人工智能的技術風險——數據安全性、算法透明性、系統穩定性及倫理爭議,再如人類的自主能動、隱私保護、社會公平等逐漸暴露,由此引發社會的廣泛關注。人工智能的風險管理、全生命周期的治理成為全球的重要議題。 

“技術慢下來,還是治理跟上去?”

阿里研究院執行副院長袁媛在會上拋出 “靈魂拷問”。正如她所言,技術的發展是一種非線性,甚至是指數型的增長,但是從知識的積累、治理工具的演進,到政策的完善,它始終是一個線性的過程。政策與科技步調不一致成了必然規律。無論讓技術慢下來、還是讓政策跟上去,都考驗著治理的包容與創新。 

AIGC四大風險:內容安全首當其沖

2023年3月,一組由AI繪圖工具Midjourney生成的“特朗普被捕假照片”在網上瘋傳,“有圖未必有真相”讓外界對AIGC的內容風險有了清醒的共識。

阿里巴巴人工智能治理和可持續發展研究中心首席科學家何源分析指出AIGC當下四大風險時,亦直言“內容安全”首當其沖。

AIGC的“內容安全”廣義上包括輸出內容的社會安全性,是否合法合規、遵守道德倫理和公序良俗等,具體表現在違法不良信息、內容失實、偏見歧視、違反倫理道德等方面。

何源進一步指出,首先,相比傳統內容生產模式,AIGC可以通過交互式快速生產,生產成本顯著降低;而通過prompt方式可以批量生產大量內容,進行規模化,包括一些色情、低俗、血腥恐怖的內容,甚至不良導向的內容等等,對內容安全的防控帶來新的挑戰。與此同時,相比真實構圖,AIGC生成內容具有更高的自由度,更加復雜、隱晦;AIGC產品還需要快速響應用戶指令,這對內容安全防控體系都提出更高的時效性要求。

《每日經濟新聞》記者現場了解到,多數與會專家對AIGC的內容風險都表達了“輸出輸入內容審核”的重要性。

但需要直面的另一個現實是,如果每一條輸出內容都進行人工審查,人力成本大幅上升而用戶體驗嚴重受損,不具有可行性,這成為內容安全保障的難點。同時,由于現階段生成式人工智能服務通常無法提供準確的依據和來源,相關生成內容無法鑒偽,風險也無法被有效定位溯源。

阿里連續第二年發布AI白皮書 圖片來源:企業供圖

阿里巴巴集團與中國電子技術標準化研究院當日聯合發布的《AIGC治理與實踐白皮書》(以下簡稱《白皮書》)對此則認為,從訓練數據和算法源頭上控制內容安全、管理用戶的輸入和對生成結果的使用,成為降低AIGC風險的重要切入點。

除內容安全外,AIGC還存在模型安全、隱私&版權、倫理道德三大風險。

談及 “模型安全”,何源認為,由于大模型基于深度學習框架構建,在對抗“魯棒性”(即模型對于輸入中的擾動、對抗性樣本或惡意攻擊是否具有足夠的抵抗力)上同樣存在安全隱患;大模型基于海量數據進行自監督訓練和基于反饋的強化學習優化,存在數據攻擊風險,比如數據投毒、提示詞越獄攻擊等。而深度學習的黑盒運行機制,導致大模型同樣面臨“可解釋性不足”的問題。

那么,AIGC生成的內容是否受版權保護?目前法律界也還沒有統一定論。

2023年,美國版權局拒絕登記《Zarya of the Dawn》,判定用Midjourney制作的AI圖片不受保護;2023年12月,北京互聯網法院公開審理AI文生圖著作權案,原告使用AI生成圖片發布網絡后,被告直接拿去使用,原告認為被告侵犯了他的知識產權。這個案例北京互聯網法院一審支持了原告。不過,《每日經濟新聞》記者也注意到,該案判決強調,利用人工智能生成的內容,是否構成作品,需要個案判斷,不能一概而論。

“大模型的訓練是基于海量的數據,通常我們不可能為每一個訓練數據確認它的使用權限。同時數據的隱私問題也會是一個潛在的風險。因為大模型用海量的互聯網數據,既然沒有確認每一張圖片每一個樣本的授權,版權的情況就會存在用戶的數據隱私泄露的風險。”何源如是說。 

“用模型監督模型”

中國已經是全球范圍內首個落地AIGC監管的國家。

2023年上半年,人工智能法草案被列入國務院2023年度立法工作計劃;8月15日,由國家互聯網信息辦公室等七部門聯合發布的《生成式人工智能服務管理暫行辦法》正式施行。這是我國首份針對生成式人工智能的規范性監管文件……

從全球范圍來看,2023年10月,聯合國成立人工智能高級咨詢機構。

11月2日,首屆全球人工智能安全峰會在英國落下帷幕,包括中國、美國、英國在內的28個國家及歐盟共同簽署了《布萊奇利宣言》(以下簡稱《宣言》)。《宣言》強調,人工智能的許多風險本質上是國際性的,因此“最好通過國際合作來解決”。與會國家和地區同意協力打造一個“具有國際包容性”的前沿人工智能安全科學研究網絡,以對尚未完全了解的人工智能風險和能力加深理解。

復旦大學計算機科學技術學院教授張謐認為:“現在全球范圍內有AI競賽的氛圍,注重安全反而可能造成技術落后,為了占領先機便不得不擱置安全。各方應該立足長遠,攜手營造有序競爭,把風險控制在防護能力的上界之內,保障AI發展處于安全區域。”

張謐對AI大模型未來的安全前景持樂觀態度,她援引前沿觀點指出,隨著評測、治理技術的成熟,以及治理體系的完善,人類提供一整套安全規則,AI就能根據規則實現“用模型監督模型”。

何源則認為,AIGC風險治理不僅要對AIGC進行有針對性的立法、構建與技術應用相匹配的治理機制,還需要人工智能產業主動進行負責任的自律自治。

何源也對“大模型評測大模型”提出了他的看法:“我們認為大模型的風險用小模型去識別和處理是不夠的,我們需要用大模型來評測大模型,我們通過大模型生成內容安全風險的指令,看看目標模型的產出,構造一個閉環。”

在何源看來,最強的攻擊手段是最好的評測方法,通過智能體對抗博弈,發現目標LLM(大語言模型)的風險敞口;同時,由易到難,得到豐富多彩的安全評測樣本,提供給LLM進行內生安全增強。“風險不能僅僅靠安全措施在輸入和輸出環節,提升內生安全才是根本的解決方案。” 

封面圖片來源:視覺中國-VCG41N1188747468

如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

Ai 人工智能 AIGC 大模型

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0

免费阿v网站在线观看,九九国产精品视频久久,久热香蕉在线精品视频播放,欧美中文字幕乱码视频
日本乱偷中文字幕久久久久 | 亚洲人成影院在线观看网色 | 在线观看日本免费A∨网站 伊人久久综合热线大杳焦 午夜性刺激免费看视频在线 | 中文字幕日韩一区二区三区不卡 | 日本一区二区三区四区在线观看 | 日韩精品福利视频第一区 |