隨著ChatGPT大熱,生成式人工智能引發(fā)了各界人士的廣泛關注。
有專家學者認為ChatGPT將引爆第四次工業(yè)革命,其具有里程碑意義;也有業(yè)內人士表示,這項技術由此引發(fā)的虛假及侵權內容、技術濫用也不容忽視。
(相關資料圖)
而為促進生成式人工智能技術健康發(fā)展和規(guī)范應用,4月初,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》,從4月11日到5月10日向社會公開征求意見。
5月9日,國內首個針對人工智能生成內容的平臺規(guī)范也橫空出世,作為內容平臺方的抖音發(fā)布了《抖音關于人工智能生成內容的平臺規(guī)范暨行業(yè)倡議》(下稱《倡議》)。
對此,薩摩耶云科技集團首席經濟學家鄭磊對《》記者表示,發(fā)布這個倡議是一個行業(yè)性自律行為,龍頭企業(yè)做出表率,有利于提升整個內容行業(yè)的自律意識,為生成式人工智能發(fā)展搭建了一個健康的發(fā)展環(huán)境。
天使投資人、知名互聯(lián)網(wǎng)專家郭濤對《》記者表示,生成式人工智能技術受到監(jiān)管的背后是當前AIGC還處于發(fā)展的早期階段,研發(fā)與應用相關法律法規(guī)、標準體系和倫理規(guī)范等還不健全,存在隱私與數(shù)據(jù)保護風險、著作權侵權風險、深度偽造風險、失業(yè)加劇風險、歧視與偏見風險等潛在問題。
“而這種風險的核心關鍵是如何判定,如何監(jiān)督,如何發(fā)現(xiàn),因此監(jiān)管可能需要一個一攬子的解決方案?!北P古智庫高級研究員江瀚對本報記者表示。
倡議落地難?
《倡議》中提到,“生成式人工智能技術降低了創(chuàng)作的門檻,豐富了互聯(lián)網(wǎng)內容生態(tài)。但與此同時,人工智能生成內容存在識別難的特點,也帶來了虛假信息、侵權等問題。參照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等法律法規(guī),抖音提出十一條平臺規(guī)范與行業(yè)倡議?!?/p>
在平臺規(guī)范方面,對于創(chuàng)作者、主播、用戶、商家、廣告主等平臺生態(tài)參與者,抖音要求其在平臺應用生成式人工智能技術時,發(fā)布者應對人工智能生成內容進行顯著標識,幫助其他用戶區(qū)分虛擬與現(xiàn)實,特別是易混淆場景;發(fā)布者需對人工智能生成內容產生的相應后果負責,無論內容是如何生成的;虛擬人需在平臺進行注冊,虛擬人技術使用者需實名認證;禁止利用生成式人工智能技術創(chuàng)作、發(fā)布侵權內容(包括但不限于肖像權、知識產權等)以及違背科學常識、弄虛作假、造謠傳謠的內容。
對于人工智能生成內容衍生的問題的治理,抖音在《倡議》中表示,平臺將提供統(tǒng)一的人工智能生成內容標識能力,幫助創(chuàng)作者打標,方便用戶區(qū)分;平臺將提供虛擬人的注冊能力,并對已注冊的虛擬人形象進行保護;平臺將提供用戶反饋渠道,方便用戶反饋違規(guī)生成內容。
抖音表示,新技術輔助的創(chuàng)作應該尊重并充分保障個人權益;禁止發(fā)布違規(guī)內容,無論該內容是否采用新技術輔助創(chuàng)作;新技術輔助的創(chuàng)作應該避免虛假信息的生產傳播。
值得注意的是,在《倡議》中,抖音對互聯(lián)網(wǎng)全行業(yè)提出倡議,“各生成式人工智能技術的提供者,均應對生成內容進行顯著標識,以便公眾判斷。同時使用統(tǒng)一的人工智能生成內容數(shù)據(jù)標準或元數(shù)據(jù)標準,便于其他內容平臺進行識別?!?/p>
對此,鄭磊表示,發(fā)布這個倡議是一個行業(yè)性自律行為,龍頭企業(yè)作出表率,有利于提升整個內容行業(yè)的自律意識,為生成式人工智能發(fā)展搭建一個健康的發(fā)展環(huán)境。
同時,江瀚也指出,“該行業(yè)倡議代表的是對原創(chuàng)生態(tài)體系的一種維護,這種維護對市場意義很大,特別是對保護原創(chuàng)作者的權益有比較重要的積極性。”
從倡議落地的難度來看,江瀚表示,這個倡議的行業(yè)落地難度并不小,“因為視頻制作內容是否‘原創(chuàng)’,現(xiàn)在并沒有一個真正的評價標準。同時,AI在其中扮演何種角色,是視頻創(chuàng)作者、剪輯者?不同角色對視頻的判斷也是存在不同問題的。此外,就審核而言,AI內容包括虛擬數(shù)字人越來越多,審核難度也越來越大?!?/p>
同時,財經評論員張雪峰也對本報記者表示,因生成式人工智能技術的監(jiān)測和審核難度較高,該行業(yè)倡議的落地難度較大,“其監(jiān)測難度在于,虛擬內容難以與真實內容區(qū)分,需要依靠高級算法和技術手段進行監(jiān)測;審核難度在于,虛擬內容的創(chuàng)作和發(fā)布速度快,需要快速反應和處理?!?/p>
如何監(jiān)管?
“當前,AIGC還處于發(fā)展的早期階段,研發(fā)與應用相關法律法規(guī)、標準體系和倫理規(guī)范等還不健全,存在隱私與數(shù)據(jù)保護風險、著作權侵權風險、深度偽造風險、失業(yè)加劇風險、歧視與偏見風險等潛在問題?!惫鶟硎尽?/p>
就AIGC版權問題,據(jù)記者梳理,目前國內有兩起相關案件,但判決結果卻大相徑庭。2018年,在北京菲林律師事務所訴百度的案件中,法院認為,原告利用法律統(tǒng)計數(shù)據(jù)分析軟件生成的分析報告,非自然人創(chuàng)造,不能被認定為著作權法意義上的“作品”。
而在2019年,騰訊訴盈訊科技的案件中,法院又提出,騰訊機器人Dreamwriter作為創(chuàng)作工具,涉案文章的創(chuàng)作過程體現(xiàn)了原告的創(chuàng)作議題,是原告主持創(chuàng)作的法人作品。
實際上,這兩起案件的判決結果正是體現(xiàn)出了AIGC版權的爭議問題。
除此之外,AIGC引發(fā)的數(shù)據(jù)安全問題也備受關注。據(jù)了解,3月20日,多名ChatGPT用戶表示看到其他人與ChatGPT的對話記錄、電子郵件。OpenAI首席執(zhí)行官Sam Altman發(fā)文稱,系開源庫出現(xiàn)錯誤導致部分聊天記錄標題泄露,“對此我們感到很難過”。3月31日,意大利數(shù)據(jù)保護機構(Garante per la protezione dei dati personali,GPDP)宣布,即日起禁止使用ChatGPT,并開始立案調查。
針對上述風險,張雪峰表示,生成式人工智能的監(jiān)管難點在于技術和法律。技術監(jiān)管需要依靠高級算法和技術手段進行監(jiān)測和審核,以及建立完善的風險預警機制;法律監(jiān)管需要加強對虛擬內容的知識產權保護和侵權行為的打擊,完善相關法律法規(guī)和監(jiān)管機制。同時,還需要加強行業(yè)自律,促進行業(yè)健康發(fā)展。
在郭濤看來,政府有關部門需要盡快建立健全AIGC研發(fā)與應用相關法律法規(guī)和標準體系,建立或完善倫理審查制度和監(jiān)管體系,加強對科技企業(yè)、應用場景、使用者的監(jiān)管,搭建多方參與協(xié)同治理平臺,推動AIGC產業(yè)健康可持續(xù)發(fā)展。
標簽:
熱門