載于《東方法學》2024年第1期



作者:高陽 法學院民商經(jīng)濟法學系
【作者簡介】
高陽,法學博士,法理學在站博士后,講師,碩士生導師。從事知識產(chǎn)權法、數(shù)據(jù)法學的教學與科研工作,在企業(yè)數(shù)據(jù)確權方面做出了創(chuàng)造性的工作。在諸多核心期刊發(fā)表多篇高質(zhì)量學術論文,并被人大復印資料目錄索引。受聘為“長寧區(qū)涉外民商事糾紛調(diào)解中心”特邀專家、上海數(shù)據(jù)知識產(chǎn)權試點工作組特邀專家。榮獲2022年度校級三八紅旗手榮譽稱號。
【成果介紹】
摘要:通用人工智能可自發(fā)或受用戶操控被動生成有害信息,它的提供者作為新型的網(wǎng)絡內(nèi)容提供者,負有數(shù)字內(nèi)容“守門人”職責,同時負有網(wǎng)絡空間的安全保護義務,應承擔內(nèi)容審查的注意義務,從而預防有害信息的侵權風險。“以數(shù)據(jù)為中心”的內(nèi)容生產(chǎn)方式和算法黑箱效應降低了通用人工智能提供者對內(nèi)容的管控力,導致對生成內(nèi)容的普遍審查難以被實現(xiàn)。應針對有害信息,結合內(nèi)容生產(chǎn)場景、提供者風險預見能力差異化構建內(nèi)容審查的注意義務。該注意義務以技術性審查為標準,提供者采取符合技術特點的內(nèi)容審查機制,便應當認定履行了相關義務。
關鍵詞:通用人工智能;有害信息;注意義務;信息內(nèi)容安全;網(wǎng)絡內(nèi)容提供者;內(nèi)容審查義務;
