南開大學(xué)法學(xué)院陳兵在《上海政法學(xué)院學(xué)報(法治論叢)》2023年第4期上發(fā)表題為《生成式人工智能可信發(fā)展的法治基礎(chǔ)》的文章中指出:
近年來,隨著人工智能算法不斷迭代升級,特別是機器學(xué)習(xí)賦予人工智能強大的學(xué)習(xí)能力,使其不再局限于只按照事先指定的模板或者規(guī)則,進(jìn)行簡單的內(nèi)容輸出和制作,而是能夠根據(jù)用戶提出的指令即可生成靈活且真實的內(nèi)容,甚至能夠?qū)崿F(xiàn)高質(zhì)量的內(nèi)容創(chuàng)作,這類技術(shù)被稱為人工智能生成內(nèi)容(AIGC),或者基于生成式人工智能服務(wù)產(chǎn)生的內(nèi)容物(以下簡稱生成式人工智能)。
隨著人工智能技術(shù)應(yīng)用的不斷推進(jìn),人們發(fā)現(xiàn)人工智能技術(shù)存在不可控、不可解釋、不可預(yù)知、不透明等弊端和風(fēng)險,并且在使用過程中可能給人身安全、信息安全以及財產(chǎn)安全等帶來一定風(fēng)險,由此引發(fā)了人們對人工智能技術(shù)的不信任。這種不信任會降低人們在部分場景中使用人工智能產(chǎn)品的意愿,從而限制相關(guān)技術(shù)應(yīng)用的深度和廣度,對人工智能產(chǎn)業(yè)的健康可持續(xù)發(fā)展產(chǎn)生實質(zhì)阻礙。為了消除人們對人工智能技術(shù)應(yīng)用的不信任,推動人工智能產(chǎn)業(yè)“可信”成了一個必然選擇。對于生成式人工智能產(chǎn)業(yè)而言,“可信”是其健康持續(xù)發(fā)展的內(nèi)在要求?;诟鲊鴮ι墒饺斯ぶ悄芸尚虐l(fā)展的要求,結(jié)合其產(chǎn)業(yè)特征和應(yīng)用現(xiàn)狀,AIGC的“可信”要求主要包括“可控、可問責(zé)、公平、可靠、透明可解釋以及安全”六個方面。然而,生成式人工智能技術(shù)所潛在的“技術(shù)+資本”壟斷、倫理道德標(biāo)準(zhǔn)不清、侵權(quán)責(zé)任模糊以及數(shù)據(jù)安全風(fēng)險等新問題,引發(fā)了生成式人工智能的信任危機。
基于此,應(yīng)當(dāng)以競爭、倫理、侵權(quán)以及安全作為治理基點,通過強化生成式人工智能領(lǐng)域要素治理,科學(xué)審慎引入事前監(jiān)管,平衡鼓勵創(chuàng)新與保護(hù)競爭之間的關(guān)系;建立健全生成式人工智能領(lǐng)域科技倫理規(guī)范;搭建基于生成式人工智能產(chǎn)品生產(chǎn)者責(zé)任和使用者過錯的侵權(quán)責(zé)任認(rèn)定規(guī)則;從制度層面和技術(shù)層面加強生成式人工智能領(lǐng)域數(shù)據(jù)算法安全四個方面夯實生成式人工智能可信發(fā)展的法治基礎(chǔ)。
編輯:武卓立