□ 郭旨龍(中國政法大學(xué)刑事司法學(xué)院教授)
隨著信息技術(shù)的深度發(fā)展,個性化算法推薦已經(jīng)深入公民生活的方方面面,改變了人們在互聯(lián)網(wǎng)世界中獲取信息的方式。作為數(shù)字原住民,算法推薦的個性化信息匹配為未成年人高效娛樂、學(xué)習(xí)與社交提供了便利。但與此同時,由于未成年人身心尚未發(fā)育成熟的特殊性,加上算法推薦機制本身的技術(shù)局限、平臺企業(yè)的價值觀錯位與法律責(zé)任的落實不力等多層次原因,未成年人在強算法推薦的網(wǎng)絡(luò)環(huán)境中正面臨過度娛樂化推送和不良信息推送等問題的沖擊。
算法是人工智能技術(shù)的基石之一,其治理效能已經(jīng)成為衡量數(shù)字時代國家治理能力的關(guān)鍵維度。特別是《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》通過設(shè)置未成年人保護專條凸顯了重點關(guān)注青少年群體網(wǎng)絡(luò)權(quán)益的價值立場后,如何增強平臺涉及未成年人算法推薦的合法性和合規(guī)性,成為法律界和社會熱議的焦點。
算法推薦的技術(shù)機制與問題
算法推薦是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等算法向用戶提供信息的技術(shù)機制。盡管技術(shù)開發(fā)者、企業(yè)或行業(yè)組織所發(fā)布的技術(shù)白皮書中常將算法推薦表述為“價值中立”的技術(shù)工具,但其在實際運作中對未成年人的影響已超越單純的技術(shù)應(yīng)用范疇,誘發(fā)網(wǎng)絡(luò)沉迷、制造信息繭房和危害未成年人身心健康等多個痛點日益凸顯。
第一,算法推薦易誘發(fā)未成年人網(wǎng)絡(luò)沉迷。算法推薦通過即時反饋機制和成癮性設(shè)計使未成年人陷入“觀看—反饋—持續(xù)觀看”的無意識行為循環(huán)當(dāng)中。部分平臺甚至強制用戶選擇興趣標簽以延長使用時長,使未成年人在持續(xù)“刷屏”中形成高頻次、高黏性的使用習(xí)慣。網(wǎng)絡(luò)沉迷不僅會擠占未成年人的學(xué)習(xí)、社交與運動時間,還可能引發(fā)視力下降、注意力分散、睡眠障礙等生理問題。
第二,算法推薦易導(dǎo)致未成年人受困于信息繭房。研發(fā)及使用算法推薦系統(tǒng)的互聯(lián)網(wǎng)平臺企業(yè)的出發(fā)點在于追求用戶的高留存率和高使用時長,往往傾向于不斷優(yōu)化推送策略,通過“點擊越多—推送越類似”的閉環(huán)來強化既有興趣標簽。一方面使得信息推送的高度同質(zhì)化,另一方面將點擊量作為評判推送價值的唯一標準會使得益于青少年成長的有價值內(nèi)容占比不斷衰減。被困于推薦算法所制造的“圍城”中的未成年用戶很難突破被技術(shù)性設(shè)定的興趣邊界,批判性思考的能力被削弱,最終成為“單向度的人”。
第三,算法推薦易導(dǎo)致未成年人身心健康受到侵害。網(wǎng)絡(luò)世界的信息良莠不齊,低俗信息、虛假合成信息、煽動性信息等有害信息可能通過算法推薦機制呈現(xiàn)在青少年的智能終端。一方面,部分平臺為提高用戶黏性,對具有感官刺激性但又語義模糊、圖像隱晦,能夠逃避監(jiān)管的有害內(nèi)容實施流量傾斜,使這些有害內(nèi)容呈現(xiàn)在未成年人面前。另一方面,利用生成式人工智能技術(shù)生成的深度偽造視頻、虛假科普內(nèi)容、虛假新聞等內(nèi)容在相關(guān)標識及傳播規(guī)則尚未得到充分落實的情況下,借助算法被大肆推送,極易擾亂未成年人對真實世界的感知。此外,平臺為攫取流量或來自第三方的經(jīng)濟利益,通過炒作和推送熱點來放大煽動性信息的情況也可能加劇未成年人的焦慮抑郁情緒或引發(fā)模仿行為。
算法推薦問題的主要原因
第一,算法推薦風(fēng)險的滋生來源于算法黑箱的技術(shù)局限與制度庇護。技術(shù)性黑箱導(dǎo)致平臺即便有治理意愿,也難以徹底規(guī)避算法偏差。更深層的矛盾在于制度性黑箱,平臺?;谒惴ā吧虡I(yè)秘密”的定性而拒絕公開算法參數(shù),將其作為規(guī)避透明度及可解釋性義務(wù)的理由。
第二,算法推薦風(fēng)險的裂變被資本邏輯主導(dǎo)下的價值沖突加劇。平臺從商業(yè)利益出發(fā),將利潤追求置于對未成年人身心健康的保護之上,在算法倫理建設(shè)滯后于技術(shù)創(chuàng)新時,資本主導(dǎo)下的價值異化會加大電子游戲、短劇等高商業(yè)價值內(nèi)容的投放。
第三,算法推薦風(fēng)險治理未能得到充分保障的根源是現(xiàn)有相關(guān)法律規(guī)范的適用邏輯未予充分厘清。網(wǎng)絡(luò)安全法、《未成年人網(wǎng)絡(luò)保護條例》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等一系列規(guī)定中的部分條文較為籠統(tǒng)和模糊,導(dǎo)致實際落地存在困難,還需進一步細化和挖掘可操作性標準。
算法推薦問題的完善建議
算法推薦技術(shù)對未成年人網(wǎng)絡(luò)權(quán)益的侵蝕背后存在多維復(fù)雜成因,難以通過單一維度的治理模式得到破解。有必要依托現(xiàn)有算法規(guī)范,著力構(gòu)建技術(shù)突破、社會協(xié)同與法律規(guī)制有機聯(lián)動的協(xié)同治理機制。
(一)優(yōu)化平臺技術(shù)治理路徑
第一,平臺應(yīng)完善算法推薦機制下的防沉迷技術(shù)性措施。在平臺的娛樂領(lǐng)域嵌入有效的未成年人識別機制,進而在準確識別身份的基礎(chǔ)上限制其使用時長,以抵消算法推薦的成癮性所帶來的不利影響。
第二,平臺應(yīng)在技術(shù)上保障算法推薦信息的合法性、合規(guī)性,并滿足基本的內(nèi)容推送質(zhì)量要求。一方面,平臺應(yīng)加大對有害信息的技術(shù)性審查及過濾力度。及時發(fā)現(xiàn)有害及違法信息并予以處理,及時發(fā)現(xiàn)生成合成信息并予以顯著標識。另一方面,平臺應(yīng)通過技術(shù)性設(shè)計,提高推送內(nèi)容的多樣性,防止信息過度同質(zhì)化和低質(zhì)化傾向。
第三,平臺應(yīng)在技術(shù)上保障未成年用戶就算法推薦服務(wù)的知情權(quán)和自主選擇權(quán)。最低限度是平臺不得將違法和不良信息關(guān)鍵詞設(shè)置為用戶標簽。在此基礎(chǔ)上,可考慮要求平臺提供針對用于內(nèi)容推送的個人興趣標簽的編輯功能。同時,平臺應(yīng)設(shè)定針對未成年用戶默認關(guān)閉算法推薦服務(wù)的義務(wù),或至少應(yīng)提供易于未成年用戶發(fā)現(xiàn)的關(guān)閉入口及易于操作的關(guān)閉流程,以保障其自主選擇是否使用個性化推薦服務(wù)的權(quán)利。
(二)構(gòu)筑社會協(xié)同治理屏障
第一,家庭作為影響青少年網(wǎng)絡(luò)行為的第一道防線,需在數(shù)字時代相對應(yīng)地提升監(jiān)護能力。監(jiān)護人應(yīng)通過掌握基礎(chǔ)設(shè)置工具主動介入算法推薦環(huán)境的管理,建立與青少年數(shù)字成長需求相匹配的監(jiān)護模式,實現(xiàn)從被動應(yīng)對到主動引導(dǎo)的角色轉(zhuǎn)變。
第二,對于學(xué)校而言,應(yīng)當(dāng)將網(wǎng)絡(luò)素養(yǎng)教育納入學(xué)校素質(zhì)教育內(nèi)容。在基礎(chǔ)教育階段可開設(shè)網(wǎng)絡(luò)素養(yǎng)通識課程,引導(dǎo)未成年人建立對算法操縱的警惕性與防護能力。高等教育機構(gòu)則應(yīng)對計算機相關(guān)專業(yè)的學(xué)生加強算法倫理教育。
第三,互聯(lián)網(wǎng)行業(yè)組織應(yīng)加強行業(yè)自律,考慮將未成年人網(wǎng)絡(luò)權(quán)益及發(fā)展權(quán)保護作為制定相關(guān)行業(yè)規(guī)范或行業(yè)標準的理念指引,推動形成“底線合規(guī)+倫理引領(lǐng)”的行業(yè)治理范式。
(三)強化算法權(quán)力制度約束
第一,作為破解“黑箱”的利器,算法透明原則要求平臺推薦算法在涉及未成年用戶時實施強制性透明度及可解釋性標準。
第二,作為算法透明義務(wù)的延伸和履行途徑之一,算法備案原則要求,將以未成年人為主要或重要服務(wù)對象的算法推薦服務(wù)提供者納入應(yīng)履行備案義務(wù)的主體范圍。
第三,作為當(dāng)前算法治理的重要工具,算法影響評估制度要求建立算法分級分類安全管理制度。其中,涉及未成年人的推薦算法具有敏感性,應(yīng)被歸于高風(fēng)險級別,進而匹配更為嚴格和完整的影響評估程序。
編輯:武卓立