林維 中國社會科學院大學副校長、教授
近期,韓國“N房間”事件爆發(fā),即發(fā)生在2018年下半年至2020年3月間的一系列使用即時通訊軟件Telegram進行的性剝削案件,在已知的受害74人中,有16名未成年女生,年齡最小的受害者年僅11歲。也有媒體爆出國內存在不少兒童色情網站,大部分內容為未成年女孩被性侵,還有部分未成年男性遭到猥褻,會員付費即可觀看,堪稱國內版n房間事件。而由“上市公司高管被指性侵養(yǎng)女案”引發(fā)出來的知乎、qq群兒童送養(yǎng)違法犯罪等熱點事件爆出,涉及社交平臺的未成年人保護議題成為社會輿論熱點。
如何構建一套合理的制度架構來強化對隱蔽性極強的社交平臺的未成年人保護,對1.69億未成年網絡原住民用戶具有重大的意義。社交平臺未成年人保護監(jiān)管目前尚存不足,且社交平臺通常會成為向其他網絡服務領域進行導流的窗口,嵌入到未成年人行為的各個環(huán)節(jié)。因此,對社交平臺未成年人保護的監(jiān)管和風險防范,不可僅限于單一環(huán)節(jié),而需要建構系統的規(guī)制框架,進行全面治理。具體而言,至少需要包括以下制度構成:未成年人用戶身份識別、平臺內內容的分類監(jiān)管、隱私和個人信息保護、網絡防欺凌、網絡防沉迷以及通過強化網絡社交監(jiān)管積極預防涉未成年人網絡犯罪六個角度。
一、未成年人用戶身份識別
《網絡安全法》第24條規(guī)定,網絡運營者為用戶提供信息發(fā)布、即時通訊等服務,在與用戶簽訂協議或者確認提供服務時,應當要求用戶提供真實身份信息。用戶不提供真實身份信息的,網絡運營者不得為其提供相關服務。盡管這一規(guī)定是網安法下平臺對用戶真實身份的查驗義務,但對于未成年人保護這一特殊的價值取向,平臺本應該更主動去識別未成年人用戶身份,以在平臺后續(xù)服務過程中能提供適合未成年人的保護,但目前社交平臺的18歲注冊門檻都沒有采取實質性認證措施,有形同虛設之嫌。
通過媒體對多家社交軟件注冊過程的調查,盡管這些平臺的用戶協議中都以突出的方式提示未滿18周歲的未成年人不得注冊使用,但是對于年齡目前均是采取用戶主動申報的方式,平臺并沒有進行實質性審核,未成年人用戶很有可能通過虛報年齡完成注冊。平臺出于對用戶和流量的追求,其缺乏足夠的激勵去禁止未成年人用戶虛報年齡的行為,因此,在網絡社交領域進行未成年人保護,亟需強化社交平臺對用戶的身份識別,如上傳身份證、人臉比照、平臺與運營商關于手機號年齡信息共享等。由于網絡社交軟件是目前未成年人接觸陌生人的最重要途徑之一,因此,需要從注冊登陸源頭防范未成年人社交風險,身份識別是最關鍵的啟始環(huán)節(jié),也是未成年人保護各領域目前來看較為薄弱的環(huán)節(jié)。
二、平臺內容的分類強化監(jiān)管
我國目前尚未建立統一的內容分類監(jiān)管制度和落實機制,因此對謠言、低俗、色情等網絡內容生態(tài)的建設,亦沒有建立對成年人和未成年人群區(qū)分標準進行分層治理的機制。如網信辦在19年12月29日發(fā)布的《網絡信息內容生態(tài)治理規(guī)定》,強調了對于不利于未成年人身心健康的不良內容應當作為防治重點,但是,針對成年人和未成年人不同主體設置不同的內容治理規(guī)定和保護的具體機制,仍然有待在實踐中逐步建立。這一現狀導致的現象是,針對成年人的產品功能,有極大可能被未成年人普遍滲透,如媒體曾列舉,陌生人社交、QQ擴列等功能,成人主體和未成年人主體共存在一個網絡交友空間,為出現兒童色情、誘騙等惡性事件的發(fā)生提供了溫床。
在對平臺內容的分類監(jiān)管上,探索平臺內的產品功能分級監(jiān)管對保護未成年人具有重大的價值。如在私密性的交互場景下(如陌生人社交、游戲或應用內的私聊功能),要求較強的實人識別機制,既要能夠區(qū)分未成年人使用者的基本年齡段,也要能夠規(guī)避未成年人使用成年人賬號登陸規(guī)避監(jiān)管的問題,在必要的場景下還需要實現未成年人與其成年監(jiān)護人之間的關聯。在無交互或弱交互的場景下(如社交平臺內的網頁瀏覽、自媒體文章、新聞、視頻以及其他帶有用戶評論功能的應用服務等),重點在于對內容制作者與評論者所發(fā)布不良信息的監(jiān)管。
三、未成年人隱私和個人信息的強化保護
研究表明,針對未成年人犯罪行為鏈條的源頭,往往都可以回溯到未成年人隱私和個人信息的泄漏。近期人民網報道的部分不法分子利用疫情冒充老師收取學費等實施詐騙等新聞,究其源頭,正是社交群組沒有設置進群驗證,導致學生及其家長的個人信息泄漏。
在目前未成年人身份缺乏平臺實質性審核的前提下,強化社交平臺對未成年人的隱私和個人信息的保護具有從源頭防范涉及到未成年人的網絡犯罪活動的重要意義。在未成年人用戶使用陌生人社交產品、通過社交產品關聯程序(如使用小程序訂外賣)等具體場景下,對未成年人隱私和個人信息的強化保護可以通過如征求監(jiān)護人同意等機制來發(fā)揮安全閥功能。
四、尚未引起重視的網絡欺凌
2019年8月,山東臨朐縣公安局通報微信群傳播未成年人欺凌視頻一案,視頻顯示王某、鄭某等受害人都是未成年人。社交平臺中的網絡欺凌現象需要受到輿論、監(jiān)管和研究各層面的進一步重視。2018年6月,共青團中央、社科院與騰訊公司聯合發(fā)布《中國青少年互聯網使用及網絡安全情況調研報告》,報告顯示71%的未成年人遭遇過網絡欺凌,主要形式包括嘲笑和諷刺、辱罵及侮辱性詞匯、惡意圖片及動態(tài)圖、語言或文字恐嚇等,其中首當其沖的場所就是社交軟件、網絡社區(qū)、微博等。
網絡欺凌的治理離不開良好內容生態(tài)的培養(yǎng)。根據國外對于網絡欺凌的研究表明,網絡行為匿名化、網絡內容的易復制性和永久留存性、實施欺凌人與被欺凌人網絡話語權不對稱以及學校社會等監(jiān)管的難介入,都導致網絡欺凌比傳統欺凌更容易造成破壞力。這樣,平臺在對網絡欺凌的治理中可能要承擔更大的義務和責任,如要求網絡服務運營者提供網絡欺凌的舉報渠道,受到網絡欺凌的未成年人用戶在通知平臺后,平臺應履行立即刪除網絡欺凌內容的義務等;平臺應主動巡弋平臺上的網絡欺凌內容,采取必要的平臺規(guī)則或處罰措施治理平臺的內容生態(tài)。
五、社交平臺成多種功能的導流入口,需要設置配套防沉迷措施
隨著社交平臺向內容平臺、小程序購物平臺、h5游戲平臺、新聞聚合平臺、直播平臺、社區(qū)平臺、支付平臺等的融合,產品形態(tài)豐富帶來的顯著的網絡效應,導致用戶消耗在社交軟件中的時間也越來越多。這種平臺功能的融合使社交成為導流入口,而各種功能平臺的流量相互加持形成輻射效應,使更多未成年人淫穢、低俗、欺詐等內容具有天然的動力去聚集,而違法犯罪分子也極有可能趁機去實施犯罪行為。
社交平臺的未成年人防沉迷也應稱為網絡社交領域的未成年人保護制度的一環(huán)。2019年12月,南都新業(yè)態(tài)法治研究中心發(fā)布的《未成年人網絡防沉迷監(jiān)管現狀與治理報告》指出,網絡社交和網絡文學兩個領域的未成年人防沉迷仍是短板,缺乏監(jiān)管機制。因此,可以考慮在社交軟件內的視頻、直播等提供青少年模式,采取有效措施防止未成年人用戶出現沉迷現象。
六、通過強化網絡社交監(jiān)管積極預防涉未成年人網絡犯罪
2019年12月20日,最高檢第九檢察廳表示,檢察機關將會同相關單位共同協商研究,開展專項治理,推動加強對利用微信、QQ等網絡社交軟件實施強迫、組織賣淫等侵害未成年人犯罪活動的監(jiān)管和打擊,督促相關互聯網企業(yè)加強對“涉黃”等敏感、違法信息及相關代號的篩選甄別,嚴格社交賬號和實名制管理,進一步利用大數據完善對不良信息過濾、舉報等功能,屏蔽違法犯罪信息流通渠道。
這一專項治理行動以來,對依法打擊各種利用社交平臺實施的涉及未成年人的違法犯罪活動起到了重要的作用。隨著社交平臺逐漸向新聞內容、游戲、直播、支付等各種功能平臺的演化,加上目前各種涉及到未成年人的惡性犯罪事件頻發(fā),強化對社交平臺,甚至各種網絡平臺的未成年人保護主體責任還需要從立法層面上來填補法律漏洞。目前《未成年人保護法》、《預防未成年人犯罪法》正在修訂,未保法也首次增加了未成年人保護網絡專章,在立法中,針對網絡社交領域未成年人保護的上述議題進行探討,建構體系化的、具有針對性和可操作性的未成年人保護和風險防范機制,可成為立法工作中積極回應現實、面向未來的開放態(tài)度的重要體現。
京ICP備13018232號-3 | 互聯網新聞信息服務許可證10120230016 | 增值電信業(yè)務經營許可證京B2-20203552
信息網絡傳播視聽節(jié)目許可證0110425 | 廣播電視節(jié)目制作經營許可證(京)字第10541號
網絡出版服務許可證(京)字第181號 | 出版物經營許可證京零字第220018號 | 京公網安備11010702000076號
網站違法和不良信息舉報電話:010-8642 3089