您现在位置 : 首页 > 乡村振兴 > 数字乡村

平台“准立法权”与未成年人 数据权利的反向保护机制研究

发布时间:2026-05-07 来源:安全应急信息网 浏览:
【字体大小:

新时青少年法治教育系列之七

 

平台“准立法权”与未成年人

数据权利的反向保护机制研究

孙祥  任振兴

 

互联网平台通过用户协议、算法推荐、数据处理等机制,形成了对用户的隐性权力结构。这种被称为“准立法权”的平台权力,使平台在事实上扮演着“私人立法者”的角色。未成年人在这一权力结构中处于更为被动的地位——他们不仅难以理解复杂的用户协议,更无法拒绝算法推荐、无力控制数据流转。本文从平台“准立法权”的概念辨析入手,分析未成年人在平台规则面前的被动失语状态,检视现行立法对未成年人数据权利保护的成就与局限,进而探索构建以“数据可携带权”“算法拒绝权”为核心的“反向保护机制”。研究认为,在平台权力日益扩张的背景下,单纯依靠监护人同意或平台自律已不足以保护未成年人权益,应从立法层面强化对平台“准立法权”的规制,为未成年人构筑清晰的数字生存红线。

数字时代,互联网平台已不再是中立的技术服务提供者。通过制定用户协议、设计算法规则、处理海量数据,平台获得了一种类似于“立法者”的权力——它可以单方面确定用户的权利边界,设定内容分发的逻辑,甚至决定用户在数字空间中的行为方式。学者将这种权力概括为平台的“准立法权”。

在这一权力结构中,未成年人群体处于尤为脆弱的地位。据统计,我国未成年网民规模已超过1.8亿,互联网普及率达94%以上。然而,这些“数字原住民”在享受网络便利的同时,却鲜少能够理解自己每天点击“同意”的用户协议意味着什么,更遑论对算法推荐说“不”,或要求平台将属于自己的数据转移至别处。这是一种“看不见的权益”——它们真实存在,却被平台的规则迷雾所遮蔽;它们关乎未成年人的数字生存,却鲜少进入公众讨论的视野。

面对平台的“准立法权”,如何为未成年人构建有效的反向保护机制?所谓“反向保护”,并非简单的对抗或限制,而是通过赋予未成年人特定的程序性权利,使其能够在平台权力面前获得某种制衡能力。具体而言,本文将论证从立法层面确立未成年人“数据可携带权”和“算法拒绝权”的紧迫性,探讨这些权利如何从源头规制平台权力,为未成年人的数字权益划出不可逾越的红线。

、平台的“准立法权”概念、形成与扩张

(一)从企业到“准立法者”:平台权力的性质嬗变

传统法律理论将权力划分为公权力与私权利两大范畴。然而,数字平台的兴起打破了这一二元框架。平台既不是纯粹的市场主体,也不是传统意义上的公权力机关,却在事实上发挥着类似于立法、行政、司法的功能。

所谓“准立法权”,是指超级平台可以制定其所属数字基础设施领域的治理规则,这种规则虽然以合同形式呈现,却对海量用户具有普遍约束力,带有准立法的性质。以微信、抖音、淘宝等平台为例,其用户协议动辄数万字,涵盖内容发布、账号管理、交易规则、纠纷解决等各个方面,用户在点击“同意”的那一刻,便进入了一个由平台单方设定的法律秩序之中。

这种权力的特殊性在于:其一,平台既是规则的制定者,也是规则的执行者和纠纷的裁判者,形成了事实上的“三权合一”;其二,平台规则具有“打包同意”的特征,用户无法就个别条款进行协商,只能全有或全无地接受;其三,平台可以通过算法技术实现规则的自动化执行,使规则的实施变得隐蔽而高效。

(二)平台“准立法权”的形成机制

平台“准立法权”的形成,源于多重因素的叠加。

首先,网络效应与锁定效应奠定了平台的权力基础。随着平台用户规模的扩大,其网络价值呈指数级增长,用户转换平台的成本也随之攀升。对于未成年人而言,社交关系、学习记录、娱乐内容都与特定平台深度绑定,退出不仅意味着数据的中断,更意味着社交网络的断裂。

其次,数据能力强化了平台的权力优势。平台通过持续收集用户数据,能够形成对用户行为的精准画像,进而预测甚至塑造用户的需求和偏好。这种“数据霸权”使平台能够在不依赖强制手段的情况下,实现对用户行为的引导和控制。

再次,算法技术赋予平台“执法”能力。传统企业的规则执行依赖人工,效率有限;而平台可以通过算法实现自动化执法——违规内容被自动屏蔽、异常行为被自动标记、用户账号被自动处置。这种“算法执法”不仅高效,而且难以被用户察觉和质疑。

最后,用户协议的格式条款属性,为平台权力提供了法律形式的外衣。平台通过用户协议将自身意志转化为“合同义务”,使规则的约束力获得了法律上的正当性。用户即使对条款内容不满,也难以主张协议无效——格式条款规制在司法实践中往往面临举证困难、认定标准模糊等问题。

(三)平台规则的法律效力:形式合同与实质立法

从形式上看,用户协议是双方自愿订立的合同;但从实质上看,它更接近于平台单方制定的“私人法律”。这种张力集中体现在三个方面:

第一,规则的单方变更权。多数平台在用户协议中保留了单方修改规则的权利,用户如不接受变更后的条款,只能选择退出服务。这意味着一部“法律”可以在未经“立法机关”审议、未经“公民”表决的情况下随时修改。

第二,规则的不可协商性。平台规则对所有用户一体适用,个别用户无法就条款内容提出异议或进行谈判。这种“要么接受、要么离开”的模式,与传统立法并无二致。

第三,规则的普遍约束力。平台规则不仅约束用户与平台之间的关系,还规范用户之间的行为——内容发布标准、交易诚信规则、社区行为准则,无不体现着平台的价值判断和利益考量。

正是基于这些特征,我们主张应将平台规则纳入类似立法的审查机制,对其合法性、合理性进行监督。这一主张对于未成年人权益保护尤为重要——如果成年人尚且难以与平台权力相抗衡,未成年人更需要在制度层面获得特殊关照。

、未成年人在平台权力结构中的处境

(一)“同意”的悖论:用户协议阅读的认知障碍

平台权力的行使以用户“同意”为合法性基础。然而,对于未成年人而言,这种“同意”机制存在内在的悖论。

首先,用户协议的可读性远超未成年人的认知水平。研究显示,主流平台的用户协议阅读难度普遍相当于大学本科以上学历,大量使用法律术语和复杂句式,未成年人即使有阅读意愿,也难以理解条款的实际含义。

其次,“知情同意”在实践中异化为“点击同意”。平台通常将同意框默认勾选,将用户协议和隐私政策以超链接形式置于页面角落,用户甚至无需阅读即可完成注册流程。这种设计虽提高了转化率,却使“同意”沦为空壳。

再次,监护人同意的局限性日益凸显。监护人自身往往也难以理解复杂的平台规则,更遑论代未成年人做出明智判断。更值得警惕的是,实践中出现了“监护人反向侵权”现象——监护人在社交媒体上过度披露未成年人信息,反而成为未成年人数据权益的侵害者。这表明,将保护责任完全交由监护人承担,既不公平也不现实。

(二)算法的遮蔽:未成年人如何被“分类”与“塑造”

如果说用户协议是平台权力的“明线”,那么算法就是“暗线”。算法推荐系统通过对用户行为的持续分析,将未成年人分类、标签化,进而推送定制化内容。这一过程既塑造着未成年人的信息获取方式,也影响着他们的认知结构和价值取向。

未成年人面对算法时处于双重被动:一方面,他们难以理解算法运行的逻辑,不知道自己的点击、停留、点赞如何被转化为数据点,又如何被用于内容推荐;另一方面,他们缺乏拒绝算法推荐的有效途径。虽然近年来监管部门要求平台提供关闭算法推荐的选项,但对于未成年人而言,这一选项往往隐藏在多层菜单之下,其存在本身也鲜为人知。

更为深层的问题在于,算法的“信息茧房”效应可能对未成年人产生特殊影响。未成年人的认知结构尚未定型,长期接收同质化内容推送,可能限制其视野拓展和思维发展。而当推荐内容涉及不良信息时,算法的精准推送反而可能放大危害。

(三)数据的流失:个人信息被收集后的控制权真空

一旦个人信息被平台收集,未成年人便基本失去了对数据的控制能力。数据被用于何种目的?与哪些第三方共享?存储多长时间?如何确保安全?这些问题在用户协议中虽有承诺,但实践中难以监督。

更值得关注的是数据的“锁定效应”。未成年人在平台上积累的内容、社交关系、行为记录,构成其数字身份的核心要素。当希望转换平台时,这些数据却无法随之转移——平台既没有义务提供数据导出工具,也没有接口支持数据迁移。这种数据锁定不仅增加了用户的转换成本,也强化了平台的市场力量。

对于未成年人而言,数据锁定的后果尤为深远。他们在某个平台上形成的数字足迹,可能伴随其整个成长过程。如果未来希望摆脱某个平台的控制,或者发现平台存在数据滥用行为,却因为无法带走自己的数据而被迫留驻,这种“被动锁定”对其自主发展的限制不容小觑。

(四)救济的困境:个体维权的程序壁垒

当未成年人的数据权益受到侵害时,能够寻求的有效救济途径极为有限。

诉讼途径面临多重障碍:原告需要证明损害的存在、被告的过错、因果关系等要件,举证责任沉重;诉讼周期长、成本高,未成年人难以独立承担;即便胜诉,赔偿数额往往有限,难以起到惩戒作用。

投诉途径同样效果有限。平台内部投诉机制由平台自行设置,缺乏独立性保障;向监管部门投诉则面临处理周期不确定、结果不可预期等问题。对于未成年人而言,这些程序壁垒往往意味着救济的不可及。

、反向保护的制度基础现行法的成就与局限

(一)既有立法框架:未成年人数据保护的“正向规制”

我国已初步构建未成年人数据保护的法律框架。《未成年人保护法》设立“网络保护”专章,规定信息处理者处理不满十四周岁未成年人个人信息的,应当征得监护人同意。《个人信息保护法》进一步将不满十四周岁未成年人的个人信息列为敏感个人信息,要求制定专门的个人信息处理规则。《未成年人网络保护条例》则对网络平台服务提供者提出了更为具体的要求,包括建立未成年人模式、规范信息内容推送、防治网络沉迷等。

这一框架可概括为“正向规制”模式:以立法直接规定平台的行为义务,通过监管执法保障义务履行。其核心机制包括监护人同意、敏感信息特殊保护、平台合规要求等。

(二)正向规制的局限:为何需要“反向保护”

正向规制固然重要,但其局限性也日益显现。

其一,监管资源的有限性。我国互联网平台数以百万计,监管部门难以实现对平台合规状况的全覆盖检查。平台“消极合规”“形式保护”现象普遍存在,即使被查处的案例,也往往因处罚力度不足而难以形成有效威慑。

其二,监护人同意的形式化。如前所述,监护人自身难以充分理解平台规则,其同意往往流于形式。更严重的是,监护人可能成为未成年人数据权益的侵害者,此时依赖监护人同意反而适得其反。

其三,平台义务的边界模糊。现行立法对平台义务的规定多为原则性条款,具体内涵需要在执法和司法中逐步明确。这一过程耗时漫长,难以跟上技术迭代的速度。

其四,未成年人主体性的缺失。正向规制将未成年人定位为被保护对象,却较少关注如何赋予其主动控制自身数据的能力。这种“家长主义”保护模式虽有必要,但不能替代未成年人自主权的确立。

正是在这一背景下,“反向保护”机制的价值得以凸显。所谓反向保护,不是以立法直接规定平台“应该做什么”,而是赋予未成年人“可以做什么”的权利——通过权利的行使,使未成年人能够在与平台的权力关系中占据更主动的位置。数据可携带权与算法拒绝权,正是反向保护机制的核心内容。

、反向保护机制的核心数据可携带权与算法拒绝权

(一)数据可携带权的引入、内涵与未成年人适用

数据可携带权是指数据主体有权获得其已向数据控制者提供的个人数据,并有权将这些数据转移给其他数据控制者。这一权利源自欧盟《通用数据保护条例》(GDPR),我国《个人信息保护法》在三次审议时借鉴域外立法经验,增加了相关规定:“个人请求将个人信息转移至其指定的个人信息处理者,符合国家网信部门规定条件的,个人信息处理者应当提供转移的途径”。

数据可携带权对未成年人具有特殊意义。第一,它有助于打破数据锁定,降低未成年人转换平台的成本。当未成年人对某个平台的服务不满,或者发现更有利于自身发展的平台时,可以携带历史数据“搬家”,避免从头积累的损失。

第二,它有助于增强未成年人对自身数据的控制感。数据可携带权的行使过程,本身就是数据主体认识自身数据、反思数据价值的过程。对于正在形成自我意识的未成年人而言,这种控制感的培养具有重要意义。

第三,它有助于促进平台间的良性竞争。当用户可以自由迁移数据,平台便难以通过锁定效应维持垄断地位,而必须通过改善服务、加强保护来争取用户选择。

当然,未成年人行使数据可携带权也面临特殊考量。从积极层面看,应允许未成年人在达到一定年龄后自行行使该权利,而非完全依赖监护人代理;从审慎层面看,应防止数据携带过程中的二次泄露,要求平台采用安全可靠的传输方式。国家网信部门正在制定的相关规定,应充分考虑未成年人适用的特殊规则。

(二)算法拒绝权的内涵与制度展开

算法拒绝权是指数据主体有权拒绝仅通过自动化决策的方式作出对其有重大影响的决定,有权要求算法推送时提供不针对个人特征的选项。《个人信息保护法》第二十四条规定:自动化决策向个人推送信息、进行商业营销时,应同时提供不针对其个人特征的选项,或向个人提供拒绝的方式;作出对个人权益有重大影响的决定,个人有权要求予以说明,有权拒绝仅通过自动化决策的方式作出决定。

对于未成年人而言,算法拒绝权的意义体现在多个层面。

其一,拒绝算法推荐有助于拓宽信息视野。关闭个性化推荐后,未成年人能够接触到更多元的内容,减少陷入“信息茧房”的风险。《移动互联网应用服务用户权益保护合规管理指南》明确提出,要向用户提供便捷关闭算法推荐服务的选项,防范“信息茧房”等问题。

其二,拒绝自动化决策有助于保障公平对待。当算法用于评估未成年人的学业表现、行为习惯甚至发展潜力时,其决策结果可能对未成年人产生深远影响。赋予未成年人拒绝自动化决策的权利,意味着在关键时刻可以获得人工复核的机会,避免被算法“一票否决”。

其三,拒绝权的行使过程本身就是算法透明的推动力。当越来越多的用户拒绝算法推荐,平台便有动力改进算法的透明度,向用户更清晰地解释算法的运行逻辑。

当然,算法拒绝权的有效行使同样面临障碍——用户需要知道拒绝选项的存在,需要理解拒绝的后果。对于未成年人,应要求平台以更显著的方式提示拒绝选项,提供更通俗的说明。

(三)两种权利的反向保护机理:从“被保护”到“能自卫”

数据可携带权与算法拒绝权的共同特征,是赋予未成年人主动权利,而非单纯依赖平台义务。这是一种“赋能型”保护模式:不是告诉平台“你应该如何对待未成年人”,而是告诉未成年人“你可以如何维护自身权益”。

这种反向保护机理的核心,是将未成年人从被动的保护对象转变为主动的权利主体。在正向规制模式下,未成年人权益的实现依赖于监管者的执法效率和平台的自律程度;在反向保护模式下,未成年人可以通过行使权利直接介入与平台的法律关系,形成对平台权力的制衡。

当然,反向保护并非替代正向规制,而是与之互补。正向规制为平台划定行为底线,反向保护为未成年人提供维权工具;正向规制侧重于事前预防,反向保护强化事后救济;正向规制体现国家对未成年人的特殊保护,反向保护彰显未成年人的主体地位。二者结合,方能构建完整的保护体系。

、从立法层面规制平台权力的路径

(一)平台规则的准立法审查:备案、评估与矫正

既然平台规则具有准立法性质,就应当引入类似立法的审查机制。具体而言,可从以下方面着手:

第一,建立平台规则备案制度。要求主要互联网平台将其用户协议、隐私政策、内容管理规则等报送监管部门备案,监管部门可对备案规则进行合法性审查。

第二,引入未成年人影响评估机制。要求平台在制定或修改涉及未成年人权益的规则时,事先评估其可能对未成年人产生的影响,并将评估报告报送监管部门。这种评估应包括:规则是否易于未成年人理解?是否限制了未成年人的重要权利?是否提供了替代方案?

第三,建立规则矫正机制。对于违反法律规定或明显不利于未成年人权益的规则,监管部门有权责令修改;对于规则执行中侵害未成年人权益的行为,应建立便捷的投诉和处理机制。

第四,探索平台规则制定中的公众参与。可借鉴欧盟《数字服务法》的实践经验,要求平台在制定重大规则时征求用户意见,包括未成年人及其监护人的意见。

(二)未成年人数据可携带权的立法细化

《个人信息保护法》虽然引入了数据可携带权,但其具体适用条件授权国家网信部门另行规定。针对未成年人群体,这一细化规定应特别考虑以下问题:

其一,未成年人行使可携带权的年龄界限。建议明确:已满十四周岁的未成年人可独立行使数据可携带权;不满十四周岁的,可由监护人代理行使,但监护人行使时不得损害被监护人的利益。

其二,可携带数据的范围。不仅应包括用户主动提供的数据,还应包括用户使用服务过程中产生的行为数据,如发布记录、互动记录、消费记录等。但对于涉及第三方权益的数据(如他人的留言、互动),应在携带时进行脱敏处理。

其三,数据携带的技术标准。国家网信部门应制定统一的数据格式和传输接口标准,避免平台以技术不兼容为由阻碍数据转移。

其四,数据携带的免费原则。平台不得对数据携带收取费用,不得以数据携带为由降低服务质量。

(三)未成年人算法拒绝权的程序保障

算法拒绝权的有效行使,需要配套的程序保障。

首先,拒绝选项的易得性。要求平台在显著位置设置算法推荐的开关选项,不得将关闭选项隐藏于多层菜单之后。对于未成年人用户,应在注册时即提示该选项的存在。

其次,拒绝后果的明确告知。平台应向用户清晰说明关闭算法推荐后可能发生的变化(如内容不再个性化、刷新频率可能变化等),使未成年人能够做出知情选择。

再次,人工复核机制的有效性。对于涉及未成年人重大利益的自动化决策(如账号封禁、内容限流等),应允许未成年人申请人工复核,平台应建立独立的人工复核团队,并在规定时限内作出答复。

最后,救济途径的可及性。当未成年人的算法拒绝权受到侵害时,应可通过便捷途径向监管部门投诉或寻求司法救济。考虑到未成年人的特殊性,可探索由检察机关支持起诉、由公益组织代理投诉等机制。

(四)平台前置义务的强化与国家干预双轨制

从最有利于未成年人原则出发,国家应强化平台在未成年人数据保护中的前置义务。

所谓平台前置义务,是指平台在未成年人数据保护中应当承担的首要责任。这不仅包括不侵害未成年人权益的消极义务,更包括积极采取措施保护未成年人的积极义务。具体而言:建立敏感信息自动识别和阻断机制,对未成年人面部识别、生物特征、地理位置等高度敏感信息设置明确的“禁止上传”提示;根据未成年人年龄阶段设定不同的信息公开和互动权限,实现分级保护;建立信息滥用预警模型,识别疑似数据滥用行为后及时警示并向监管部门报告。

同时,国家应建立支持性介入与保护性介入相结合的双轨制干预机制。支持性介入强调通过教育指导和资源支持,提升家庭自身的信息保护能力;保护性介入则强调在家庭失职情形下,国家应当负起替代保护责任。对于平台而言,这意味着不仅要配合家庭保护,还要在家庭保护不足时主动向监管部门报告,成为国家保护的延伸触角。

、为未成年人构筑数字生存红线

平台“准立法权”的兴起,是数字时代法治面临的新课题。当平台可以单方制定规则、通过算法自动执行、借助数据锁定用户,传统以“知情同意”为核心的保护机制已显力不从心。对于未成年人这一特殊群体,问题更为紧迫——他们在认知能力、谈判地位、救济渠道上的弱势,使其更容易成为平台权力的被动承受者。

构建以数据可携带权和算法拒绝权为核心的“反向保护机制”,并非否定正向规制的价值,而是试图在正向规制之外开辟新的路径。这一路径的核心,是将未成年人从被保护者重塑为权利主体,通过赋予其主动权利,使其能够在与平台的权力关系中获得某种制衡能力。这是一种“赋能型”保护,也是一种“参与型”治理。

当然,权利的纸面确立与权利的实际行使之间仍有距离。如何让未成年人真正理解这些权利?如何降低权利行使的门槛?如何确保权利受到侵害时的有效救济?这些问题需要在立法细化、执法配套、司法保障等多个层面持续探索。

最终的目标,是为未成年人在数字世界中划出清晰的红线——红线之内,是平台不可侵犯的权益边界;红线之外,是未成年人自主发展的数字空间。这条红线的划定,需要立法者的智慧,需要监管者的担当,需要司法者的勇气,也需要社会各界的共同参与。唯有如此,才能让未成年人在享受数字红利的同时,不再成为“看不见的权益”的失语者。

 

 

数字编辑:孙  祥

数字审核:光  明

数字谏议:修  予

数字议事:懋  源

数字责编:唐起春

数字统建:任振兴

数字格鉴:李建阳

安全应急信息网版权及免责声明:

凡本网来源注明“安全应急信息网”所有信息稿件和图片作品,版权均属于安全应急信息网,未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品。已经本网授权使用信息稿件和图片作品的,应在授权范围内使用,并注明“来源:安全应急信息网”。违反上述声明者,本网将追究其相关法律责任。

安全应急信息网 邮箱:aqyjxxw@163.com