观点
财经与科技
13分钟阅读
谁应该为儿童使用社交媒体造成的伤害承担责任?
从土耳其到澳大利亚的许多国家,法规中的新变化反映了这样一个共识:仅靠家长监督无法防止儿童因社交媒体而遭受的伤害。
谁应该为儿童使用社交媒体造成的伤害承担责任?
全球各地,政府正采取措施监管儿童的社交媒体使用。 / AP
11 小时前

全球范围内推动对儿童社交媒体使用进行监管的趋势,正把责任从家长监护转移到以吸引儿童注意力为盈利目的的平台上。

随着各国政府采取措施规范儿童使用社交媒体,有关数字伤害的讨论正在发生根本性变化。

从澳大利亚到英国,从挪威到土耳其,许多国家正在制定的监管政策在一个共同点上趋于一致:仅靠家长的监督无法预防儿童使用社交媒体所带来的危害。

责任必须与那些设计、管理并从在线环境中获利的数字平台共同承担。

这种转变并不意味着家长或公共机构可以免于责任。家庭和国家在儿童保护中仍然是核心角色。

不过,各国政府现在更明确、更坚决地主张,将责任延伸到那些设计、优化并商业化数字环境的平台上。

像其他用户一样,儿童并非简单地“使用”社交媒体;他们不断被引导、被激励,并被优化以获取利润的基础设施留在平台上。

无限滚动机制、算法推荐系统和奖励循环,都是为维持注意力经济而有意设计的。

在这种情况下,期望家长成为唯一的对抗力量、去对抗价值数万亿的注意力经济机器,既不现实也不公平。

大量跨学科的学术研究表明,青少年和儿童过度使用社交媒体与焦虑障碍、抑郁、睡眠问题、注意力缺陷、因滤镜视觉内容导致的体像障碍以及饮食失调等问题有密切关联。

肖沙娜·祖博夫提出的“监控资本主义”概念,为理解为什么责任在向上转移提供了有力的框架。

社交媒体平台系统性地收集并分析用户行为,预测未来行动,并通过定向广告和行为引导将这些洞见货币化。

在这一体系中,儿童不仅仅是脆弱用户,也是有价值的数据来源。每一次滑动、停顿、点赞和情绪反应都会产生可用于分析的行为剩余数据。

对于认知和情感发展仍在进行的儿童而言,这种数据提取会带来更深远、长期的后果。算法不仅学会儿童喜欢什么,也在塑造他们将来会渴望什么。

因此,当前的监管越来越倾向于限制对儿童的数据收集、禁止定向广告、要求推荐系统的透明度,并处罚那些以最大化参与度为目标的架构设计。

雅尼斯·瓦鲁法基斯提出的“技术封建主义”思想,为理解这种权力不对称提供了互补视角。

数字平台越来越像封建庄园,而不是传统的资本主义企业。

用户并不拥有这些数字空间;相反,他们在平台所有者单方面制定的规则下被授予有条件的访问权。

儿童在这些私有治理的生态系统中成长。他们的社交化、闲暇时间,甚至越来越多的教育体验,都在由算法而非民主监督主导的、缺乏透明度的系统中被塑造。

在这种背景下,家长权威在与持续的、隐形且可扩展的算法权威竞争时处于结构性劣势。

从这个角度看,将责任归咎于家长,近似于指责庄园里的佃农为封建庄园的所有制条件负责。认识到这种权力不对称的国家,正越来越多地把注意力从“臣民”转向“领主”。

澳大利亚对16岁以下人群使用社交媒体的禁令(于2025年12月10日生效)是这一转变中最引人注目的例子之一。

除少数例外(如 YouTube Kids)外,平台被要求实施严格的年龄验证系统;若未遵守,可能面临高达3200万美元的罚款。

前 Meta 高管史蒂芬·谢勒曾表示,公司可能在不到两小时内就能赚到这笔罚款金额,这一说法引发了对此类处罚威慑力的严重质疑。

在英国,《在线安全法》赋予媒体监管机构 Ofcom 对企业处以最高相当于其全球营业额10%罚款的权力。

首相基尔·斯塔默等多位政治人物公开表示,过度屏幕时间威胁儿童身心健康。

欧洲议会关于将社交媒体最低使用年龄设为16岁、人工智能工具和视频平台最低年龄设为13岁的决定,也反映了这一趋势。

法国正在讨论对15岁以下儿童全面禁用社交媒体以及某种形式的“数字宵禁”;西班牙则在准备对16岁以下用户要求父母同意的相关法规。

挪威则承认现有限制措施的低效性,正着手制定更有效的监督机制。

在美国,以数据隐私为中心的年龄门槛13岁仍然存在,但更严格的州级限制在言论自由的法律挑战下面临阻碍。

中国对儿童的数字控制是最严格的之一:对14岁以下儿童每日屏幕使用时长限制为40分钟,并在当地时间晚10点至早6点间完全限制数字接入。

尽管 TikTok 在全球拥有超过五亿用户,但在中国运行的是另一版本——抖音,使用不同的算法并更强调教育类内容。

法国总统埃马纽埃尔·马克龙公开表示,中国在全球范围内通过 TikTok 削弱儿童注意力,而在国内则用抖音引导儿童接触更有纪律性和教育性的内容。

这一差异表明,社交媒体平台不仅仅是商业实体,也可能成为文化软实力的工具。

西方社交媒体平台在中国被禁止这一事实,进一步表明国家越来越把数字平台视为战略性基础设施,而非单纯的自由市场参与者。

尽管通常被称为“大型科技公司”的主要科技企业已经采取了一些措施,但总体上它们仍然反对此类限制。

在禁令出台后,澳大利亚总理安东尼·阿尔巴尼斯表示,已有超过470万条16岁以下用户的社交媒体账户被停用、删除或限制。

大型科技公司的代表辩称,年龄验证技术会威胁隐私、侵犯儿童权利,甚至可能降低在线安全性。

然而,这些反对意见常常掩盖了更深层的担忧:失去一大批带来免费数据和内容的高利润用户群的风险。

Meta 首席执行官马可·扎克伯格、Instagram 主管亚当·莫西里和 Snapchat 首席执行官埃文·斯皮格尔,正面临多起诉讼,指控他们在明知对年轻用户有害的情况下设计了容易成瘾的产品。

与此同时,关于伦理与安全的自愿承诺越来越像所谓的“伦理漂白”(ethics washing):即分散责任却不改变根本的商业模式。

土耳其的儿童保护政策

围绕儿童在数字环境中出现的问题,土耳其的讨论反映了本地敏感性,但在总体上与全球监管趋势相一致。

由土耳其大国民议会人权调查委员会儿童权利小组准备的一份名为“威胁与风险:数字环境中等待我们的儿童”的报告草案,概述了这种做法的框架。

报告提出的建议包括:对18岁以下实施夜间访问限制、对15岁以下实施社交媒体禁令、在学校环境中限制数字设备、加强咨询服务以及为儿童申请特殊 SIM 卡等。

家庭与社会服务部部长马希努尔·厄兹德米尔·戈克塔斯宣布,针对15岁以下儿童的社交媒体监管立法准备工作将很快提交议会审议。

这一监管的理由包括:抑郁、焦虑和行为障碍的上升,以及儿童通过数字平台与犯罪网络接触的风险。

戈克塔斯部长表示,社交媒体平台不应把儿童视为商业资源或数据池。这些措施被呈现为一项旨在保护儿童免受数字生态系统结构性风险的战略公共政策,而非打压表达自由的干预。

在此框架内,“Cocuklar Guvende”(“儿童安全”)数字平台为儿童和家长提供指引和通知机制。

当局特别强调,对有害内容的打击必须是主动的、由平台本身执行,而不能仅依赖事后被动的干预。

儿童并非唯一暴露于数字伤害的群体。数字素养较低的成年人,尤其是老年人,也越来越容易受到虚假信息、情绪极化以及由算法引导的行为操控的影响。

因此,平台监管不仅仅是为了对儿童进行教育式的保护措施。

这也是为了加强数字化公共领域抵御虚假信息的能力,使民主过程免受算法俘获,并维护社会凝聚力的一场斗争。

如果平台设计数字环境、训练算法并系统性地从注意力经济中获利,那么责任就不能仅仅由个人、家庭或用户偏好来承担。

责任必须共担,权力也应纳入公共监督之下。