SERVICE PHONE
363050.com发布时间:2026-01-14 08:28:39 点击量:
哈希游戏,哈希博彩平台,比特币哈希游戏,区块链博彩,去中心化博彩平台,可验证公平平台,首存送88U,虚拟币哈希娱乐
本系列案例研究是在中国网络社会组织联合会(CFIS)、中国传媒大学(CUC)与参与研究的中国企业共同开展的“服务未成年人的负责任科技创新” 并关注“设计保障儿童安全”的企业案例研究项目框架下完成的,并得到联合国儿童基金会驻华办事处的支持。研究所需信息通过两种方式获取:一是企业自愿提供的披露信息,二是公开可获取的信息。案例研究中作为分析对象的产品,其筛选工作由联合国儿童基金会的咨询合作方——BSR咨询负责开展。
本报告为联合国儿童基金会出版物。对各企业的致谢并不意味着本系列案例研究已获得各企业的认可或支持。文中提及任何特定企业,也不代表联合国儿童基金会代言该企业的政策、产品及实践。这些案例研究旨在探讨中国科技公司如何在实践中应用“设计保障儿童安全”原则。研究结果仅用于展示当前的实践情况,并不旨在对相关主题的其他研究或行业实践提供全面或定论性的观点。
本研究中的引述内容及案例仅用于凸显儿童面临的潜在风险或可获得的机遇。本系列案例研究并非旨在开展正式风险评估,也不代表对相关产品在儿童安全方面所涉风险与机遇的全面呈现。同时,案例研究亦不试图对所涵盖领域内的研究成果或行业实践进行全面阐述或得出定论。此外,本系列案例研究既未阐明、也不代表联合国儿童基金会的任何官方立场。
腾讯未成年人保护中心是一个旨在加强儿童上网安全与家庭教育的综合性平台。其核心是一套内置在腾讯各类应用中的家长控制系统,可帮助家庭管理儿童对游戏、社交媒体及数字内容的使用权限。该中心的人工智能模型不仅为家长工具和教育内容提供技术支持,还通过互动指导和案例分析为家庭提供助力。
本案例分析探讨了腾讯如何着手应对数字时代儿童成长过程中的两大核心挑战:安全保障(涵盖年龄验证、内容过滤及风险评估等方面)和人际关系(通过各类工具,助力构建健康的家庭关系与社交联系)。
腾讯通过整合技术、家庭教育与利益相关方协作,致力于在儿童安全与数字包容之间实现平衡,同时也认识到,随着风险不断演变,对反馈收集、影响分析及策略调整的需求将持续存在。
本报告为联合国儿童基金会出版物。对各企业的致谢并不意味着本系列案例研究已获得各企业的
认可或支持。文中提及任何特定企业,也不代表联合国儿童基金会代言该企业的政策、产品及实践。
腾讯是一家总部位于中国的全球性科技公司,拥有多元化的科技产品及服务组合,涵盖游戏、社交媒体、音乐流媒体、支付服务及即时通讯等领域。这些产品在为儿童带来多样化机遇的同时,也伴随着各类风险。
为防控部分此类风险,腾讯已设立未成年人保护中心,并搭建了家长服务平台。该家长控制平台已整合到腾讯生态内的各类应用中,其核心功能在于管理儿童对游戏、社交媒体及其他数字内容的使用权限。该系统包含多款工具,例如“腾讯公益家庭教育AI模型”,该模型可提供教育内容、问答功能及案例分析。此外,家长控制功能还针对儿童不同成长阶段,定制了相应的安全保护措施。与此同时,“设计保障儿童安全”的理念至关重要:这一理念既确保平台具备安全防护能力,又避免过度限制平台的开放性,从而保障儿童能切实从数字服务中获益。
本案例分析聚焦儿童福祉的两个关键维度——安全保障与人际关系。腾讯方面表示,未成年人保护中心将“设计保障儿童安全”理念置于优先地位,通过年龄验证、内容过滤及游戏时长限制等功能落实这一理念。腾讯指出,其安全保障措施不仅包括产品开发阶段的风险评估,还涵盖与儿童群体的直接沟通互动。此外,未成年人保护中心在“家庭守护计划”框架下,提供由人工智能驱动的教育工具,这些工具可支持家长开展个性化学习,并助力解决各类家庭问题。
腾讯在平衡商业责任与社会责任方面面临挑战,尤其是在防控儿童消费风险这一问题上。家长控制平台可助力保障儿童安全,例如平台内置的年龄验证机制、内容过滤功能以及对使用游戏时间过长的限制措施。这些举措虽能防控部分儿童安全风险,但仍需对这些方法产生的实际效果开展更多分析。
此外,平衡风险防控与产品服务的开放性也至关重要,唯有如此,儿童在数字世界中的各项权利才能得到充分尊重。未来的发展方向包括拓展外部利益相关方的协作范围,例如与儿童群体及儿童安全领域专家开展更直接的咨询沟通,同时在产品全生命周期内规范尽职调查流程。
年龄验证:估算或核实用户年龄的流程,以便数字服务能根据儿童需求进行定制,并落实符合其年龄段的保护措施。
儿童友好型信息提供:以儿童易于接受的语言及方式传递信息(例如使用清晰、易懂、简短的语句,仅在需要儿童做出决策时提供必要信息,且采用交互式工具),提升儿童的关注意愿。
儿童参与企业决策:咨询儿童意见,并将其观点纳入数字服务的设计与部署过程。
腾讯在产品全生命周期内开展的安全风险评估设计保障儿童安全,应在产品全生命周期的关键阶段落实:
1.产品构思阶段:企业对产品进行概念构想、调研并明确产品价值主张,同时制定产品设计方案与概念的阶段。
2.产品开发与测试阶段:企业进行产品开发与迭代、制作原型,并在产品上线前开展测试的阶段。
3.销售、营销与部署阶段:企业将产品推向市场、推动产品部署,并在部署后监测产品使用情况以进行后续迭代的阶段。
腾讯表示,其“设计保障儿童安全”的理念从产品构思阶段便开始落实:在该阶段,腾讯会开展初步影响评估,以识别产品可能对儿童权利产生的潜在影响。随后,公司会召开跨部门团队会议,审核评估结果,并确定所需采取的风险防控措施。此阶段会有专门团队协调不同团队开展工作:家庭教育咨询团队负责监督教育模型的构思与设计,家庭教育团队负责内容运营管理,产品团队则承担产品开发工作。
腾讯表示,在产品开发与测试阶段,公司会开展更为详细的影响评估:根据风险的严重程度与发生概率对其进行评估和优先级排序,核心目标是优先解决高风险问题。此阶段会制作产品原型并进行测试,且会重点针对儿童用户开展测试,以确保产品符合安全与伦理标准。同时,家庭教育咨询团队会开展实地调研,通过问卷形式直接从社区、学校及家庭收集数据。此外,一支涵盖产品开发、合规法务及社会责任部门成员的跨部门团队会协同合作,共同评估产品对儿童权利产生的影响。
腾讯表示,公司会借助数据工具开展定期风险评估并识别潜在问题。同时,腾讯还会收集并分析家长及儿童用户的反馈,进一步优化产品。在整个阶段,腾讯会与政府监管部门保持沟通,确保合规运营;此外,还会充分利用学术合作及非营利组织合作所获取的洞见,优化教育模型。公司倡导对教育模型进行迭代改进,重点在于增强其类人化特征,从而实现与用户的高效互动。
腾讯表示,在市场推广、销售及部署阶段,公司会收集用户反馈,以识别并解决产品上线后出现的各类风险与挑战。同时,腾讯还会接收来自家长及儿童用户的反馈,用于产品的持续优化。此外,腾讯还会主动与非营利组织及学术机构开展沟通,分享相关洞见,并依据儿童安全原则对产品产生的影响进行评估。
儿童友好型信息提供服务有助于儿童理解:他们所使用的各类数字产品及服务相关的服务条款、这些产品与服务可能存在的风险,以及如何举报伤害行为、标记不安全或非法内容。
风险评估是“设计保障儿童安全”理念的核心环节,在风险识别、风险防控以及防控措施有效性的跟踪与沟通方面发挥关键作用。然而,正如经济合作与发展组织(OECD)所指出的,企业还需实施其他流程,以确保风险能够得到恰当识别与应对。本案例研究重点介绍了其中四类流程:
在“设计保障数字安全”理念中,确认用户年龄至关重要:只有明确哪些用户实为儿童,相关服务才能切实保护儿童免受不安全内容与行为的影响。
腾讯表示,其年龄验证系统整合了强制性的实名认证与随机人脸识别核验功能。该公司指出,所有用户均需通过中国的公安身份识别系统完成实名认证,该系统会自动判定用户是否为未成年人。据介绍,这一判定结果会触发未成年人保护中心针对不健康游戏使用行为的应对流程。
人工智能人脸识别技术还用于核验疑似使用成人账号的儿童用户身份。腾讯表示,公司不会存储完整人脸图像;相反,会对人脸信息进行进一步处理,并将其与身份标识信息分开存储,以防止数据泄露。腾讯称,上述信息会在限定期限后被删除或匿名化处理,且数据的存储与传输均采用加密方式。
在时间管理方面,未成年人仅可在周五、周六及法定节假日的20:00至21:00期间登录游戏(此为中国相关政策规定)。28当儿童使用支持直接扣款支付的数字产品时,平台会对其每日总消费金额设置限制:8周岁以下用户禁止充值;8-12周岁用户单次充值最高不超过50元,每月累计充值最高不超过200元;13-18周岁用户单次充值最高不超过100元,每月累计充值最高不超过400元。此外,若用户单日消费总额超过500元,系统将触发异常支付预警,并向家长发送短信提醒。
腾讯表示,该平台支持家长关联孩子的游戏账号,以便家长实时查看游戏时长与消费记录。家长还可设置个性化的时间限制(例如,仅允许孩子在周末玩游戏),从而更好地管理孩子的互联网使用情况。
腾讯表示,其运用游戏、动画、绘画等互动式媒体形式,让信息传递过程更具趣味性,从而吸引儿童的注意力(见下方图片)。
此外,腾讯表示,其平台提供专门为儿童设计的互联网安全主题动画视频。例如,《未成年人防诈骗图解指南》将常见网络诈骗类型融入童谣中,并搭配动画场景,以吸引儿童用户的注意力。据介绍,这类动画视频的播放量已突破100万次,且已进入校园播放。
帮助儿童了解如何举报事件与伤害行为、标记不安全或非法内容,这一点至关重要。若投诉机制难以被儿童找到、获取或使用,其实际效用将大打折扣……因此,儿童友好型投诉机制必不可少。
腾讯平台设有多个举报渠道,供儿童用户反馈技术问题,或举报不良信息及非法活动。腾讯表示,目前平台共设有四大投诉渠道,具体如下:
腾讯指出,儿童用户可使用的上述四大投诉渠道均需监护人协助并同意方可使用。在这四大渠道中,部分渠道对儿童而言使用难度较高,例如通过邮件向腾讯反馈问题——这类渠道往往需要监护人提供大量协助或指导。而其他渠道(如通过平台内置的一键举报功能)则更易于儿童操作,仅需少量协助即可使用。
在涉及儿童自身的事务中,儿童享有表达意见的权利。当儿童(及青少年)参与到影响自身的项目与政策制定过程中时,这些项目与政策更有可能更好地契合儿童的需求、兴趣与背景。
腾讯表示,其通过访谈、调研和小组讨论的形式与儿童直接沟通,以了解他们对数字服务的期望与需求。该公司会观察儿童在使用数字服务时的行为与反应,从而明确他们的兴趣点及面临的问题。儿童参与此类调研需遵循自愿原则,且须获得家长或监护人的同意。通过该类调研收集的数据会进行匿名化处理,遵循数据最小化原则,并依据中国数据保护相关法律开展收集工作。
为提高公众的网络安全意识,腾讯以儿童易于接受的形式(如漫画、互动游戏)普及常见诈骗类型及防护方法。同时,该公司还会组织路演与课程(主要在城市地区开展),向青少年宣传上网安全知识。每年,腾讯都会邀请儿童参观腾讯未成年人保护中心。中心内设有专门的“网络安全屋”,通过寓教于乐的沉浸式互动体验,让儿童在游戏过程中学习网络保护知识。
本节将阐述腾讯产品中存在的部分儿童安全风险(这些风险已通过未成年人保护中心得到部分防控),以及上文所述的“设计保障儿童安全”流程如何帮助腾讯防控此类风险。需要说明的是,本节列举的安全风险案例仅为示例,并非详尽无遗。
游戏产品的潜在风险之一是儿童用户对电子游戏产生不良使用行为。这种不良使用行为的特征是挤占睡眠、体育锻炼等必要活动的时间,进而可能导致健康状况不佳。根据腾讯未成年人保护中心2024年的数据,9-12岁男性儿童(占总体的82%)是电子游戏相关问题的高风险群体,而家长普遍缺乏应对该问题的有效教育方法。在存在游戏不良使用倾向的家庭中,39.3%的家庭采用放任型教养方式,20.36%的家庭存在过度保护行为(防护措施过当),14.98%的家庭则处于教养缺位状态(对孩子的行为缺乏了解)。
腾讯表示,其通过一套游戏前、游戏中及游戏后的组合措施,致力于应对游戏不良使用风险。据悉,这些措施包括教育工具、一对一专家指导,以及家长通过平台对未成年人游戏时长进行管控。
腾讯旗下的系列产品可能使儿童面临与内容相关的风险,此类风险会威胁儿童的安全。在游戏社区中,儿童可能接触到不符合其年龄段的内容或露骨内容(包括含暴力、性主题的内容),这些内容可能出现在聊天信息及用户生成内容中。
此外,还存在诸多与行为相关的风险:其中一个重要例子是,施害者常利用网络游戏诱导儿童以实施性侵害。在这些网络生态系统中,由于实时互动并非总能得到全面监管,网络欺凌的发生概率以及儿童接触潜在施害者的风险也会随之增加。
为防控上述风险,腾讯已尝试制定多项应对策略,例如出台安全政策、推出未成年人模式、实施技术监测、开展人机协同审核,并建立反馈举报机制等。这些策略整合了自动化审核与人工审核流程。举例来说,若某用户发布内容为“昨天在X区看到有人持刀打架,太吓人了”,系统会通过语义分析识别出“刀”“打架”“吓人”等敏感词汇,将该内容归类为暴力场景描述类信息。随后,人工审核人员会进一步确认该内容是否违反内容规范,确认违规后便会将其删除。
同样,此类自动化或人工审核也可能识别出施害者(如诱导侵害儿童的人员)常用的语言,例如针对未成年人的俚语,或涉及不当关系的表述——即便这些语言较为隐晦或经过加密处理。腾讯指出,其基于人工智能技术构建的内容安全审核系统,融合了大语言模型的多模态能力与人工审核优势,能够精准检测出不良内容及行为(如涉性内容),召回率超过80%。该系统在设计上会对这些不良内容及行为的特征标记,以便开展进一步核查,目标是及时识别潜在不良内容,从而保护易受伤害的用户群体。此类安全风险对科技企业而言颇具挑战性,因此需要对上述策略进行持续审核与调整,以实现风险防控。
通过以家庭教育为导向的人工智能模型补充人际关系腾讯未成年人保护中心致力于促进亲子关系,其依托的正是腾讯所定义的中国科技行业内“首个家庭教育人工智能模型”。该模型旨在成为家长的数字化教育伙伴,为家长在教育过程中面临的难题提供个性化解决方案。
该人工智能模型以聊天机器人的形式集成于腾讯平台中。该聊天机器人基于腾讯混元大语言模型构建,家长可通过它使用腾讯平台上的各类工具及应用,例如教育视频、案例研究和志愿服务相关资源。腾讯指出,尽管该聊天机器人仍在持续优化,但它的目标是:在对话场景中,根据用户需求开展精准的内容对话、提供针对性的工具推荐,并提供教育咨询服务。
该模型的训练数据来源于未成年人保护中心处理过的真实案例。这款家庭教育模型不仅致力于应对当前的教育难题、预测未来的教育趋势,还可解答与家庭教育、学校教育及社区教育相关的问题。根据腾讯的基准测试数据,该模型的问题解决准确率达到94.6%。除问答功能外,模型还内置了多媒体教育资源库,例如涵盖各类家庭教育主题的视频资源。
未成年人保护中心还采用了互动式支持方式,例如志愿者问答环节和教育工具。在志愿者问答方面,腾讯会筛选具备资质且经验丰富的志愿者来解答用户咨询,让用户能从背景各异的志愿者那里获取合适的答案。在某些特定的育儿场景中,非即时性的文字及语音指导可能效率较低,家长用户可通过能提供额外信息的教育工具提升自身育儿能力。这些工具借助互动视频,梳理育儿过程中的常见误区并介绍科学的育儿方法,随后引导用户进入任务实践环节,将所学方法应用于实际育儿场景中。
在撰写这些案例研究的过程中,我们发现了若干关键挑战,并已提供相应建议供企业参考。需说明的是,这些问题在其他致力于保障儿童福祉与安全的科技企业中也普遍存在。此外,必须指出的是,目前不存在万能解决方案。
挑战:盈利压力与合规要求之间的矛盾。例如,游戏及社交平台作为主要收入来源,其核心目标之一是留住用户,因此会着力打造具有吸引力的使用体验。然而,平台同时必须防止用户(尤其是儿童)过度使用或不当使用产品,并保障用户权益。在动态变化的环境中平衡这些相互冲突的需求,对平台而言颇具挑战性。
• 考虑设置负责任的使用功能,包括添加时长限制、适龄推荐及休息提醒,在不显著降低用户参与度的前提下,引导用户养成健康的使用习惯。
• 采用双目标框架,将盈利目标与合规要求相协调:将儿童保护及儿童福祉纳入产品关键绩效指标(KPI),确保衡量成功的标准既包含收入指标,也涵盖安全成果。
• 扩展并规范化相关流程,在产品构思与开发阶段即对风险防控措施进行跟踪评估;同时建立产品上线后的工作流程,定期将风险评估结论整合至“成长守护平台”。
挑战:尽管实名认证以及限制时长、限制消费等遏制过度或不当使用的系统,体现了对儿童网络保护的投入,但当前挑战在于,如何在落实这些防护措施的同时,既不损害用户体验,也不影响数字包容性。要实现合理平衡,不仅需要有效执行相关措施,还需填补家长监护环节的空白。此外,年龄验证与认证机制也引发了质疑,有观点认为这类机制可能侵犯儿童的隐私权,以及他们在数字环境中切实参与的权利。
• 考虑采用替代方法(例如通过儿童自我声明结合验证检查,如简短问卷、任务或理解能力测试等,以评估用户是否可能为儿童),此类方法无需收集和处理生物识别信息,以规避人脸识别等侵犯隐私的做法。
• 组建跨职能监督团队,纳入合规、产品及伦理领域的专家,持续审查平台运营行为,确保商业目标的实现不会损害儿童权利。
• 通过预警提示与指导建议,加强向家长提供信息的力度,助力家长在不过度干预的前提下,监督和管理孩子的游戏活动。
“服务儿童的负责任科技创新”的8项原则对于思考儿童福祉所受影响具有重要作用。该框架从多个维度保障儿童福祉,规避了单一维度分析的局限性。在安全层面,它促使人们关注产品的物理安全与数据安全;在内容层面,它保障了内容的质量与适宜性,同时防范不良信息。这些原则如同一个完备的过滤器,能够系统性地筛选出可能危害儿童福祉的各类因素。
