对于伴随着互联网发展起来的一代,网络社交已成为Z世代年轻人交友的主要方式。网络世界丰富了年轻人的生活,同时也隐藏着一部分风险,Soul作为新型社交平台,积极为年轻人营造安全、绿色的生态环境,保护未成年人社交体验。
Soul自成立以来,始终把年轻人网络安全作为重中之重,Soul积极响应有关部门提出的网络安全问题及其他潜在风险,坚决遏制不良行为对网络环境的负面影响,同时关注未成年人用户网络安全,通过不断完善身份认证、防沉迷、隐私保护等措施,构建全面的未成年人网络保护体系。在2024年第二季度,Soul对未成年用户识别模型进行了重要迭代,从单一消息识别扩展到复杂场景下的多维度识别,显著提高了识别潜在未成年用户的能力。

目前,Soul平台不允许18岁以下的用户注册账号,对于可能存在的少数未成年存量用户,Soul App构建了包括身份认证、年龄识别、18岁以下年龄限制、防沉迷系统、青少年模式、正能量内容池、隐私保护等在内的未成年保护体系和有效的举报系统,迅速识别并引导这些账号切换到专为青少年设计的”青少年模式”,保障平台内可能存在的极少存量未成年人上网安全。
此外,Soul还迭代未成年识别模型,由单条消息识别拓展至复杂场景多垂类识别,大幅度识别潜在的未成年用户;强制注销不满14岁低龄未成年用户,进一步优化青少年模式;针对未成年用户活跃情况,将青少年模式中“今日自闭”功能生效时长延长至7天。
在数据方面,第二季度Soul推出了40多项未成年识别和保护策略,这些策略在识别虚假成年人身份方面取得了高达98.0%的贡献率,进一步证明识别策略的有效性和精确性。
维护网络生态是项长期的社会工程。Soul 利用自身的技术专长和全面的管理策略,全力以赴地参与到这一进程中,多措并举以最大限度地保障未成年用户的网络安全,并对未成年人沉迷网络进行预防和干预,为未成年人提供安全、健康的网络环境。在未来,Soul仍将积极承担社会责任,以实际行动筑牢未成年人保护防线,为保障未成年人网络安全贡献力量。
