周五,社交媒体巨头meta宣布,针对立法者提出的安全隐患及青少年不当对话的忧虑,公司决定暂时调整其AI聊天机器人针对年轻用户群体的使用策略。meta发言人确认,他们正在对旗下的AI聊天机器人进行特别训练,旨在避免对青少年用户就自残、自杀倾向及饮食失调等敏感话题生成回应,以防止可能引发的负面情感交流。
据悉,meta的这一举措是为了确保AI聊天机器人在与青少年互动时,能够更加谨慎和负责。在训练过程中,AI系统将学习识别并避免触发这些敏感话题,从而保护青少年的心理健康。同时,meta还计划在未来时机成熟时,让AI聊天机器人在检测到相关问题时,能够引导青少年用户寻求专业机构的帮助和支持。
meta方面表示,他们深刻理解青少年在社交媒体平台上可能面临的各种挑战,因此致力于通过技术手段提供更加安全和健康的网络环境。此次对AI聊天机器人的调整,正是meta在这一方向上迈出的重要一步。未来,meta还将继续探索和完善相关技术,以更好地服务于青少年用户。
随着社交媒体的普及和AI技术的不断发展,如何确保青少年在网络空间中的安全和健康,已成为社会各界关注的焦点。meta此次的调整举措,无疑为行业树立了新的标杆,也为其他社交媒体平台提供了有益的参考和借鉴。