
近年来,主打“情感陪伴”“角色扮演”服务的AI陪伴产品层出不穷,在缓解个体孤独感、提供心理疏导等方面展现出积极价值的同时,也带来了深度沉迷、威胁生命健康等安全风险。为了划清人机情感交互的安全底线,4月10日,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》,自7月15日起施行。
针对未成年人、老年人、心理疾病患者等群体更易受到不良诱导、情感操纵伤害等问题,该文件明确:
禁止鼓励、美化、暗示自残自杀
禁止向未成年人生成可能影响其身心健康内容
禁止过度迎合用户、诱导情感依赖或者沉迷
用户出现极端情绪要及时安抚情绪和鼓励寻求帮助
用户欲自残自杀时要及时联络监护人或紧急联系人
及时采取措施响应老年人使用服务相关咨询和求助
更多阅读:
人工智能拟人化互动服务新规出台
“AI搭子”新规:发现用户有极端情绪时,先安抚后通知
淘配网提示:文章来自网络,不代表本站观点。