所有版权归中国经济网所有。
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
近日,国家网信办发布《人工智能拟人互动服务管理暂行办法(征求意见稿)》,首次对“人工智能互补”服务提出系统规范,并向社会公开征求意见。尤其引起关注的条款包括,如果连续使用超过两个小时,就会弹出提示用户退出的提示;如果用户自杀或自残,则需要手动转移。目前,人工智能的拟人化交互服务,从智能客服到虚拟陪伴,从引导教育到心理咨询,已深度融入经济社会发展各个领域,成为人类社会发展的重要方向。人工智能技术的应用。然而,近年来发生了一系列威胁情感交流安全的事件。例如,美国某平台因涉嫌在人机交互过程中诱导青少年自杀而被起诉。拟人化的AI交互服务最大的吸引力在于它们看起来像人类,但最大的隐患在于它们看起来太像人类。核心问题集中在四个主要方面。认知混乱的风险:高度模拟的情感交互,用户很容易模糊虚拟与现实的界限,甚至将AI误认为是具有真实情感的生命体。风险心理健康服务:一些服务使用算法来响应和强化您的偏执想法。在极端情况下,它可能导致自杀和自残等危险行为,并对心理脆弱的人构成威胁。数据隐私和安全:用户交互信息可用于 model培训违规,存在泄露或误用风险。保护特殊群体:未成年人更容易成瘾,老年人更容易受到情绪操纵。这些问题不仅侵犯个人权益,而且有可能影响社会伦理秩序,亟需制度调节。需要一个系统。仔细审视《办法》的规定,有四个要点直指问题所在。针对认知混乱的风险,该方法以身份透明为中心前提,从源头解决认知混乱问题,要求提供商显着提醒用户,他们是在与人工智能而非自然人交互,并在首次使用或登录等关键节点提供动态提醒。为了解决潜在的心理健康风险,该措施要求医疗保健提供者建立应急机制,在自杀、自残等极端情况下进行人工交接,与用户家长或紧急联系人进行沟通,并制定强制两小时休息弹窗等防沉迷措施。关于个人数据的安全,该措施要求提供者采取数据加密、去安全、访问控制等措施保护用户交互数据的安全,不得向第三方提供用户交互数据,并赋予用户删除其数据的权利。该措施从保护特殊群体的角度出发,对未成年人和老年用户制定了具体规定,明确了未成年人模式和家长控制功能的使用权利,禁止提供模仿老年用户亲属或特定当事人的服务,并要求指导老年用户建立服务的紧急联系方式。可见,“反制”的核心《办法》在于技术发挥作用。人工智能虽然不是人,但干扰人类情感、决策、生命安全时必须追究责任。禁止散布谣言、诱导自杀、控制情绪、获取隐私……《办法》明确了一系列“人工智能伙伴”做不到的底线,构建了全链条的风险防范和管理体系。计算的法律设计要可审计,内容生产要可追溯,极端场景要覆盖极端场景。软道德必须转化为硬影响,事后道歉必须被主动预防所取代,这样人工智能才能无限接近人类,但永远无法取代它们,为“人工智能伙伴”设定规则,为人类用户留下一条出路。当算法知道什么不该做时,才能真正做好事。毕竟,我们需要的是人工智能工具。安全、可控、温暖,而不是完美的恋人或数字孝顺的孩子。只有让我们的“AI伙伴”在规定范围内成长,才能真正改善生活。 (本文来源:经济日报作者:佘惠民)
(编辑:吴晓娟)
吃瓜热门