织好AI用户信息“防护网”(“融”观中国)

发布时间:2024-11-17 02:55:19 来源: sp20241117

  一名青年学生在安徽省阜阳市举办的网络安全宣传周展览会上体验VR展品。   王 彪摄(人民视觉)

  内蒙古自治区呼和浩特市第二十七中学学生在绘制网络安全知识手抄报。   丁根厚摄(人民视觉)

  对话交流、创作诗歌、编写代码、自动绘画……以大语言模型为代表的生成式人工智能(AI)快速发展,正前所未有地改变着人们的工作和生活。

  随着生成式AI应用场景日益增多,个人信息保护也面临新的挑战:对数据的收集和挖掘,会不会侵犯个人隐私?怎样处理好个人信息保护与数据合理利用之间的关系?使用个人信息的边界在哪儿?本报记者就此进行了采访。

  

  “画像”背后藏风险

  “对许多上班族来说,做PPT是一件让人头疼的事,经常要加班加点熬夜制作,有时还要额外付费聘请专业设计人员修改润色。”在北京某互联网公司工作的小潘告诉记者,现在通过生成式AI软件,只需确定主题、导入大纲、选择模版,不到1分钟就能生成一份专业又精美的PPT。

  尽管效率明显提高,小潘却心有疑虑:PPT里提到的工作内容、行业数据、个人情况,会不会被储存在AI“大脑”中?如果涉及企业战略规划、商业秘密、关键技术,有没有被恶意窃取或泄露给第三方的可能?“目前,还没看到软件有类似‘一键擦除数据’的功能,无法确定这些信息的最终去向。”小潘说。

  现实中,不管是生成PPT、制作简历还是自动美颜、智能聊天,都不可避免地要向生成式AI提供姓名、职业、人脸、声纹等个人信息,其中潜藏着不容忽视的隐私泄露风险。

  比如,一款基于生成式AI技术的摄影软件一度走红网络。用户花9.9元,上传个人照片,选择喜欢的模版,便能获取一套由AI生成的写真集。在AI写真“刷屏”网络的同时,该软件也因存在滥用用户信息的嫌疑受到批评。有网友说:“向一款手机APP里传这么多照片,让我感到很不安。谁知道这些照片会不会被作为其他用途?”后来,研发团队致歉,承诺上传照片只用于数字写真制作,制作完成后,照片也将自动删除。

  出于对新兴技术的好奇,消费者往往在不知不觉中将个人隐私“透露”给AI。反过来,凭借获取到的信息,通过强大的数据整合、处理能力,生成式AI也能判断出个人的身份特征和行为习惯。有研究发现,聊天机器人可以从日常对话中精准提炼关键信息,了解其购物习惯、个人兴趣乃至个人观念,从而为用户精准“画像”。

  “生成式AI具有高度智能化特征,借助其出色的内容理解和学习能力,从海量信息中获取个人隐私,甚至可能通过对话‘诱导’用户打开‘心房’。”西南政法大学科技法学研究院副院长郑志峰告诉记者,这意味着生成式AI十分“懂”你,在侵害个人隐私方面更加高效、隐蔽,不易察觉。

  用户数据成“养料”

  “我们将对您主动上传的文档材料进行脱敏处理后作为AI训练基础材料使用……”前段时间,某办公软件隐私政策中的条款被质疑滥用用户信息。随后,该软件发布声明,保证用户文档不再被用于AI训练目的。

  啥是AI训练?“对生成式AI来说,离不开算法、算力、数据三要素。其中,数据是AI的‘养料’,‘投喂’得越多,AI越‘聪明’。”郑志峰介绍,这决定了生成式AI必须尽可能多地采集、处理和使用各种数据,为大模型成长提供充足“营养”。

  当前,各类数据采集无时不有、无处不在,几乎每个人都被置于数字化空间之中,个人隐私极易以数据的形式被存储、复制、传播。在所有数据类型中,个人信息能反映个人行为、偏好、行动轨迹等,是最有价值的数据类型之一。

  “许多企业利用用户数据优化产品和服务、定向投放广告或开展经营活动。”中国社会科学院法学研究所网络与信息法研究室副主任周辉说,“有的企业片面关注数据价值,忽视了隐私保护和数据安全,可能出现违法收集、滥用用户信息等行为。”

  生成式AI的快速发展和应用门槛的大幅降低增加了隐私泄露风险。研究报告显示,截至2024年1月,前十位AI类APP需求规模同比增长近40倍。生成式AI正加速渗透人们生活的方方面面。然而,应用场景日益丰富的同时,违规收集、使用用户信息的花样也变多了。

  借助生成式AI的换脸和拟声技术进行远程视频诈骗就是一例。有媒体报道,郭先生接到“好友”的视频通话,对方声称需要保证金用以项目竞标,想借郭先生公司账户“走个账”。出自对“好友”的信任,郭先生陆续给对方转账共计430万元。等郭先生再次联系好友时才发现自己被骗。

  “随着AI生成内容愈发逼真,传统内容审核机制和安全防护手段已不足以适应新形势的要求。”中国信通院人工智能研究所高级业务主管呼娜英说,生成式AI技术愈加成熟,用户在保护好个人隐私的同时,也需要提升对新型网络犯罪的辨别和防范能力。

  给AI产品贴“标记”

  怎样才能满足生成式AI的“胃口”,同时又保护好个人隐私呢?处理好两者关系,既需要法律法规的约束,也离不开技术手段的支撑。

  去年7月,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》,多处提及个人信息保护问题。强调生成式AI服务提供者“对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录”等。

  “中国目前有关个人隐私保护的法律法规比较完善。未来需要根据生成式AI技术特点进一步构建具体的权利、义务和责任规则。”郑志峰举例说,AI的风险等级是多样的,不同AI算法对于个人隐私的侵害程度不同,需要有针对性的具体措施。

  通过技术手段识别、阻断和追溯生成式AI生成侵犯个人隐私的有害信息,也是人工智能治理实践中的重要措施之一。根据《互联网信息服务深度合成管理规定》, 深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识。

  “通俗地说,就是给生成式AI的产品和服务贴上统一的‘标记’,提示用户该内容由AI合成,也有助于监管部门管理。”呼娜英介绍,由于显式标识容易被裁剪或删除,还需进一步探索隐式标识的解决方案。

  尽管生成式AI在一定程度上存在隐私泄露风险,但并不意味着它与信息保护之间是完全对立的,关键是要找到发展与规范之间的平衡点,在生活越来越“智能”的同时,守护好个人隐私安全,推动生成式AI健康可持续发展。

(责编:薄晨棣、温璐)