第08版:融媒时代

人民日报海外版 2024年06月03日 星期一

返回目录   放大缩小全文复制    上一篇  下一篇

让AI用户更有安全感(新媒视点)

卢泽华 《 人民日报海外版 》( 2024年06月03日   第 08 版)

  数据和人工智能(AI)之间的关系是什么?有人作了个形象比喻:就像煤炭之于蒸汽机,电能之于灯泡,汽油之于汽车。

  的确,几乎所有形式的AI都需要大量训练数据。要想让AI更加“懂你”,就必须收集和分析你的个人信息,这是AI深度学习的原材料,也是其“思考”和“决策”的依据。

  这引发了公众对个人信息安全的担忧。就拿一个常见现象来说,当你第一次打开一款APP时,总会弹出一份冗长的“数据收集和隐私保护协议”。在绝大多数用户看来,完整读完这份协议是一道难题,遑论读懂。然而,如果你不点“已完成阅读并同意”,就无法使用APP。“说是给了用户选择权,但真正的选项只有一个,这不是霸王条款吗?”笔者听到过不少这样的抱怨。

  大量调查显示,多数用户在签署各类智能平台收集数据的“同意书”时,并不清楚自己在同意什么。随着AI技术被不断应用于各类手机APP,各大互联网平台纷纷更新隐私保护政策,告知用户将使用其个人信息以支持人工智能的开发和优化。对用户信息的收集都包括什么呢?有人作了一些梳理,涵盖通讯录、相册、定位等,甚至我们的声音、指纹、脸部特征也在网罗之列。

  这还只限于手机应用场景。有人对未来信息泄露风险作出更大胆的预测:只要你进入商场、饭店等商业公共场合,你的脸,你的声音,你的衣服颜色,你的兴趣爱好和行为习惯,都将暴露在空气中。在AI眼里,你就是一个行走的“数据群”。试想,一旦这种情形变为现实,将给个人信息安全带来多大的隐患?

  从全球范围来看,人工智能侵犯隐私的案例已有不少。例如,一批匿名人士曾向世界最大的一家人工智能巨头发起集体诉讼,指责它从互联网上窃取和挪用了大量个人数据和信息来训练AI工具。起诉书称其“在用户不知情的情况下,使用这些‘窃取’来的信息”。不久前,北京互联网法院宣判了中国首例AI声音侵权案,原告因其声音被AI技术模仿并商业化使用而获得胜诉。

  中国有句老话:“晴带雨伞,饱带干粮。”只有未雨绸缪,才能为AI长远发展奠定坚实基础。解决AI信息保护问题的关键,是如何合理规范使用用户数据。通俗来讲,就是让AI技术既在提供智能服务方面“更懂你”,也要在个人信息识别上“不懂你”,掌握两者之间的平衡。

  在AI服务“更懂你”方面,业界已经做了不少努力;在让AI“不懂你”方面,还要继续深化探索。目前,中国已出台了《生成式人工智能服务管理暂行办法》等规定,明确提出AI应用必须保护商业秘密、个人隐私等不受侵犯。同时,进一步从服务规范和法律责任等具体方面对生成式人工智能服务作了规范。下一步,应继续在顶层设计上跟进AI技术发展,确立信息数据的收集、使用、消除等一系列具体条款。在此基础上,还要在提升用户素养上下功夫。社会需要普及各类信息保护的基本知识,提升用户的安全意识。

  有这么一个故事:一个年轻人和一位长者过桥,年轻人问,我们走过时并没有扶桥两旁的护栏,要护栏有什么用呢?长者说,没有护栏,我们还能如此安然地从桥上经过吗?护栏给我们的不仅是安全,更是安全感。

  当下的AI行业,正需要这样的“护栏”。