《新闻战线》概况
日 报周 报杂 志 人民网

推荐算法规制的他山之石

● 马思源 姜文琪 《 新闻战线 》(

    摘要:用推荐算法进行新闻分发不是保持新闻真实、客观并有效传播的“万能药”,习惯藏身于“黑箱子”里的算法,同样需要法律和行政命令的规制。西方国家尝试在法律上设定“规制”:一是从隐私权出发设定法律规范推荐算法;二是对某些重点行业进行立法或政策管制。其方法可以为我国提供镜鉴。

    关键词:推荐算法     “黑箱子”     法律规制     隐私权

    基于用户兴趣的“算法推荐”是网络新闻的主要分发方式,其代表有今日头条、一点资讯等。今日头条宣称自己的“运转核心是一套由代码搭建而成的算法”,此算法在商业上获得成功,为它带来了1.4亿活跃用户。与此同时,推荐算法也引来不少质疑,如:算法歧视、算法短视会导致媒体公共性内容的缺失,加深用户偏见、形成信息茧房;“编辑缺位”致使低俗消息更加泛滥,甚至挑战道德底线,既不利于用户获得知识,又难以做到价值引领①;推荐算法获取信息的方式可能侵犯个人隐私②。

    这些问题都与推荐算法的设计和使用息息相关。事实说明,使用推荐算法进行新闻分发不是保持新闻真实、客观并有效传播的“万能药”,习惯藏身于“黑箱子”里的算法,同样需要法律和行政命令的规制。从国际视角看,人工智能支持下的推荐算法在全球范围内都有广泛的应用,这些算法及使用它们的公司也都遇到了一些相似的道德和法律困境。比如,推荐算法会不会过分搜集和使用用户的数据,侵犯个人的隐私?又如,过于依赖推荐算法是否会造成不良社会影响,如何消除?此外,国外还特别关注人工智能算法是否会导致行业规则被破坏——自动驾驶带来车祸,谁承担责任;机器人写出了假新闻,谁来负责?

    对此,西方国家与亚洲的日本、新加坡等国尝试在法律上设定“规制”:一是从隐私权出发设定法律规范推荐算法,二是对某些重点行业(如传媒、汽车、金融等)进行立法或政策管制,以消除不良社会影响。这些相关的法律、立法议案、行政命令堪称“他山之石”,可以为我国的推荐算法规制提供镜鉴。

    用什么样的方式收集数据可能会侵犯个人隐私?

    在保护隐私权方面做得比较好的欧盟“数据隐私法案”,规定欧盟国家公民将有权要求“审查某项特定服务中如何做出特定算法决策”。法案要求算法公司详细、明确说明他们如何使用算法收集和保护用户数据,并且在收集数据前必须征得个人同意。欧盟极端重视数据隐私,在此之前就已经出台了“通用数据保护条例”(GDPR),而“数据隐私法案”在条例的基础上继续展开,它赋予个人以权利,去确认一个组织是否正在处理自己的数据,或是哪种类型的数据。此外,个人还有调整相关数据的保留期限、向数据保护机构投诉的权利。欧盟设置了严苛的惩罚机制,如果一家公司不合规,那么罚款可以高达2000万欧元(约合2400万美元),或者是该组织在全球收入的4%。③ 

    对于用户面部数据的采集,爱尔兰、德国以及美国伊利诺伊州《生物信息隐私法案》(BIPA)要求:采集前需要明确提醒用户并征得同意。著名互联网公司Facebook因此遭到美、德、爱等国的调查,并被迫在欧洲地区关闭了人脸识别功能,删除了针对欧洲用户建立的人脸数据库④。

    欧盟之外,香港地区也出台了“数字隐私法案”(DPO),但审查力度不如欧盟。此外新加坡有“个人资料保护法”(PDPA),日本有“个人信息保护法”⑤。

    如何监管“保密”的推荐算法?

    现在大多数的推荐算法原理都是秘密,这样的“算法黑箱子”潜藏一系列问题:究竟有多少工程师懂算法,能够保证其稳定运行?不公开的算法会不会秘密设置了某些违反道德、法律的规则,如推荐招聘信息的算法涉及性别歧视?不公开的算法一旦出了问题,相关责任人在政府调查之前修改、销毁了问题算法怎么办?

    作为一种建议,中国计算机协会在2017年出版了七项算法透明度和问责制的原则⑥:

    意识:所有者、设计师、构建者、用户和其他分析系统的涉众应该意识到他们对算法的设计、实现和使用可能存在的偏见,意识到偏见可能对个人和社会造成的潜在危害。

    获得和纠正:监管机构应鼓励一种机制,当个人和团体因算法决定的决策而受到不利影响时,允许他们(对算法)进行质疑和纠正。

    问责:机构应该对他们使用的算法做出的决策负责,即使不可能详细解释算法是如何产生结果的。

    解释:鼓励使用算法决策的系统和机构,对算法的过程和其作出的具体决定给予解释。这在公共政策环境中尤为重要。

    数据来源:对训练数据收集方式的描述应该由算法的建造者维护,同时还要探索人为或算法本身在数据收集过程中可能产生的偏差。公众对数据的审查为修正偏差提供了最大的机会,但是,考虑到隐私、保护商业秘密以及对公众过于开放分析过程可能导致对系统的恶意攻击,需要限制个人访问,只允许合格的、得到授权的人接触数据和算法。

    可审核性:模型、算法、数据和决策应该被记录,以便在有危害的情况下对它们进行审计。

    验证和测试:机构应该使用严格的方法来验证他们的模型,并记录这些方法和结果。特别是,他们应该定期进行测试,以评估和确定该模型是否会产生歧视性的危害,鼓励机构将此类测试的结果公之于众。

    西方国家主要通过行业立法来监管算法本身。欧盟证券和市场管理局(ESMA)就制定了金融管理标准:在金融交易领域,高频算法交易员有义务存储记录和交易算法至少5年⑦。“算法交易”是指一些公司通过推荐算法自动确定订单的各个参数,例如是否启动订单的顺序、时间、价格或数量等,并在有限的人为干预或无人干预的情况下,对订单、报价和执行过程进行调整和优化。ESMA的金融管理标准规定,使用这类算法辅助操作的公司需要:1.报告公司资质,证明其有足够的员工和工程师来理解、操作和控制算法;2.算法备案,以防不正当竞争和出现系统错误时进行回溯检查;3.使用算法的公司要向监管部门报备,并接受交易全流程的持续监控。

    此外,英国上议院也对数字经济法案的修正案进行了辩论,该法案将给予有关部门执行和发布算法评估的权力。与数字保护法案不同,数字经济法案并不是要明确地反对某一种算法设计⑧,而原有的数字保护法案授权英国资讯委员会办公室可采取强制措施保护数据安全。

    如何追究责任和消除影响?

    推荐算法在社交媒体上有传播假新闻的不良倾向。由于社交媒体软件通过个性化推荐,有选择性地给用户显示其感兴趣的信息,虚假信息就可以通过推荐算法实现有效传播。Facebook是典型例证,当用户有一定的政治倾向时,平台只会显示与类似的政治趋势相匹配的新闻和朋友的帖子,导致某种倾向被夸大。2016年美国一名男子持冲锋枪闯入华盛顿一家名为“彗星乒乓”(Comet Ping Pong)的餐厅并开枪射击,就是因为他在网上看到了一条流传甚广的假新闻,称总统候选人希拉里?克林顿以该餐厅后面的房间为基地,绑架、侵害和贩卖儿童。

    针对社交媒体推荐算法支持下扩散的假新闻,一些国家采取了应对措施:

    日本使用“刑法”规定的刑事诽谤罪和伪造妨害罪(《日本刑法典》第233条)管理假新闻,“流传或散播虚假消息导致人的信用毁损,或者妨碍业务者,处以3年以下有期徒刑或50万日元以下的罚款”。但目前的法规很难应用到社交媒体上。

    2017年10月1日,德国开始执行一项法律,要求社交媒体网站迅速采取行动,消除仇恨言论、假新闻和非法材料。这些要求删除的信息包括:“非法内容”(即《德国刑法典》规定的具体犯罪内容);“侮辱”(《德国刑法典》第185条)、“诽谤”(同上,第186条)、“犯罪煽动”(同上,第111条)等。此外,不删除“明显非法”信息的网站可能面临高达5000万欧元(4430万英镑)的罚款。Facebook、Twitter和YouTube将成为法律的主要焦点,但它也适用于Reddit,Tumblr和俄罗斯社交网络VK。Vimeo和Flickr等其他网站也可能被纳入其条款。⑨

    推荐算法还被美国多个政府部门采纳,用以帮助处理政务,但这种“自动决策系统”存在误判的可能。针对这种可能,美国纽约市议会提出一项法案,要求创建一个特别工作组,提供关于自动决策系统的信息如何与公众共享的建议以及如何处理被自动决策系统伤害的实例⑩。

    他国规制的启示

    从建立行业规则或行业法令开始,不追求“整齐划一”。人工智能的推荐算法在不同领域的应用程度各不相同,从经验上看,社交媒体上新闻推荐算法、用户识别算法、金融交易算法是发展比较快的领域,可以先对这些领域进行立法,成熟一项推行一项,后发展起来的行业则以先前行业的规制为范例,建设更完备的法令体系。比如,无论国内还是国外,传媒领域、金融领域的推荐算法已经广泛使用,这些行业应当从速建立规则、制定法令。同时,现在的自动驾驶技术尚未投入大规模应用,但参考传媒、金融领域的算法规制经验,关于自动驾驶的算法立法已经可以提上讨论日程。当自动驾驶技术真正大规模应用时,我们的相关法令才能够有条不紊、有的放矢。

    不能放任算法本身成为“黑箱子”。借鉴欧洲国家的经验,至少要对算法本身进行备案,在出现问题时有权进行算法评估。避免利益相关方使用商业机密等借口,在黑箱中任意操纵算法,也避免人工智能支持下的算法在学习人类行为的过程中,培养起性别歧视、民族歧视、人种歧视和地域歧视,等等。美国的《科学》杂志刊登研究发现,机器学习可以习得人类的种族歧视;而芝加哥法院的犯罪风险评估算法则人为制造了针对黑人的歧视。在中国,也有推荐算法歧视肥胖(为购买大尺码衣服的用户推荐减肥药)、歧视女性(为职场女性推荐育儿经)的报道。2018年1月,今日头条公开了基本的风险内容识别技术以及泛低质内容识别技术,并对内容安全机制及相关举措进行了介绍。未来,还应有更多的行业算法主动加入到破除“黑箱子”的行列中来,这个过程不仅仅要靠行业自律,而且要靠立法推动。

    对推荐算法的立法应付诸实施,而非摆动、停滞于“立法过程中”。客观而论,西方国家对推荐算法的立法尝试有很多,但实质上付诸实施的法案并不多,美国纽约议会法案、英国数据经济法案,都在反复讨论,而没有真正实施。早早提出立法尝试,是我们应当学习西方国家的地方,而反复修改、博弈而不施行,则未必值得效仿。

    立法要同时考虑实施的方便性、保护公民的正当性和鼓励行业发展的前瞻性。在用户隐私保护做得最好的欧盟国家,却因立法较为严苛限制了人工智能、互联网行业的发展,因而欧盟数据隐私的系列法案到底是值得赞赏还是应当批评,在它们内部也有针锋相对的看法。相反,我国的互联网行业发展走在当今世界的前列,“规矩少”是一个重要的助力。同样作为新兴事物,又有较好的发展前景,对推荐算法的使用也应当有适当的宽容和鼓励。中国古代哲学倡导“过犹不及”,对新兴事物的立法应当要兼顾社会公平、个人权利,同时又不至于扼杀创新。

    (作者单位:北京师范大学新闻传播学院)

    责任编辑:武艳珍

    注释:

    ①刘运来:《个性化推荐阅读时代的编辑缺位及其影响》,《编辑之友》2017年第9期。

    ②王茜:《打开算法分发的“黑箱”——基于今日头条新闻推送的量化研究》,《新闻记者》2017年第9期。

    ③Sponsored. What You Need to Know About the EU’s New Data Protection Law, 

    https://labiotech.eu/gdpr-eu-data-protection/。

    ④王新锐:《人工智能发展面临的法律挑战》,

    http://www.ftchinese.com/story/001072216?full=y。

    ⑤《人工智能算法的规范是前进的方向吗?》,

    http://en.finance.sia-partners.com/20170706/regulation-ai-algorithms-way-forward。

    ⑥Algorithms and the law, https://www.legalfutures.co.uk/blog/algorithms-and-the-law。

    ⑦Algorithms and the law, https://www.legalfutures.co.uk/blog/algorithms-and-the-law。

    ⑧Alexander J Martin. Regulate This! Time to subject algorithms to our laws: A Minority Report future awaits, https://www.theregister.co.uk/2017/04/17/what_does_regulating_algorithms_mean_and_how_do_we_even_do_it/。

    ⑨Germany starts enforcing hate speech law, http://www.bbc.com/news/technology-42510868。

    ⑩美国纽约市议会,

    http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0。

    苏令银:《透视人工智能背后的“算法歧视”》,中国社会科学报2017年10月10日。

融合背景下大数据政务服务平台的构建
直播答题诞生与存续的三层逻辑
弹幕视频迅速崛起之分析
推荐算法规制的他山之石