|
声音 |
13 |
5/13 |
4
|
5
|
6
|
>
|
>| |
|
|
PDF版 |
|
|
|
□ 张 欣
近日,国家互联网信息办公室部署开展2021年“清朗”系列专项行动,其中,针对公众与日俱增的算法焦虑和算法恐惧,此次行动还专门提出了“算法滥用治理”。监管部门提出将对算法应用的重点环节加强监管,严肃查处利用算法从事违法违规的行为。此次算法治理专项行动可以说是对公众关切的及时回应。 近几年来,伴随着海量数据的大规模收集和算力的不断提升,算法被日益广泛地应用在金融、医疗、就业、警务、社会福利等商业和公共领域,成为数字社会的基础设施之一。算法对人们快捷获取资讯、提升社会服务效率发挥了一定的积极作用,但也在不断分析和透视着人类生活,像“隐形牢笼”一般操控着人类。无论是沉浸在短视频当中无法自拔的年轻人,还是被困在智能配送系统里无力招架的外卖骑手,都反映出随着算法深度嵌入社会生活,个体正在不断被系统化和数据化,乃至面临逐步丧失自主性和判断力的数字化生存困境。 以近期引发公众广泛关注的算法控制外卖骑手事件为例,北京市人社局一名副处长和北大一博士后分别体验外卖骑手的工作后发现,在平台算法的深度介入下,一种新的数字劳动生态已经形成:在算法操控下,本应彰显灵活、自由等特质的零工经济不断被异化,外卖骑手们不仅没有获得期望的薪酬,与平台共享数字经济的红利,相反,却沦为算法决策系统之中一个个微不足道的数据。 算法之所以能够对外卖骑手的劳动加以直接操控,原因来自于多个方面。首先,与传统企业相比,平台企业具有较强的网络外部性,这意味着平台的价值增长与使用该平台的用户数量密切相关。例如,在外卖平台市场中,常常可见外卖平台为争夺消费者和入驻餐厅的数量,不断通过算法挤压外卖骑手的送餐时间,以吸引用户数量增长和实现平台增值。从这一视角看,算法控制外卖骑手的背后,实质上体现的是数字经济业态下资本对劳动的牢牢掌控。 其次,伴随着海量数据的增长,算法模型的决策表现不断成熟和优化,通过接单量、拒单率、准时率、用户配送满意度等指标,平台可以精准划分骑手所在的等级,并配以相应的绩效奖惩规则来规训骑手的行为。日益复杂的算法规则使得骑手们难以依据自身经验与算法进行对抗。相反,借助于严密且隐秘的数据收集和分析系统,算法构造出的数字化劳动控制机制正在不断侵蚀骑手们的自主性。 由此可见,掌握市场准入、资源调配和规则制定权的平台企业,在算法加持之下享有日益攀升的技术与信息优势。要有效摆脱“算法囚徒”的困境,还应回归到算法技术运行机理和平台经济生态之中,从用户、平台、监管的角度加以多元协同治理。 首先,要在法律法规层面赋予用户必要的对抗算法操控和滥用的权利。例如,欧盟《通用数据保护条例》就赋予了用户免受自动化决策约束,以及针对算法决策获得解释的权利。我国电子商务法第18条也赋予了用户拒绝算法营销的权利。个人信息保护法草案二次审议稿进一步赋予用户对个人信息处理规则获得解释说明的权利。未来,还应当从立法层面继续探索精细化场景下用户所享有的算法权利体系。 其次,应当深入到算法运行的技术机理和平台权力的形成机制之中,探索建立科学合理的平台算法责任体系。算法技术看似中立,但在嵌入到平台场景中时,常蕴含着平台运营者和设计者的主观意图和特定价值倾向,因此当算法因设计、运行产生不利后果和影响时,平台应当承担相应的算法责任。 最后,应建立定期与不定期、内部与外部路径兼具的算法审查机制。例如,欧盟、美国和加拿大的监管者规定平台企业应当履行与数据主体享有的算法权利相适应的配套性合规义务,定期进行数据保护影响评估和算法影响评估。我国个人信息保护法草案二次审议稿也明确提出个人信息处理者应当保证算法决策的透明度和结果公平合理,建立个人信息处理活动合规审计和事前风险评估制度。此次针对算法滥用的专项行动,国家网信办提出要开展算法安全技术检查和技术评估,也旨在对互联网企业的算法进行外部审查。未来还应结合具体的算法运行场景构建更为精细化的审计规则,让算法审计和评估制度起到应有的监管实效。 (作者系对外经济贸易大学法学院副教授、数字经济与法律创新研究中心执行主任)
|
|
规制算法滥用要多元协同治理
|
|
|
|
( 2021-05-19 ) 稿件来源: 法治日报声音 |
|
□ 张 欣
近日,国家互联网信息办公室部署开展2021年“清朗”系列专项行动,其中,针对公众与日俱增的算法焦虑和算法恐惧,此次行动还专门提出了“算法滥用治理”。监管部门提出将对算法应用的重点环节加强监管,严肃查处利用算法从事违法违规的行为。此次算法治理专项行动可以说是对公众关切的及时回应。 近几年来,伴随着海量数据的大规模收集和算力的不断提升,算法被日益广泛地应用在金融、医疗、就业、警务、社会福利等商业和公共领域,成为数字社会的基础设施之一。算法对人们快捷获取资讯、提升社会服务效率发挥了一定的积极作用,但也在不断分析和透视着人类生活,像“隐形牢笼”一般操控着人类。无论是沉浸在短视频当中无法自拔的年轻人,还是被困在智能配送系统里无力招架的外卖骑手,都反映出随着算法深度嵌入社会生活,个体正在不断被系统化和数据化,乃至面临逐步丧失自主性和判断力的数字化生存困境。 以近期引发公众广泛关注的算法控制外卖骑手事件为例,北京市人社局一名副处长和北大一博士后分别体验外卖骑手的工作后发现,在平台算法的深度介入下,一种新的数字劳动生态已经形成:在算法操控下,本应彰显灵活、自由等特质的零工经济不断被异化,外卖骑手们不仅没有获得期望的薪酬,与平台共享数字经济的红利,相反,却沦为算法决策系统之中一个个微不足道的数据。 算法之所以能够对外卖骑手的劳动加以直接操控,原因来自于多个方面。首先,与传统企业相比,平台企业具有较强的网络外部性,这意味着平台的价值增长与使用该平台的用户数量密切相关。例如,在外卖平台市场中,常常可见外卖平台为争夺消费者和入驻餐厅的数量,不断通过算法挤压外卖骑手的送餐时间,以吸引用户数量增长和实现平台增值。从这一视角看,算法控制外卖骑手的背后,实质上体现的是数字经济业态下资本对劳动的牢牢掌控。 其次,伴随着海量数据的增长,算法模型的决策表现不断成熟和优化,通过接单量、拒单率、准时率、用户配送满意度等指标,平台可以精准划分骑手所在的等级,并配以相应的绩效奖惩规则来规训骑手的行为。日益复杂的算法规则使得骑手们难以依据自身经验与算法进行对抗。相反,借助于严密且隐秘的数据收集和分析系统,算法构造出的数字化劳动控制机制正在不断侵蚀骑手们的自主性。 由此可见,掌握市场准入、资源调配和规则制定权的平台企业,在算法加持之下享有日益攀升的技术与信息优势。要有效摆脱“算法囚徒”的困境,还应回归到算法技术运行机理和平台经济生态之中,从用户、平台、监管的角度加以多元协同治理。 首先,要在法律法规层面赋予用户必要的对抗算法操控和滥用的权利。例如,欧盟《通用数据保护条例》就赋予了用户免受自动化决策约束,以及针对算法决策获得解释的权利。我国电子商务法第18条也赋予了用户拒绝算法营销的权利。个人信息保护法草案二次审议稿进一步赋予用户对个人信息处理规则获得解释说明的权利。未来,还应当从立法层面继续探索精细化场景下用户所享有的算法权利体系。 其次,应当深入到算法运行的技术机理和平台权力的形成机制之中,探索建立科学合理的平台算法责任体系。算法技术看似中立,但在嵌入到平台场景中时,常蕴含着平台运营者和设计者的主观意图和特定价值倾向,因此当算法因设计、运行产生不利后果和影响时,平台应当承担相应的算法责任。 最后,应建立定期与不定期、内部与外部路径兼具的算法审查机制。例如,欧盟、美国和加拿大的监管者规定平台企业应当履行与数据主体享有的算法权利相适应的配套性合规义务,定期进行数据保护影响评估和算法影响评估。我国个人信息保护法草案二次审议稿也明确提出个人信息处理者应当保证算法决策的透明度和结果公平合理,建立个人信息处理活动合规审计和事前风险评估制度。此次针对算法滥用的专项行动,国家网信办提出要开展算法安全技术检查和技术评估,也旨在对互联网企业的算法进行外部审查。未来还应结合具体的算法运行场景构建更为精细化的审计规则,让算法审计和评估制度起到应有的监管实效。 (作者系对外经济贸易大学法学院副教授、数字经济与法律创新研究中心执行主任)
|
|
|