《决策与信息》
行政法及地方法制论文_自动决策算法的风险识别
文章目录
一、问题的提出:陷入科技工具理性迷思中的自动决策算法
(一)作为科学技术的自动决策算法与算法研发失当
1. 算法决策本身具有“非科学性”
2. 算法工程师制造算法黑箱
(二)作为赋能手段的自动决策算法与算法应用失范
二、自动决策算法的内生性风险与程序性控制
(一)应用科技的内生性风险和伦理性价值
(二)算法内生性风险的程序性控制规则
1. 替代算法备案的记录和报告义务
2. 贯彻预防性原则的算法风险评估
3. 实现闭环控制的内外部二元监管体系
三、自动决策算法应用失范的权利救济
(一)应用场景中的多元价值识别与算法功能偏移
1. 社会治理智能化和公民基本权利
2. 智能经济与消费者权利保护
(二)《个人信息保护法》中的算法权利配置及其完善
1. 不同应用场景中的算法解释权
2. 平衡效率和公平的算法结果拒绝权
四、特殊场景:高风险领域自动决策算法应用的严格规制策略
五、结语:在“风险—规制”框架下寻找新的平衡点和组合方式
文章摘要:自动决策算法既属于专业技术,又具有赋能属性,可以和既有技术相结合催化新的应用技术和场景。与之相应,立法认识论既要注意到自动决策算法作为科学技术内含的伦理性风险,同时也需要识别不同应用场景中的复数价值以及利益冲突。为了规范内生性科技风险,立法应当根据风险程度强化对算法活动的程序性控制,确立记录和报告义务,细化算法风险评估规则,完善以个人信息保护负责人为核心的二元监管体系。为了管控因赋能导致的衍生性应用风险,立法一方面应当强调人的主体性,另一方面应根据各类应用场景中的利益顺位,灵活配置权利。我国个人信息保护法规定的算法解释权在公共管理领域和商业领域意义不同,相应的规则应有能力区分公权力应用与商业应用以及是否包含知识产权等不同场景;算法结果拒绝权旨在实现个人利益、商业利益和公共利益之间的平衡,应通过例外规则保持制度弹性。如果自动决策算法在公共管理和特殊社会治理领域中的应用可能带来高风险,法秩序应施加更多的应用要求或限制,以防止算法赋能导致原有秩序功能异化。
文章关键词:
论文作者:林洹民
作者单位:浙江大学光华法学院
论文分类号:D922.16;TP309
上一篇:自动化技术论文_人工智能使能系统的可信决策
下一篇:没有了