法律方法2024,Vol.45Issue(2) :48-64.

司法领域对可解释人工智能的要求

阿什利·迪克斯 姜雪怡
法律方法2024,Vol.45Issue(2) :48-64.

司法领域对可解释人工智能的要求

阿什利·迪克斯 1姜雪怡2
扫码查看

作者信息

  • 1. 弗吉尼亚大学法学院;米勒中心
  • 2. 华东政法大学法律学院
  • 折叠

摘要

人们一直对机器学习算法忧心忡忡,因为机器学习算法犹如一个未知的"黑箱",无法得知它们是如何以及为何做出某些决策、建议或预测.目前,法官遇到机器学习算法相关案件的频率日益上升,其中包括刑事案件、行政案件和民事案件.本文认为,法官应当要求对机器学习算法结果进行解释.设计出能够解释机器学习算法如何得出结论或预测的系统,这是解决"黑箱"问题的方法.如果法官要求对算法结果作出解释,那么他们将在塑造"可解释人工智能"(xAI)的性质和形式方面发挥至关重要的作用.法院以普通法为工具,可规定"可解释人工智能"在不同法律背景下所应有的含义.让法院扮演这一角色具有一定优势:司法推理自下而上构建,通过逐案考虑事实,做出细致入微的决定,这对制定可解释人工智能相关规定而言是切实可行的.此外,法院可能会促使可解释人工智能以不同形式出现,以适应不同法律环境和受众群体.总体而言,我们应当支持公共部门更多地参与塑造可解释人工智能,而迄今为止,可解释人工智能很大程度上仍由私营部门掌握.

引用本文复制引用

出版年

2024
法律方法
山东大学威海法学院

法律方法

ISSN:
段落导航相关论文