摘要
人们一直对机器学习算法忧心忡忡,因为机器学习算法犹如一个未知的"黑箱",无法得知它们是如何以及为何做出某些决策、建议或预测.目前,法官遇到机器学习算法相关案件的频率日益上升,其中包括刑事案件、行政案件和民事案件.本文认为,法官应当要求对机器学习算法结果进行解释.设计出能够解释机器学习算法如何得出结论或预测的系统,这是解决"黑箱"问题的方法.如果法官要求对算法结果作出解释,那么他们将在塑造"可解释人工智能"(xAI)的性质和形式方面发挥至关重要的作用.法院以普通法为工具,可规定"可解释人工智能"在不同法律背景下所应有的含义.让法院扮演这一角色具有一定优势:司法推理自下而上构建,通过逐案考虑事实,做出细致入微的决定,这对制定可解释人工智能相关规定而言是切实可行的.此外,法院可能会促使可解释人工智能以不同形式出现,以适应不同法律环境和受众群体.总体而言,我们应当支持公共部门更多地参与塑造可解释人工智能,而迄今为止,可解释人工智能很大程度上仍由私营部门掌握.