首页|人工智能中的"解释":来自社会科学的洞见(下)

人工智能中的"解释":来自社会科学的洞见(下)

扫码查看
随着研究人员和从业者寻求为其算法提供更多透明度,可解释人工智能(Explainable Ar-tificial Intelligence)有一场新近的复苏.这项研究的大部分聚焦于向人类观察者明确地解释决策或行动.观察人类如何相互解释可以作为人工智能解释的一个有用起点,这应该没有争议.诚然,公正地说,大多数关于可解释人工智能的工作仅利用研究人员对什么构成"好"解释的直觉.哲学、心理学和认知科学领域存在大量关于人们如何定义、生成、选择、评估和呈现解释的有价值的研究,这些研究认为人们在解释过程中运用了某些认知偏见和社会期望.文章认为,可解释人工智能领域可以建立在这些现有研究的基础上,并回顾了研究这些主题的哲学、认知心理学/科学和社会心理学的相关论文,由此获取了一些重要的发现,并讨论了如何将这些发现融入可解释人工智能的相关工作中.

蒂姆·米勒、张菁

展开 >

澳大利亚昆士兰大学电气工程与计算机科学学院

墨尔本大学

中国人民大学教育学院

解释 可解释性 可阐释性 可解释人工智能 透明度

2024

数字人文研究

数字人文研究

ISSN:
年,卷(期):2024.4(2)