国家学术搜索
登录
注册
中文
EN
首页
|
技术向善:人工智能大模型伦理风险识别及治理路径
技术向善:人工智能大模型伦理风险识别及治理路径
引用
认领
扫码查看
点击上方二维码区域,可以放大扫码查看
原文链接
NETL
NSTL
万方数据
中文摘要:
人工智能大模型与人类社会的交互提升到空前水平,推动人类社会生产生活和治理方式的转型优化,但人工智能大模型领域存在的伦理风险及其防范治理路径仍有待认知和深化探究.正确把握和理解人工智能大模型伦理风险识别及治理路径有利于为政策制定者及相关从业人员提供理论参考和决策依据.聚焦全球人工智能大模型伦理风险领域,选取人工智能大模型技术风靡以来全球范围内13 个具有代表性的伦理事件进行整体性分析,可识别、归纳出人工智能大模型领域存在的虚假/错误信息风险、心理诱导风险、隐私泄露风险、歧视偏见风险和不良内容风险五类伦理风险,应加强对不同风险类型生成规律及其溢出效应的理论认知,并从技术路径、监管路径、认知教育路径和国际合作路径提出治理对策.
收起全部
展开查看外文信息
作者:
李子浩、李天云
展开 >
作者单位:
上海交通大学 国际与公共事务学院,上海 200030
上海人工智能实验室,上海 200232
关键词:
人工智能大模型
生成式人工智能
伦理风险
治理路径
技术向善
出版年:
2024
学术交流
黑龙江省社会科学界联合会
学术交流
CHSSCD
影响因子:
0.565
ISSN:
1000-8284
年,卷(期):
2024.
(8)