摘要
ChatGPT的强大功能引致了新一轮的技术风险担忧,这些风险无一不让学者们重新审视现有立法体系与人工智能技术风险之间的匹配性.部分学者习惯性地将技术创新与新型技术风险等同,进而以新型风险为由主张特别立法,但这类"风险立法论"主张始终未能言明这些新兴风险的特殊性以及立法所需要的正当性基础.此种治理误区乃是风险类型与风险程度两个概念混同所致的,现阶段回应ChatGPT滥用风险的关键在于提供一种兼顾伦理、技术和法律的治理框架.结合现行立法所提及的算法主体责任体系以及科技伦理审查义务,在不单独立法的情况下,依托网络法治体系尚未细化的安全评估框架,建构囊括伦理层面的算法安全原则、法律责任的算法安全保障义务以及囊括技术层面的算法安全标准的算法安全评估机制.