摘要
对人工智能安全可靠性的忧虑促使制定其符合伦理标准的开发准则、规范和原则.人操作人工智能系统需要遵守技术伦理规范.利用大数据操作导航、搜索引擎、视频监控、智能识别和动态识别,收集个人全面的行动信息,都必须尊重个人隐私,安全可靠.严格防范和惩治利用图像、音视频仿真等深度伪造技术进行欺诈,监管利用人工智能编辑出来的新的DNA.ChatGPT等生成式人工智能需要尊重知识产权,制止侵权行为.对特斯拉自动驾驶系统撞人事故的案例分析表明,对于人工智能的应用需施以可验证的伦理标准.立法者和大公司正制定重要的人工智能安全法规和设计指导原则.通用人工智能具有很强的自主学习和选择能力,因而更需要设置严格的伦理规范,遵循以人为本的原则,不得伤害人,也不得在人受到伤害时不予救助,必须维护人的整体利益.应严格控制其自主发展的方向,及时发现其自主设计制造电脑病毒、对人实施攻击等危险行为的临界点,发出警报并予以制止.