面对大数据杀熟、算法困住骑手,民主促进会中央建议推行算法开发主体责任制,你怎么看?

2021年全国两会召开在即,民进中央也关注到人工智能产业的发展问题,拟提交《关于推动人工智能产业健康发展的提案》,建议加强对算法的监管,建立算法开发者…
关注者
1,714
被浏览
550,735
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

2020年10月的时候,欧盟发布了三份关于人工智能立法的倡议,分别是关于道德原则、运营责任与知识产权。其中前两份倡议会与算法责任更加密切,尤其是运营责任。

就责任来说,欧盟的路径是将高风险AI系统的责任单独列出。所谓高风险,是指:

自主运作的人工智能系统有很大的潜在危险,可能会对一人或多人造成伤害或损害,而伤害或损害的方式是随机的,并超出了可以合理预期的范围;潜在危险的重要性取决于可能造成伤害或损害的严重性、自主决策的程度、风险实现的可能性,以及使用人工智能系统的方式和环境之间的相互影响。

欧盟打算对高风险AI系统采取严格责任。除非因为不可抗力,否则不得以其已尽职行事或伤害或损害是由其人工智能系统驱动的自主活动、设备或过程造成为由,而免除自己的责任。

对于非高风险AI系统,对运营者采取过错责任。

除了设定责任分配体系。在道德合规方面,要求:

  • 安全、透明和可问责
  • 不偏袒和不歧视
  • 社会责任和性别平等
  • 环境可持续性
  • 尊重隐私和保护个人数据

并且要求任何高风险技术,包括这些技术所使用或产生的软件、算法和数据,其开发、部署和使用的方式应保证在任何时候都有充分的人为监督。在合规层面提出了更高的要求,并且打算设置道德合规的相关证书。

另一方面,我国其实也在推进这方面工作,这是现在的成果层级还相对较低,距离立法还有距离。

比如2021年1月全国信息安全标准化技术委员会秘书处发布了一份《网络安全标准实践指南—人工智能伦理安全风险防范指引》,提出人工智能伦理安全风险防范的基本要求包括:

  1. 应符合我国社会价值观,并遵守国家法律法规;
  2. 应以推动经济、社会、生态可持续发展为目标,致力于实现和谐友好、公平公正、包容共享、安全可控的人工智能;
  3. 应尊重并保护个人基本权利,包括人身、隐私、财产等权利,特别关注保护弱势群体;
  4. 应充分认识、全面分析人工智能伦理安全风险,在合理范围内开展相关活动;
  5. 研究开发者、设计制造者、部署应用者应积极推动人工智能伦理安全风险治理体系与机制建设,实现开放协作、共担责任、敏捷治理;
  6. 研究开发者、设计制造者、部署应用者应积极推动人工智能伦理安全风险以及相关防范措施宣传培训工作。

在未来几年,或许会有更多的案例论文与著作涌现出来吧。

我简单翻译了一下欧盟的立法倡议(比较仓促,不一定准确,请以原文为主):

作为他山之石或许可以参考一二。