主要观点总结
文章讨论了人工智能致害侵权责任规则的选择,提出应适用无过错责任,而非传统的过错责任。文章通过法律经济分析理论,指出无过错责任在人工智能侵权场景中的优势,包括避免高制度成本、有效激励行为人采取合理注意和预防措施,以及避免对人工智能创新活动的过度抑制。同时,文章也探讨了行政监管的风险规制与民事责任的关系,提出民事责任仍有其存在的必要性,以维护社会对人工智能产业及监管体制的信任。文章还讨论了事前监管与事后赔偿责任的关系,以及如何通过制度设计避免过度威慑和叠加效应。
关键观点总结
关键观点1: 人工智能致害侵权责任的选择
文章主张人工智能系统侵权应适用无过错责任,而非过错责任,基于效率考虑,认为无过错责任能够避免高制度成本,有效激励行为人采取合理注意和预防措施,并避免对人工智能创新活动的过度抑制。
关键观点2: 行政监管与民事责任的关系
文章讨论了行政监管的风险规制与民事责任的关系,认为民事责任仍有其存在的必要性,以维护社会对人工智能产业及监管体制的信任。
关键观点3: 事前监管与事后赔偿责任的关系
文章讨论了事前监管与事后赔偿责任的关系,提出通过制度设计,如安全港规则,来避免过度威慑和叠加效应,同时保留市场主体选择风险预防策略的空间和监管者改进规制策略的灵活性。
文章预览
中国民商法律网 本文原载于《华东政法大学学报》2024年第5期。 【作者简介】戴昕,北京大学法学院副教授,法学博士。 全文共 20721 字,阅读时间 约 51 分钟。 【摘要】如何制定人工智能致害的侵权责任规则,是人工智能立法领域的一个困难议题。由于黑箱系统的作用机制难以解释,以及致害过程有多方参与,人工智能致害侵权如适用过失责任,将产生较高制度成本。适用无过错责任不仅制度成本更低、救济效果更好,而且结合法律经济分析有关责任规则影响注意水平和行为水平的原理,可知其未必会导致对人工智能创新活动的过度抑制。同时,尽管基于行政监管的风险规制是应对人工智能致害风险的最主要制度形态,但侵权赔偿责任,特别是无过错责任的设置,将有助于维护社会对人工智能产业及人工智能监管体制的信任。 【关键词】
………………………………