Rose debug info
---------------

Подписка на блог

Customize in /user/extras/subscribe-sheet.tmpl.php.

Sample text.

Twitter, Facebook, VK, Telegram, LinkedIn, Odnoklassniki, Pinterest, YouTube, TikTok, RSS JSON Feed

Sample text.

Суперпозиция юридической ответственности робота

После публикации статьи об автоматизации права при помощи алгоритмов,* мне хотелось придумать достаточно наглядный пример, котором бы мог проиллюстрировать применимость теоремы Геделя к правовым нормам. Современное позитивное право — это достаточно сложная система, не говоря уже о том, что оно отличается от страны к стране, трудно найти простой и всем понятный пример. Но могу предположить, что первый закон робототехники, сформулированный фантастом Айзеком Азимовым, знают все:

«Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Допустим, робот оказывается свидетелем нападения одного человека на другого, причем очевидно, что это нападение с большой вероятностью закончится убийством или тяжким телесным повреждением. Допустим, что робот может остановить нападающего только причинив ему вред. Исходя из этих условий, робот, который не вмешается и допустит убийство человека, нарушает первый закон робототехники. Но робот, который вмешается, причинит реальный вред нападающему, в то время как вред, который бы мог быть причинен жертве, на самом деле причинен не будет. И это тоже нарушение первого закона.

Этот пример — не просто игра слов или софизм, а реальное и непреодолимое противоречие. Для разрешения описанного затруднения можно было бы, например, уточнить понятие вреда и его степени. Робот не нарушит первый закон, если причинит человеку, нападающему на другого человека, вред соразмерный тому, который может быть причинен объекту нападения. Вроде бы простое и понятное правило. Но тогда возникает новое затруднение: как исходя из намерений и возможностей нападающего, определить соразмерность вреда, который потенциально может быть причинен, и вреда, который будет причинен реально для защиты другого человека? Здесь потребуются новые правила, уточнения и определения, и так до бесконечности.

Праву удается избегать дурной бесконечности определений и уточнений так, что оно допускает возникновение противоправных ситуаций и их разрешение способом, который может быть заранее неизвестен. Это доказывает, что право — это система, которая не может быть полностью формализована, но которая постоянно путем самонаблюдения (по Луману) обнаруживает и устраняет противоречия, с которыми сталкивается. Я говорил об этом в заметке о праве как машине Геделя.**

Применительно к нашему воображаемому роботу необходимо допустить, что он по собственному усмотрению может отклониться от заданных правил и создать потенциально противоправную ситуацию, за которую кто-то (его создатели или владелец) понесет юридическую ответственность. Причем во многих ситуациях нельзя заранее предсказать, возникнет такая ответственность, или нет. Можно тогда говорить о юридической ответственности, которая находится в своего рода «суперпозиции».

* Тортев, Д.; Александров, А. Можно ли запрограммировать право государственных закупок. Аукционный вестник. 2.4.2021, № 516.

** Право как машина Геделя

Комментируйте, пожалуйста, по ссылкам: в Minds, Telegram, Gab, Teletype.

Дальше