Название | Искусственный интеллект. Большие данные. Преступность |
---|---|
Автор произведения | Владимир Овчинский |
Жанр | Публицистика: прочее |
Серия | Коллекция Изборского клуба |
Издательство | Публицистика: прочее |
Год выпуска | 2018 |
isbn | 978-5-6041495-7-7 |
В ЕС первым шагом в направлении регулирования вопросов ИИ стала Резолюция Европейского Парламента 2017 г. «Нормы гражданского права о робототехнике». Еще в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и ИИ в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской
Комиссии для возможных действий в этом направлении, причем не только касательно норм гражданского права, но и этических аспектов робототехники.
Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и/или взаимосвязь с окружающей средой; при этом робот имеет по меньшей мере минимальную физическую поддержку, адаптирует свое поведение и действия в соответствии с условиями среды, но у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. Что касается ответственности, предлагаются два варианта: либо объективная ответственность (не требующая вины), либо подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу и уровню его автономности. Правила ответственности могут быть дополнены обязательным страхованием для пользователей роботов и компенсационным фондом для выплаты компенсации в случае отсутствия страхового полиса, покрывающего риск.
Для решения этических вопросов резолюция предлагает два кодекса поведения: Кодекс этики для разработчиков робототехники и Кодекс комитетов по этике научных исследований. Первый, в частности, предлагает четыре этических принципа: 1) «делай благо» (роботы должны действовать в интересах людей); 2) «не навреди» (роботы не должны причинять вред человеку); 3) автономия (взаимодействие человека с роботами должно быть добровольным); 4) справедливость (выгоды, получаемые от деятельности роботов, должны быть распределены справедливо).
Парламентская Ассамблея Совета Европы в 2017 г. приняла Рекомендацию 102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека».
В ней Ассамблея предложила разработать руководства по следующим вопросам:
«1. Повышение уровня транспарентности, государственное