Название | Искусственный интеллект. Большие данные. Преступность |
---|---|
Автор произведения | Владимир Овчинский |
Жанр | Публицистика: прочее |
Серия | Коллекция Изборского клуба |
Издательство | Публицистика: прочее |
Год выпуска | 2018 |
isbn | 978-5-6041495-7-7 |
21) Риски, создаваемые системами ИИ, особенно катастрофические или экзистенциальные риски, должны предвидеться, а их наступление минимизироваться за счет усилий, сопоставимых с ожидаемым последствием реализации этих рисков;
22) Системы ИИ, разрабатываемые с возможностью рекурсивного самосовершенствования или самовоспроизведения с последующим быстрым увеличением их количества или качества, должны отвечать строгим критериям безопасности и контроля;
23) Суперинтеллект должен разрабатываться только для служения широко разделяемым этическим идеалам и на благо всего человечества, а не одного государства или организации.
По сути, любые решения с применением ИИ будут результатом взаимодействия человека и компьютера. Если все прошло хорошо, то вопросов нет. А если не просто случилась неприятность, а неприятность, порожденная ошибкой, то кто за это должен ответить не только в финансовом, но и в правовом плане? Ответов нет. Все это подводит нас к переходу от этической проблематики к правовым аспектам ИИ.
§ 7. ИИ, роботы и право
Повсеместное распространение новых технологий и продуктов с их использованием размывает границы между человеком и машиной, между действиями в Интернете и вне его, между физическим и виртуальным миром, между естественным и искусственным, между реальной жизнью и виртуальной реальностью. Человечество наращивает свои возможности, используя для этого машины, роботов и программное обеспечение. Сегодня уже можно создать работоспособные интерфейсы между мозгом и компьютером. Теперь речь уже идет не об «обработанном» человеке, а об «отремонтированном» человеке, а на горизонте уже маячит «дополненный» человек.
В 2012 году Европейская Комиссия запустила проект «RoboLaw» основной целью которого было исследование того, каким образом перспективные технологии в сфере биоробототехники (включая ИИ) могут коррелировать с национальными и общеевропейской правовыми системами.
Парламентская ассамблея Совета Европы (ПАСЕ) в Рекомендации 2102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека» с обеспокоенностью отметила, что законодателям становится все сложнее адаптироваться к скорости эволюции науки и техники и разрабатывать необходимые правила и стандарты; она убеждена, что гарантия человеческого достоинства в XXI веке предполагает разработку новых форм правления, новых форм открытой, осознанной и состязательной публичной дискуссии, новых законодательных механизмов и, прежде всего, установление международного сотрудничества, позволяющего более эффективно решать эти новые задачи.
ПАСЕ в указанном документе отмечает, что ссылки на то, что системы с ИИ «самостоятельно» принимают решения, не могут освобождать создателей, владельцев и управляющих этих систем от ответственности за нарушения прав человека, совершаемые с применением