Искусственный интеллект. Этика и право - Елена Сергеевна Ларина
Шрифт:
Интервал:
Закладка:
Пять принципов Этической Хартии использования искусственного интеллекта в судебной и правоохранительной системах:
принцип первый – уважения фундаментальных прав. Необходимо убедиться, что разработка и использование инструментов и услуг ИИ совместимы с основными правами личности;
принцип второй – недискриминации. Уже на стадии разработки алгоритмов ИИ и больших данных, используемых для машинного обучения, необходимо блокировать возможность любой дискриминации между людьми или группами людей, которая может появиться в результате необдуманного использования статистических методов анализа необработанных больших данных;
принцип третий – качества и безопасности. В отношении разработки алгоритмов и использования данных, анализируйте источники больших данных, их структуру и содержание, а также необходимо использовать математические модели, разработанные на междисциплинарной основе, учитывающей не только прямые статистические корреляции, но исоциальные, культурные, экономические и другие факторы, вызывающие эти корреляции;
принцип четвертый – прозрачности. В судебной системе и правоохранительных органах ИИ может использоваться только в том случае, если его реализация обеспечивает прозрачность, включая доступность и понятность исходных больших данных и применение лишь тех типов нейронных сетей, в отношении которых внешний аудит может выяснить критерии распознавания тех или иных совокупностей[4];
принцип пятый – пользовательского контроля. При применении ИИ в судебной и правоохранительной сферах исключить нормативно предписывающий подход и обеспечить, чтобы все пользователи системы были информированы участниками и эксплуатировали ИИ только в том случае, если могут разобраться в алгоритмах и способах применения ИИ. В судебной системе также как в военной сфере не могут использоваться ИИ-черные ящики. Судебные работники всегда должны понимать и знать, на чем основываются выводы ИИ, которые предлагаются им как автоматизированное экспертное мнение.
§ 1. Принцип первый
Обработка судебных решений и данных должна служить четким целям и полностью соответствовать Европейской Конвенции о правах человека и Конвенции о защите персональных данных. (Конвенция о защите физических лиц в отношении автоматической обработки персональных данных ETSN108 с изменениями и дополнениями, внесенными в протокол CETSN223).
Когда инструменты ИИ используются для решения споров или в качестве инструмента помощи в принятии судебных решений, а также в правоохранительной деятельности, важно обеспечить, чтобы ИИ не подрывал гарантии права на доступ к судье, а также право на равенство сторон и уважения к состязательному судопроизводству. При использовании ИИ правоохранительными органами, при предоставлении материалов в суд у стороны защиты в рамках проведения справедливого судебного разбирательства должно быть право на получение обоснования, принятого с использованием ИИ решения вплоть до раскрытия используемых больших данных и применяемых алгоритмах их разработки.
Также необходимо обеспечить безусловное сохранение принципа верховенства закона и независимости судьи и процессе принятия решений в обстановке, когда ИИ становится инструментом, вовлеченным в судебный процесс на стадии сбора доказательств, либо в фазе самого судебного процесса. Во всех случаях на этапах разработки алгоритмов ИИ необходимо соблюдать этические принципы, гарантирующие равенство граждан перед законом. В случае несоблюдения этических принципов необходимо отказываться от пусть эффективных и совершенных, но не соответствующих этим принципам алгоритмов машинного обучения, нейронных сетей и других математических методов ИИ.
§ 2. Принцип второй
Учитывая внутренне присущую методам машинного обучения и нейронных сетей способность закреплять классификации или распознавание новых данных на основе ранее выявленных закономерностей, касающихся отдельных лиц или групп лиц, необходимо, чтобы государственные и частные заинтересованные стороны уже на стадии разработки программных средств ИИ для судебных и правоохранительных сфер заблокировали возможность дискриминации определенных групп, слоев и отдельных граждан в результате применения алгоритмов.
Особое внимание следует уделить как на этапе разработки, так и на этапе развертывания, проверке применяемых алгоритмов на избыточный учет при принятии решений таких факторов, как раса, этническое происхождение, социально-экономическое состояние, политические взгляды, социальные связи, членство в профсоюзах и т. п. Следует прямо запретить в алгоритмах ИИ, используемых в судебной и правоохранительной системах, использование генетических данных, а также биометрических данных, связанных со здоровьем, сексуальной жизнью и сексуальной ориентацией. В случае если такая дискриминация выявляется при проверке применения алгоритмов, необходимо вплоть до усовершенствования алгоритмов отказаться от использования ИИ[5].
Следует поощрять использование машинного обучения и междисциплинарного научного анализа для выявления фактического положения дел. Если фактическое положение дел может быть охарактеризовано как дискриминационная ситуация, то ИИ целесообразно максимально использовать как аналитический инструмент, а не инструмент поддержки принятия решений.
§ 3. Принцип третий
Разработчики модели машинного обучения должны иметь возможность широко использовать опыт работников судебной и правоохранительной систем, включая судей, прокуроров, юристов, следователей, оперативных работников и т. п., а также специалистов в области социальных наук, включая экономистов, социологов, психологов и т. п.
Для разработки ИИ, используемых в судебной и правоохранительной сферах, необходимо формировать смешанные проектные команды, реализующие междисциплинарный подход. При распределении подрядов на производство ИИ для судебной и правоохранительной сфер обязательным требованием должна быть сертификация разработчиков на прохождение курсов по этике ИИ.
Эффективность ИИ в значительной степени предопределяется качеством данных, используемых при машинном обучении. ИИ, применяемый в судебной и правоохранительной системах, должен обучаться на данных исключительно из сертифицированных источников.
§ 4. Принцип четвертый
Необходимо соблюдать баланс между интеллектуальной собственностью разработчиков на методы машинного обучения, используемые нейронные сети и т. п. и необходимостью обеспечения прозрачности, беспристрастности и отсутствия дискриминации в программах и алгоритмах ИИ.
Необходимо создать систему внешнего аудита программных средств ИИ. Целесообразно установить порядок, согласно которому обязательным условием использования ИИ в судебных и правоохранительных сферах является прозрачность их алгоритмической базы и объяснимость принятия решений на всех уровнях с целью недопущения использования дискриминационных факторов при распознавании объектов.
Наиболее предпочтительным является вариант полной технической прозрачности, когда в ИИ для судебной и правоохранительной сфер используют открытый исходный код, доступную документацию и человечески интерпретируемые алгоритмы нейронных сетей. Система также должны быть объяснена простым и понятным языком, прежде всего, для описания того, как получены результаты, чтобы обвиняемые, адвокаты и другие участники состязательного судебного процесса могли понять, и в случае необходимости оспорить, принятые ИИ рекомендации для решения дела.
Целесообразно ввести государственную сертификацию производителей ИИ, используемых в судебной и правоохранительной сферах.
§ 5. Принцип пятый
Пользовательский контроль должен быть увеличен, а не ограничен, на основе инструментов и сервисов ИИ. Профессионалы систем правосудия и правоохранительной деятельности должны в любой момент иметь возможность пересматривать судебные решения, принятые с применением ИИ, а также контролировать данные, используемые ИИ на всех этапах расследования и судебного процесса. Пользователь должен быть проинформирован ясным и понятным языком о том, каким образом принято решения ИИ, насколько они обязательны и имеют ли они