Искусственный интеллект. Этика и право - Елена Сергеевна Ларина
Шрифт:
Интервал:
Закладка:
Второе принципиальное возражение против использования ИИ заключается, как описано выше, в том, что использование продвинутых информационных технологий, в том числе ИИ, подрывает равенство перед законом и состязательность судебных процессов.
Наконец, третья группа возражений против широкого использования ИИ в уголовном судопроизводстве имеет, если можно так выразиться, статистический характер. Профессионалы понимают, что, по сути, специализированный ИИ – это мощнейший вычислитель, обрабатывающий статистические данные. Соответственно использование предиктивной, особенно судебной аналитики, может привести к тому, что прошлое поведение определенной группы людей с конкретными параметрами будет, в конечном счете, решить судьбу отдельного человека. Каждый подсудимый, хотя и имеет определенные, общие с другим людьми, характеристики, но оказывается на судебной скамье в результате комбинации уникальных жизненных обстоятельств. Единичная судьба никак не связана и не коррелируется с групповой статистикой. Пожалуй, в западноевропейских государствах ЕС именно возможность статистических данных влиять на судьбы отдельных людей и является главным аргументом общественности против использования ИИ в судебной сфере.
§ 15. Потенциал и ограничения предиктивной судебной аналитики
По мнению экспертов ЭС, термин, пришедший из-за океана, «предиктивная судебная аналитика» необходимо отбросить, поскольку он неоднозначен и вводит в заблуждение. Гораздо лучше использовать термин «интеллектуальный аналитический судебный софт». Данный термин не вызывает нареканий у судей и общественности и принят в IT отрасли Европы.
Консенсусная точка зрения среди специалистов по софту для правоохранительной и судебной сфер состоит в следующем. Нейтральность алгоритмов – это миф. Машины еще не научились самостоятельно писать алгоритмы. Даже нейронные сети – это не самосовершенствующиеся программы, как многие считают, а программы, позволяющие менять оценку тех или иных факторов, используемых для распознавания чего-то, в зависимости от вновь поступающих данных. ИИ – это произведенное человеком устройство, выполняющее команды, которые записаны на созданных людьми искусственных языках для выполнения тех или иных расчетных алгоритмов, порожденных не машиной, а конкретным человеческим разумом. Т. е. все три главных компонента ИИ – это машины, языки и алгоритмы – созданы людьми.
Поскольку любые люди, и математики не исключение, имеют свои картины мира, взгляды, ценности, то так или иначе они отражают их в алгоритмах. Любой алгоритм, будучи порождением определенных математиков и разработчиков, несет в себе их внутренний мир. Когда люди выступают против ИИ, они в иррациональной форме демонстрируют свою неготовность вручить свою жизнь математику. Фактически замена судей алгоритмами не проходит в Европе, достаточно далекой от маркетингового бизнеса, потому, что ни государства, ни общество не готовы поменять профессионалов – судей, на математиков, которые ничего не понимают в законах. Все остальные соображения о боязни ИИ – это просто американские феномены, которые сами компьютерные фирмы используют для продвижения продукции.
10 лет назад никто не предлагал отказаться от компьютерных программ, например, для написания судебных документов или расчетов тех или иных данных. Ни одному здравомыслящему человеку не могла прийти в голову мысль наделять текстовой процессор World или таблицы Excel свойствами искусственного разума. В условиях экономической стагнации IT компании вложили гигантские, исчисляемые миллиардами долларов, средства в маркетинг, рекламу и заморочили голову потребителю появлением чего-то похожего на человеческий разум у машин. При этом за эти годы алгоритмика не изменилась, выросла лишь производительность компьютеров и появились впервые в истории человечества большие данные.
К сожалению, историческая форма использования интеллектуального софта в судебной сфере завела общество и судебную систему в дебри бессмысленных дискуссий об ИИ. Эксперты ЕС считают, что с этим положением необходимо покончить. Прежде всего, они предлагают на общеевропейском уровне провести серию конференций и круглых столов, собрав их вместе с разработчиками инструментов, юристами, работниками государственных органов, средств массовой информации, для того, чтобы выработать четкую, ясную, соответствующую реалиям и помогающую делу терминологию. Судебные советы, профессиональные ассоциации и коллегии адвокатов также должны принять активное участие в этих круглых столах. Необходимо покончить с ситуацией, когда в юридической сфере мелькают случайные или рекламные IT термины, затрудняющие использование передовых технологий.
Необходимо создать группы технического аудита и предоставить им право исследовать предлагаемые частным сектором как ИИ прогнозноаналитические и иные программы. Главная же задача состоит в определении на основе широких дискуссий конкретных участков работы и сфер, где в ближайшие годы наиболее эффективно использование интеллектуального прогнозно-аналитического софта в судопроизводстве.
Глава II
Европейская Этическая Хартия использования искусственного интеллекта в судебной и правоохранительной системах
Признавая возрастающую важность ИИ в современном обществе, включая ожидаемые выгоды, Европейская комиссия на 31 пленарном заседании 3–4 декабря 2018 года в Страсбурге приняла пять фундаментальных принципов, содержащихся в Европейской Этической Хартии, использования искусственного интеллекта в судебной и правоохранительной системах.
Хартия предназначена для руководства в работе государственных и частных заинтересованных сторон, ответственных за создание и внедрение ИИ и его компонентов в судебной и правоохранительной сферах (методы машинного интеллекта включают машинное обучение или любые другие способы обработки больших данных). Хартия также касается лиц, принимающих решения в сфере законодательной или нормативной базы, а также оказывающих связанные с этим услуги.
Хартия поддерживает использование методов и компонентов ИИ для повышения эффективности и качества правосудия и правоохранительной работы. Однако она обращает особое внимание на необходимость максимально ответственного подхода к этой деятельности, обеспечивающего полный учет прав личности, изложенных в Европейской Конвенции о правах человека и Конвенции о защите данных, а также других нормативных материалах, связанных с гражданскими правами личности.
Использование ИИ для обработки судебных решений и правоохранительной деятельности поможет повысить уровень раскрываемости преступлений, поднять уровень доказательности направляемых в судебные инстанции обвинительных заключений и обеспечить новый уровень обоснованности судебных решений за счет снижения количества ошибок при их вынесении.
Применение методов ИИ в уголовных делах должно сопровождаться особыми оговорками с тем, чтобы предотвратить дискриминацию на основе использования конфиденциальных данных и обеспечить гарантии справедливого судебного разбирательства для любого человека, вне зависимости от пола, возраста, гражданства и других характеристик.
Для систем ИИ, используемых в судебных и правоохранительных органах, особое значение имеет проведение их независимой внешней экспертизы на предмет исключения влияния на алгоритмы случайно или специально подобранных данных, которые могут привести к дискриминационным решениям[3].
Принципы Хартии должны регулярно применяться, контролироваться и оцениваться государственными и частными субъектами в целях постоянного совершенствования судебной и правоохранительной практики.
В этом отношении Европейская Комиссия рекомендовала, чтобы соответствующие субъекты регулярно проводили мониторинг хода практической реализации принципов Хартии. Независимые органы, упомянутые в Хартии, должны располагать результатами мониторинга и своевременно, под контролем соответствующих органов, вносить при необходимости изменения в программы ИИ, и установленные