Изучение юридических, моральных и этических последствий военного искусственного интеллекта имеет две стороны медали: эксперты и аналитики имеют общее представление о связанных с ним рисках, но постоянно развивающиеся технологии не позволяют им учесть все возможные последствия. Использование ИИ в военном деле может создать множество этических дилемм, которые нужно решать уже сегодня.
Учитывая широкий спектр потенциальных приложений и проблем, связанных с искусственным интеллектом, военные ведомства и их подрядчики должны решать юридические и этические проблемы на ранних этапах разработки, начиная с формирования концепции ИИ и заканчивая ее реализацией.
Формирование системных требований
Целостный анализ правовых и этических последствий автономных систем с поддержкой ИИ необходим на ранней стадии разработки. Анализ сильных и слабых сторон требует, чтобы проектировщик понимал цель системы, ее технические компоненты, а также соответствующие юридические и этические нормы.
Технические требования, такие как компьютерное зрение, распознавание изображений, логика принятия решений и автономность транспортных средств, необходимо расширять этическими соображениями. Это нужно, чтобы учитывать международное гуманитарное право, законы войны и соответствующие постановления. Например, международное гуманитарное право требует различать военных и гражданских лиц и предписывает, чтобы неизвестные лица считались гражданскими. В соответствии с законом ИИ-система, которая не знает статуса обнаруженного человека, должна будет проконсультироваться с оператором, прежде чем принимать какие-либо решения. Только один этот пример требует, чтобы разработчики такой системы еще на этапе проектирования предусмотрели множество компромиссов, которые могут возникнуть в процессе работы ИИ.
Разработчикам необходимо будет консультироваться с экспертами или даже мультидисциплинарными группами на протяжении всего процесса разработки. Эти эксперты не только укажут на правовые ограничения, но и помогут разработать другие ключевые особенности этического анализа. Два таких ключевых элемента – понятность системы и прозрачная документация.
Упор на объяснимость системы и этическую документацию
Требования этической документации представляют собой простой метод фиксации объяснимости системы. Разработчики должны документировать свои системы без жаргона и включать критические зависимости, возможные точки сбоя и пробелы в исследованиях, чтобы нетехническая аудитория понимала правовые и этические риски новых систем с поддержкой ИИ. Подробное пошаговое руководство миссии может помочь разработчикам определить точки принятия системных решений и варианты дизайна пользовательских интерфейсов и других компонентов. От разработчиков уже требуется подготовить документацию по снижению рисков для выявления и устранения технических проблем для новых систем. Подобная документация по рискам гарантирует, что разработчики прозрачно рассмотрят этические проблемы на этапе проектирования.
Документация, касающаяся законодательства и этических норм, также подчеркивает важность согласованной терминологии в командах разработчиков на протяжении всего процесса создания военного ИИ. Сложные и автономные системы могут запутать людей, пытающихся оценить этическое воздействие, особенно когда разработчики используют несовместимые имена и определения для одних и тех же компонентов. Оценки, в которых участвуют группы гражданских экспертов и военных специалистов, могут как устранить терминологические пробелы, так и выявить области потенциальной путаницы.
Устранение пробелов и предвзятости в исследованиях
Ранний и частый этический анализ может выявить пробелы в соответствующих исследованиях и указать на возможность ошибок, пока системы все еще находятся в разработке. Например, известно отсутствие исследований надежности распознавания изображений с помощью ИИ для определенных типов человеческого поведения. Дополнительные исследования могут вовремя устранить этот пробел и помочь с разработкой будущих систем с аналогичными техническими зависимостями.
Описание операционной среды, в которой будет работать система с поддержкой ИИ, часто зависит от эпизодических воспоминаний о боевых действиях. Это может служить полезной отправной точкой для обучения этих систем, но имеет ограничения. ИИ хорош настолько, насколько хороши данные, на которых он обучается. В большинстве случаев наборы данных, учитывающие тонкости и нюансы конкретных условий, просто не существуют. Даже там, где они существуют, часто требуются огромные усилия для преобразования в форматы, пригодные для машинного обучения. Кроме того, сообщество искусственного интеллекта на собственном опыте усвоило, что даже хорошо разработанные наборы данных могут содержать непредвиденные предубеждения, которые могут вызывать серьезные этические проблемы.
Регулярный этический анализ может помочь устранить проблемы предвзятости ИИ. Такой анализ также может служить защитой от внесения преднамеренной или непреднамеренной предвзятости. Консультанты по вопросам права и этики могут помочь продумать наборы данных, выходную информацию системы и человеческий вклад, чтобы попытаться выявить вероятность предвзятости еще в процессе проектирования.
Выводы
На первый взгляд, прикладные правовые, моральные и этические соображения кажутся обременительными для разработчиков военного искусственного интеллекта. Они также могут потребовать от IT-сообщества переосмысления их стандартных процессов создания ИИ. Однако ранний и частый анализ, включающий постоянное тестирование и создание прототипов, снизит количество этических дилемм, которые пагубно повлияют на последующие этапы разработки и помешают развертыванию интеллектуальных систем для военных целей.
Военные, прежде чем вступают в ряды армии, извлекают уроки этики, морали и права в обществе. И если мы просим интеллектуальные машины взять на себя обязанности, аналогичные нашим, почему мы должны подходить к ним иначе?