Использование искусственного интеллекта военными теперь ограничено этикой. Вчера Минобороны США официально сформулировало этические принципы использования искусственного интеллекта в военной сфере.
Министр обороны США Марк Эспер официально объявил, что разработчики военных систем для американской армии должны придерживаться пяти ключевых принципов. Ответственным за исполнение принципов использования систем искусственного интеллекта назначен Объединённый центр искусственного интеллекта Минобороны США.
5 этических принципов искусственного интеллекта для военных:
- Ответственность. Персонал Минобороны должен с надлежащим вниманием оценивать действия искусственного интеллекта, оставаясь полностью ответственным за разработку, развёртывание и использование систем искусственного интеллекта;
- Беспристрастность. Ответственные лица должны предпринимать шаги для минимизации нежелательных отклонений в возможностях систем искусственного интеллекта;
- Прослеживаемость. Военные системы искусственного интеллекта и их возможности должны разрабатываться и развёртываться таким образом, чтобы персонал имел должный уровень понимания технологии, процессов разработки и методов применения. Для военного персонала должны быть доступны методологии, данные и документация, относящиеся к используемым системам искусственного интеллекта;
- Надёжность. Возможности военных систем искусственного интеллекта должны быть однозначными и чётко сформулированными. Безопасность и эффективность должны проверяться испытаниями и подтверждаться на протяжении всего срока службы;
- Подчинение. Военные системы искусственного интеллекта должны полностью выполнять предназначенные для них задачи, но военные должны иметь возможность обнаруживать и предотвращать нежелательные последствия использования искусственного интеллекта. Военные также должны иметь возможность выводить из боя или выключать системы искусственного интеллекта, у которых замечены отклонения в работе.
Комментарии к данной статье отключены.