Американские ученые создали общедоступный репозиторий рисков искусственного интеллекта (ИИ), который стал первой попыткой тщательного сбора, анализа и классификации этих рисков. База данных будет полезна для различных целей, включая обучение новых специалистов, создание основы для сложных проектов и выявление недооцененных областей в изучении ИИ.
Исследователи из Массачусетского технологического института (MIT) завершили разработку «Репозитория рисков ИИ» в августе 2024 года. Этот документ представляет собой систематизированный обзор существующих рисков, условий и причин их возникновения, становясь важным инструментом для исследователей, политиков, аудиторских компаний и разработчиков в понимании и управлении угрозами, связанными с ИИ-системами.
База данных будет обновляться по мере появления новых угроз и уже содержит более 700 рисков, разделенных на 7 типов:
- Дискриминация и токсичность
- Конфиденциальность и безопасность
- Дезинформация
- Злоумышленники и злоупотребления
- Взаимодействие человека и компьютера
- Социально-экономический и экологический ущерб
- Безопасность, недостатки и ограничения систем ИИ
Исследователи отметили, что 51% рисков ИИ возникает из-за работы самих систем, а не из-за действий человека (34%). При этом 65% рисков появляются после развертывания ИИ-модели, и лишь 10% — до этого.
Классификатор показывает, что сообщество наиболее часто обсуждает риски, связанные с безопасностью (76%), социально-экономическим ущербом (73%) и дискриминацией (71%). Меньше внимания уделяется взаимодействию человека с компьютером (41%) и дезинформации (44%).
Репозиторий включает 23 подкатегории рисков. Исследователи подчеркивают, что ранее в аналогичных документах упоминались лишь 16. Наиболее часто обсуждаются подкатегории, такие как несправедливая дискриминация (8%) и неустойчивость ИИ (9%). В то же время, такие темы, как права и благополучие ИИ (<1%) и загрязнение информационной среды (1%), остаются малоизученными.
База данных может помочь политикам в разработке нормативных актов и стандартов, аудиторам — в создании стандартов и проведении аудитов ИИ-систем, а исследователям — в выявлении пробелов в изучении ИИ. Представители индустрии смогут использовать репозиторий для внутренней оценки рисков и подготовки кадров.

