Учёные из Массачусетского технологического института представили новый метод, который помогает моделям искусственного интеллекта объяснять свои прогнозы более понятно и точно. Разработка была создана в лаборатории CSAIL MIT и будет представлена на Международной конференции по обучению представлениям. Технология может повысить доверие к ИИ в медицине, анализе изображений и других критически важных областях.
Современные системы искусственного интеллекта часто называют «чёрным ящиком», констатирует xrust. Они способны давать точные прогнозы, но пользователи не всегда понимают, почему модель пришла именно к такому результату.
Это особенно важно в таких областях, как:
Например, если алгоритм обнаруживает меланому на снимке кожи, врач должен понимать, какие признаки на изображении привели к такому выводу. Без этого доверие к алгоритму остаётся ограниченным.
Подробнее о лаборатории исследования можно узнать на официальном сайте MIT CSAIL:
https://www.csail.mit.edu
Один из способов сделать искусственный интеллект понятнее — использовать так называемую модель Concept Bottleneck Model (CBM).
Её принцип работы прост:
Например, система распознавания птиц может учитывать:
После анализа этих признаков алгоритм определяет вид птицы.
Промежуточный этап — «бутылочное горло» — позволяет пользователю увидеть логику решения модели.
До сих пор большинство таких моделей работали с концепциями, которые заранее задавали люди или языковые модели.
Но у этого подхода есть серьёзные недостатки:
Эта проблема известна как утечка информации.
В результате ИИ иногда опирается на признаки, о которых пользователь даже не знает.
Исследователи предложили альтернативный метод: извлекать концепции непосредственно из обученной модели.
Идея состоит в том, что нейросеть уже изучила огромное количество данных и сформировала собственные внутренние признаки для принятия решений.
Чтобы получить их, учёные применили несколько технологий:
Процесс выглядит так:
В результате объяснения становятся гораздо ближе к реальному процессу работы нейросети.
Чтобы сделать объяснения ещё понятнее, исследователи ввели дополнительное ограничение.
Для каждого прогноза модель может использовать не более пяти концепций.
Это даёт сразу несколько преимуществ:
Новый метод протестировали на нескольких задачах компьютерного зрения.
Среди них:
По результатам экспериментов система:
Ведущий автор исследования Антонио Де Сантис, аспирант Миланского политехнического университета, объясняет цель разработки:
«Мы хотим научиться читать мысли моделей компьютерного зрения. Использование более совершенных концепций повышает точность прогнозов и делает системы ИИ более подотчётными».
Работу высоко оценили специалисты в области науки о данных.
Профессор Вюрцбургского университета Андреас Хото отметил:
«Этот подход открывает путь к объяснениям, которые лучше соответствуют реальной работе модели, и создаёт мост между интерпретируемым ИИ, символическим ИИ и графами знаний».
Подробнее о будущей конференции, где представят исследование:
https://iclr.cc
Развитие объяснимого ИИ может изменить подход к использованию алгоритмов в чувствительных сферах.
Особенно это важно для:
Чем понятнее алгоритмы объясняют свои выводы, тем легче специалистам проверять и контролировать их работу.
Проблема объяснимости искусственного интеллекта активно обсуждается последние годы. По мере роста сложности нейросетей всё больше моделей становятся «чёрными ящиками», чьи внутренние процессы трудно интерпретировать.
Исследования в области Explainable AI (XAI) направлены на то, чтобы сделать алгоритмы более прозрачными и повысить доверие пользователей. Работа MIT стала одним из шагов в развитии технологий, которые помогают понять, как именно ИИ принимает решения.
Xrust: Новый метод MIT делает ИИ более объяснимым