Лаборатория искусственного интеллекта
From local explanations to global understanding with explainable AI for trees
В современном машинном обучении модели, основанные на деревьях, являются самыми популярными нелинейными моделями, использующими табличные данные. Эти модели широко применяются в таких областях как медицина, финансы, маркетинг и др., где важна не только точность модели, но также и её интерпретируемость, то есть возможность понять, как модель использует те или иные признаки в предсказании. В медицине закономерности, выявленные с помощью модели, могут быть более ценными, чем сами предсказания.
Однако, несмотря на важность задачи, существующие методы локальной интерпретации имеют либо существенно ограниченную область применимости, либо большую вычислительную сложность. В статье авторы представляют TreeExplainer – новый метод локальной интерпретации, являющийся улучшением более раннего метода, основанного на числах Шапли. TreeExplainer позволяет за полиномиальное время решать NP-трудную задачу подсчета чисел Шапли, определять взаимодействие признаков между собой, а также объяснять глобальное поведение модели. Работа метода продемонстрирована на трёх различных задачах машинного обучения в медицине.
Докладчики: Евсикова Дарья, Праздничных Антон.
Язык доклада: русский.
Дата и время: 1-е декабря, 18:30-20:00.
Видео с предыдущих семинаров доступно по ссылке: http://bit.ly/MLJBSeminars
Для получения рассылки о семинаре (со ссылкой на Zoom) - пишите Алексею Шпильману на alexey@shpilmаn.com.