Исследовательская группа

Прикладное машинное обучение и глубокое обучение

Double Attention Networks

January 23

Способность улавливливать закономерности на большой площади изображения фундаментально для задач компьютерного зрения. Существующие сверточные архтиектуры для этих целей пологаются на увеличение глубины, что приводит не к самым эффективным результатам. На семинае мы обскдим «double attention block» от Facebook AI Research, который позволяет агрегировать и распросранять информативные признаки со всей пространсвенно-временной поверхности изображения/видео. Такой трюк способствует более эффективному распростанению информации к последним слоям сети.

А в предверии начала нового сезона семинаров, на разогреве у нас будет небольшое выступление о том, как правильно читать научные статьи.

Докладчик: Рауф Курбанов.

Язык доклада: русский.

Дата и время: 23-е января, 18:30-20:00.

Место: Таймс, аудитория 405.

Материалы:
Chen, Yunpeng, et al. "A^ 2-Nets: Double Attention Networks." Advances in Neural Information Processing Systems. 2018.
Hu, Jie, Li Shen, and Gang Sun. "Squeeze-and-excitation networks." arXiv preprint arXiv:1709.01507 7 (2017).
Keshav, S. "How to read a paper." ACM SIGCOMM Computer Communication Review 37.3 (2007): 83-84.