Прикладное машинное обучение и глубокое обучение
Double Attention Networks
Способность улавливливать закономерности на большой площади изображения фундаментально для задач компьютерного зрения. Существующие сверточные архтиектуры для этих целей пологаются на увеличение глубины, что приводит не к самым эффективным результатам. На семинае мы обскдим «double attention block» от Facebook AI Research, который позволяет агрегировать и распросранять информативные признаки со всей пространсвенно-временной поверхности изображения/видео. Такой трюк способствует более эффективному распростанению информации к последним слоям сети.
А в предверии начала нового сезона семинаров, на разогреве у нас будет небольшое выступление о том, как правильно читать научные статьи.
Докладчик: Рауф Курбанов.
Язык доклада: русский.
Дата и время: 23-е января, 18:30-20:00.
Место: Таймс, аудитория 405.
Материалы:
Chen, Yunpeng, et al. "A^ 2-Nets: Double Attention Networks." Advances in Neural Information Processing Systems. 2018.
Hu, Jie, Li Shen, and Gang Sun. "Squeeze-and-excitation networks." arXiv preprint arXiv:1709.01507 7 (2017).
Keshav, S. "How to read a paper." ACM SIGCOMM Computer Communication Review 37.3 (2007): 83-84.