Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Ближайшие семинары
Календарь семинаров
Список семинаров
Архив по годам
Регистрация семинара

Поиск
RSS
Ближайшие семинары






Общероссийский семинар по оптимизации
8 июля 2020 г. 19:00, Москва, Онлайн
 


О сходимости методов типа стохастического градиентного спуска для выпуклых и невыпуклых задач оптимизации

Э. А. Горбунов
Материалы:
Adobe PDF 13.1 Mb

Количество просмотров:
Эта страница:167
Материалы:66
Youtube Video:





Аннотация: Основная цель данного доклада — сделать обзор существующих стохастических методов оптимизации для решения задач минимизации суммы большого числа функций, которые возникают в машинном обучении. В первой части доклада будет представлен единообразный подход к анализу различных вариантов стохастического градиентного спуска (в том числе, методов редукции дисперсии) для сильно выпуклых и выпуклых задач. Затем мы перейдём к рассмотрению невыпуклых задач, обсудим общий взгляд на оптимальные методы для таких задач, а также поговорим о некоторых недавних результатах в этой области. В заключение, мы рассмотрим так называемые over-parameterized модели машинного обучения и про то, как сходятся известные методы для таких задач в сильно выпуклом, выпуклом и невыпуклых случаях.

Материалы: all_russian_seminar_8_july.pdf (13.1 Mb)

ОТПРАВИТЬ: VKontakte.ru FaceBook Twitter Mail.ru Livejournal Memori.ru
 
Обратная связь:
 Пользовательское соглашение  Регистрация  Логотипы © Математический институт им. В. А. Стеклова РАН, 2021