RUS  ENG ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB
Ближайшие семинары
Календарь семинаров
Список семинаров
Архив по годам
Регистрация семинара

Поиск
RSS
Ближайшие семинары





Для просмотра файлов Вам могут потребоваться








Общероссийский семинар по оптимизации
8 июля 2020 г. 19:00, Москва, Онлайн
 


О сходимости методов типа стохастического градиентного спуска для выпуклых и невыпуклых задач оптимизации

Э. А. Горбунов
Материалы:
Adobe PDF 13.1 Mb

Количество просмотров:
Эта страница:111
Материалы:16
Youtube Video:





Аннотация: Основная цель данного доклада — сделать обзор существующих стохастических методов оптимизации для решения задач минимизации суммы большого числа функций, которые возникают в машинном обучении. В первой части доклада будет представлен единообразный подход к анализу различных вариантов стохастического градиентного спуска (в том числе, методов редукции дисперсии) для сильно выпуклых и выпуклых задач. Затем мы перейдём к рассмотрению невыпуклых задач, обсудим общий взгляд на оптимальные методы для таких задач, а также поговорим о некоторых недавних результатах в этой области. В заключение, мы рассмотрим так называемые over-parameterized модели машинного обучения и про то, как сходятся известные методы для таких задач в сильно выпуклом, выпуклом и невыпуклых случаях.

Материалы: all_russian_seminar_8_july.pdf (13.1 Mb)

ОТПРАВИТЬ: VKontakte.ru FaceBook Twitter Mail.ru Livejournal Memori.ru
 
Обратная связь:
 Пользовательское соглашение  Регистрация  Логотипы © Математический институт им. В. А. Стеклова РАН, 2020