Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Ближайшие семинары
Календарь семинаров
Список семинаров
Архив по годам
Регистрация семинара

Поиск
RSS
Ближайшие семинары






Общероссийский семинар по оптимизации
1 июля 2020 г. 17:30, Москва, Онлайн
 


Обобщенная теория децентрализованного стохастического градиентного спуска с изменяющейся топологией и локальными шагами

А. Колоскова
Материалы:
Adobe PDF 19.5 Mb

Количество просмотров:
Эта страница:182
Материалы:26
Youtube Video:





Аннотация: Методы децентрализованной стохастической оптимизации в последнее время привлекают к себе большое внимание, главным образом из-за их низкой стоимости итераций, локальности данных и их эффективности связи. В докладе будет представлен обобщенный метод, охватывающий большое разнообразие децентрализованных алгоритмов SGD, которые до сих пор требовали разной теории, имели разные приложения и которые были разработаны отдельно в различных сообществах. Мы обсудим основные свойства этого метода и поговорим про популярные алгоритмы, охватываемые нашим методом.

Материалы: russian_seminar_2.pdf (19.5 Mb)

ОТПРАВИТЬ: VKontakte.ru FaceBook Twitter Mail.ru Livejournal Memori.ru
 
Обратная связь:
 Пользовательское соглашение  Регистрация  Логотипы © Математический институт им. В. А. Стеклова РАН, 2021