RUS  ENG ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB
Ближайшие семинары
Календарь семинаров
Список семинаров
Архив по годам
Регистрация семинара

Поиск
RSS
Ближайшие семинары





Для просмотра файлов Вам могут потребоваться








Общероссийский семинар по оптимизации
1 июля 2020 г. 17:30, Москва, Онлайн
 


Обобщенная теория децентрализованного стохастического градиентного спуска с изменяющейся топологией и локальными шагами

А. Колоскова
Материалы:
Adobe PDF 19.5 Mb

Количество просмотров:
Эта страница:112
Материалы:9

Аннотация: Методы децентрализованной стохастической оптимизации в последнее время привлекают к себе большое внимание, главным образом из-за их низкой стоимости итераций, локальности данных и их эффективности связи. В докладе будет представлен обобщенный метод, охватывающий большое разнообразие децентрализованных алгоритмов SGD, которые до сих пор требовали разной теории, имели разные приложения и которые были разработаны отдельно в различных сообществах. Мы обсудим основные свойства этого метода и поговорим про популярные алгоритмы, охватываемые нашим методом.

Материалы: russian_seminar_2.pdf (19.5 Mb)

ОТПРАВИТЬ: VKontakte.ru FaceBook Twitter Mail.ru Livejournal Memori.ru
 
Обратная связь:
 Пользовательское соглашение  Регистрация  Логотипы © Математический институт им. В. А. Стеклова РАН, 2020