Семинары
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Календарь
Поиск
Регистрация семинара

RSS
Ближайшие семинары




Семинар «Математические основы искусственного интеллекта»
19 ноября 2025 г. 17:00–18:00, г. Москва, МИАН, ул. Губкина, д. 8, 104 аудитория (1 этаж) + Контур Толк
 


Новые результаты в адаптивной выпуклой оптимизации

Д. Ковалевab

a Институт системного программирования РАН
b Московский физико-технический институт (национальный исследовательский университет), Московская облаcть, г. Долгопрудный

Д. Ковалев
Фотогалерея



Аннотация: Данный доклад состоит из двух частей. Первая часть посвящена стохастическому градиентному спуску с предобуславливанием. Разработан унифицированный теоретический анализ адаптивного мета-алгоритма (Gupta et al., 2017), который покрывает существующие популярные алгоритмы, такие как AdaGrad и Shampoo. Анализ показывает как эти алгоритмы могут эксплуатировать структурные свойства задачи. Также проанализирована возможность ускорения сходимости алгоритмов с помощью момента Нестерова. Вторая часть посвящена адаптивным градиентным методам для решения нестохастических задач оптимизации, которые могут по-настоящему адаптироваться к локальной кривизне (локальной константе Липшица градиента) целевой функции. Главный результат состоит в том, что предложен вариант такого метода с ускоренной сходимостью с помощью момента Нестерова. В отличие от существующих ускоренных адаптивных методов, предложенный алгоритм может наращивать размер шага с геометрической скоростью, что имеет крайне существенным образом влияет на его адаптивные способности. Данное преимущество демонстрируется путем доказательства наилучших результатов сходимости в предположении обобщенной гладкости целевой функции.
 
  Обратная связь:
 Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2025