Успехи математических наук
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор
Правила для авторов
Загрузить рукопись
Историческая справка

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



УМН:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Успехи математических наук, 2025, том 80, выпуск 6(486), страницы 137–172
DOI: https://doi.org/10.4213/rm10274
(Mi rm10274)
 

Accelerated Bregman gradient methods for relatively smooth and relatively Lipschitz continuous minimization problems

O. S. Savchukabc, M. S. Alkousac, A. I. Shushkoa , A. A. Vyguzovac, F. S. Stonyakinabc, D. A. Pasechnyukd, A. V. Gasnikovade

a Moscow Institute of Physics and Technology, Dolgoprudny, Russia
b V. I. Vernadsky Crimean Federal University, Simferopol, Russia
c Innopolis University, Innopolis, Russia
d Ivannikov Institute for System Programming of the Russian Academy of Sciences, Research Center for the Trusted Artificial Intelligence, Moscow, Russia
e Steklov Mathematical Institute of Russian Academy of Sciences, Moscow, Russia
Список литературы:
Аннотация: We propose some accelerated methods for solving optimization problems under the condition of relatively smooth and relatively Lipschitz continuous functions with inexact oracle. We consider the problem of minimizing a convex, differentiable, and relatively smooth function relative to a reference convex function. The first proposed method is based on a similar triangles method with inexact oracle, which uses a special triangular scaling property of the Bregman divergence used. The other proposed methods are non-adaptive and adaptive (tuning to the relative smoothness parameter) accelerated Bregman proximal gradient methods with inexact oracle. These methods are universal in the sense that they apply not only to relatively smooth but also to relatively Lipschitz continuous optimization problems. We also introduce an adaptive intermediate Bregman method, which interpolates between slower but more robust non-accelerated algorithms and faster but less robust accelerated algorithms. We conclude the paper with the results of numerical experiments demonstrating the advantages of the proposed algorithms for the Poisson inverse problem.
Bibliography: 32 titles.
Ключевые слова: convex optimization, accelerated method, intermediate method, relative smoothness, relative Lipschitz continuity.
Финансовая поддержка Номер гранта
Министерство экономического развития Российской Федерации 139-15-2025-011
This work was supported by a grant from the Ministry of Economic Development of the Russian Federation, in accordance with the subsidy agreement (agreement identifier 000000C313925P4G0002) and agreement no. 139-15-2025-011, dated June 20, 2025, with the Ivannikov Institute for System Programming of the Russian Academy of Sciences.
Поступила в редакцию: 05.09.2025
Дата публикации: 02.12.2025
Тип публикации: Статья
УДК: 517.538
Язык публикации: английский
Образец цитирования: O. S. Savchuk, M. S. Alkousa, A. I. Shushko, A. A. Vyguzov, F. S. Stonyakin, D. A. Pasechnyuk, A. V. Gasnikov, “Accelerated Bregman gradient methods for relatively smooth and relatively Lipschitz continuous minimization problems”, УМН, 80:6(486) (2025), 137–172
Цитирование в формате AMSBIB
\RBibitem{SavAlkShu25}
\by O.~S.~Savchuk, M.~S.~Alkousa, A.~I.~Shushko, A.~A.~Vyguzov, F.~S.~Stonyakin, D.~A.~Pasechnyuk, A.~V.~Gasnikov
\paper Accelerated Bregman gradient methods for relatively smooth and relatively Lipschitz continuous minimization problems
\jour УМН
\yr 2025
\vol 80
\issue 6(486)
\pages 137--172
\mathnet{http://mi.mathnet.ru/rm10274}
\crossref{https://doi.org/10.4213/rm10274}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/rm10274
  • https://doi.org/10.4213/rm10274
  • https://www.mathnet.ru/rus/rm/v80/i6/p137
  • Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Успехи математических наук Russian Mathematical Surveys
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2025