|
СПЕЦИАЛЬНЫЙ ВЫПУСК: ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА И МАШИННОГО ОБУЧЕНИЯ
Оптимальное разделение данных в распределенной оптимизации для машинного обучения
Д. Медяков, Г. Молодцов, А. Безносиков, А. Гасников Московский физико-технический институт, Долгопрудный, Россия
Аннотация:
Задача распределенной оптимизации в последнее время становится все более актуальной. Эта постановка имеет множество преимуществ, например, обработка большого объема данных за меньшее время по сравнению с нераспределенными методами. Однако большинство распределенных подходов страдают от существенного недостатка – большой стоимости коммуникаций. Поэтому в последнее время большое количество исследований было направлено на решение этой проблемы.
Один из таких подходов использует локальное сходство данных. В частности, существует алгоритм, доказательно оптимально использующий свойство подобия. Однако этот результат, а также результаты других работ устраняют проблему коммуникаций, фокусируясь только на том факте, что они значительно дороже локальных вычислений и не учитывает различные мощности устройств в сети и различное соотношение между временем коммуникаций и затратами на локальные вычисления.
Такая проблема и рассматривается в данном исследовании, целью которого является достижение оптимального распределения данных между сервером и локальными машинами при любой стоимости коммуникаций и локальных вычислений. Время работы сети сравнивается при равномерном и оптимальном распределении данных. Ускорение, которое получается за счет последнего, подтверждено экспериментально.
Образец цитирования:
Д. Медяков, Г. Молодцов, А. Безносиков, А. Гасников, “Оптимальное разделение данных в распределенной оптимизации для машинного обучения”, Докл. РАН. Матем., информ., проц. упр., 514:2 (2023), 343–354; Dokl. Math., 108:suppl. 2 (2023), S465–S475
Образцы ссылок на эту страницу:
https://www.mathnet.ru/rus/danma478 https://www.mathnet.ru/rus/danma/v514/i2/p343
|
Статистика просмотров: |
Страница аннотации: | 64 | Список литературы: | 9 |
|