Записки научных семинаров ПОМИ
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Архив
Импакт-фактор

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Зап. научн. сем. ПОМИ:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Записки научных семинаров ПОМИ, 2023, том 529, страницы 123–139 (Mi znsl7423)  

Pre-training longt5 for vietnamese mass-media multi-document summarization
[Предобучение модели LongT5 для многодокументного реферирования масс-медиа документов на вьетнамском языке]

N. Rusnachenkoa, The Anh Leb, Ngoc Diep Nguyenc

a Bauman Moscow State Technical University
b FPT University, Can Tho, Viet Nam
c CyberIntellect, Moscow, Russia
Список литературы:
Аннотация: Реферирование (summarization) нескольких документов – это задача, направленная на извлечение наиболее важной информации из набора входных документов. Одной из основных проблем в этой задаче является проблема долгосрочных зависимостей. Когда мы имеем дело с текстами, написанными на вьетнамском языке, это также сопровождается специфическим слоговым представлением текста и отсутствием размеченных наборов данных. Недавние достижения в области машинного перевода привели к значительному росту использования архитектуры, известной как Transformer. После предварительного обучения на больших объемах необработанных текстов трансформеры позволяют получить глубокие знания о текстах на естественном языке. В настоящей работе мы рассматриваем результаты применения языковых моделей для решения задач реферирования текста, включая важные модели реферирования текстов на вьетнамском языке. Мы используем модель LongT5 для предварительного обучения, а затем дообучаем её для задачи реферирования текста из нескольких документов на вьетнамском языке. Мы анализируем полученную модель и экспериментируем с многодокументными наборами данных на вьетнамском языке, включая ViMs, VMDS и VLSP2022. В результате мы приходим к выводу о том, что использование модели на основе Transformer, предварительно обученной на большом количестве неразмеченных вьетнамских текстов, позволяет нам достичь многообещающих результатов с дальнейшим улучшением за счет дообучения в пределах небольшого количества реферированных вручную текстов. Предварительно обученная модель, используемая в разделе экспериментов, доступна онлайн по адресу https://github.com/nicolay-r/ViLongT5. Библ. – 33 назв.
Ключевые слова: многодокументное реферирование на вьетнамском языке, реферирование текстов, трансформеры, языковые модели.
Поступило: 06.09.2023
Англоязычная версия:
Journal of Mathematical Sciences (New York), 2024, Volume 285, Issue 1, Pages 88–99
DOI: https://doi.org/10.1007/s10958-024-07435-z
Тип публикации: Статья
УДК: 81.322.2
Язык публикации: английский
Образец цитирования: N. Rusnachenko, The Anh Le, Ngoc Diep Nguyen, “Pre-training longt5 for vietnamese mass-media multi-document summarization”, Исследования по прикладной математике и информатике. II–1, Зап. научн. сем. ПОМИ, 529, ПОМИ, СПб., 2023, 123–139; J. Math. Sci. (N. Y.), 285:1 (2024), 88–99
Цитирование в формате AMSBIB
\RBibitem{RusLeNgu23}
\by N.~Rusnachenko, The~Anh~Le, Ngoc~Diep~Nguyen
\paper Pre-training longt5 for vietnamese mass-media multi-document summarization
\inbook Исследования по прикладной математике и информатике.~II--1
\serial Зап. научн. сем. ПОМИ
\yr 2023
\vol 529
\pages 123--139
\publ ПОМИ
\publaddr СПб.
\mathnet{http://mi.mathnet.ru/znsl7423}
\transl
\jour J. Math. Sci. (N. Y.)
\yr 2024
\vol 285
\issue 1
\pages 88--99
\crossref{https://doi.org/10.1007/s10958-024-07435-z}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/znsl7423
  • https://www.mathnet.ru/rus/znsl/v529/p123
  • Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Записки научных семинаров ПОМИ
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2025