Известия Российской академии наук. Серия математическая
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Скоро в журнале
Архив
Импакт-фактор
Подписка
Правила для авторов
Загрузить рукопись

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Изв. РАН. Сер. матем.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Известия Российской академии наук. Серия математическая, 2024, том 88, выпуск 1, страницы 98–120
DOI: https://doi.org/10.4213/im9384
(Mi im9384)
 

Эта публикация цитируется в 5 научных статьях (всего в 5 статьях)

О построении семейств оптимальных методов восстановления линейных операторов

К. Ю. Осипенкоab

a Московский государственный университет имени М. В. Ломоносова, механико-математический факультет
b Институт проблем передачи информации им. А. А. Харкевича Российской академии наук, г. Москва
Список литературы:
Аннотация: Предлагается некоторый подход к построению семейств оптимальных методов восстановления линейных операторов по неточно заданной информации. Предложенный метод построения применяется для восстановления производных по неточно заданным другим производным в многомерном случае и для восстановления решений уравнения теплопроводности по неточно заданным распределениям температур в некоторые моменты времени.
Библиография: 25 наименований.
Ключевые слова: оптимальное восстановление, линейные операторы, уравнение теплопроводности, разностные уравнения.
Поступило в редакцию: 03.06.2022
Дата публикации: 27.01.2024
Английская версия:
Izvestiya: Mathematics, 2024, Volume 88, Issue 1, Pages 92–113
DOI: https://doi.org/10.4213/im9384e
Реферативные базы данных:
Тип публикации: Статья
УДК: 517.98
MSC: 41A65, 42B10, 49N30

§ 1. Введение

Пусть $X$ – линейное пространство, $Y,Z$ – линейные нормированные пространства. Задача об оптимальном восстановлении линейного оператора $\Lambda$: $X\to Z$ по неточно заданным значениям линейного оператора $I\colon X\to Y$ на множестве $W\subset X$ ставится как задача нахождения величины

$$ \begin{equation*} E(\Lambda,W,I,\delta)=\inf_{\varphi\colon Y\to Z}\sup_{\substack{x\in W,\, y\in Y\\\|Ix-y\|_Y \leqslant\delta}}\|\Lambda x-\varphi(y)\|_Z, \end{equation*} \notag $$
называемой погрешностью оптимального восстановления, и отображения $\varphi$, на котором достигается нижняя грань, называемым оптимальным методом восстановления (здесь $\delta\geqslant0$ – параметр, характеризующий ошибку задания значений оператора $I$). Первоначально эта задача была поставлена для случая, когда $\Lambda$ – линейный функционал, $Y$ – конечномерное пространство и информация известна точно ($\delta=0$), в работе С. А. Смоляка [1]. Фактически эта постановка являлась обобщением задачи А. Н. Колмогорова о наилучшей квадратурной формуле на классе функций [2], в которой интеграл и значения функций заменены на произвольные линейные функционалы и нет условия линейности метода восстановления. В дальнейшем обобщениям этой задачи было посвящено много работ (см. [3]–[10], а также библиографию в этих работах).

Одной из первых работ, в которой рассматривалась задача построения оптимального метода восстановления для линейного оператора, была работа [4]. Дальнейшее развитие эта тематика получила в работах [11]–[19]. Оказалось, что в некоторых случаях удается построить целое семейство оптимальных методов восстановления линейного оператора. Изучение таких семейств началось в работе [20] и продолжилось в работах [21], [22], [14] и [19].

Цель работы – предложить некоторый подход к построению семейств оптимальных методов восстановления линейных операторов и продемонстрировать его применение к ряду конкретных задач.

§ 2. Общая постановка и построение семейств оптимальных методов

Будем рассматривать случай, когда в задаче оптимального восстановления само множество $W$ (априорная информация об элементах из $X$) задается в виде ограничений, связанных с некоторым набором линейных операторов. Пусть $Y_0,\dots,Y_n$ – линейные нормированные пространства, а $I_j\colon X\,{\to}\, Y_j$, $j=0,\dots,n$, – линейные операторы. Пусть, кроме того, заданы числа $\delta_1,\dots,\delta_n\geqslant0$ и задано множество натуральных чисел $J\subset\{1,\dots,n\}$. Положим $\overline J=\{1,\dots,n\}\setminus J$.

Задача состоит в оптимальном восстановлении оператора $I_0$ на множестве

$$ \begin{equation*} W_J=\{x\in X\colon \|I_jx\|_{Y_j}\leqslant\delta_j,\, j\in J\} \end{equation*} \notag $$
по значениям операторов $I_j$, заданным с погрешностью $\delta_j$, $j\in\overline J$ (при $J=\varnothing$ полагаем $W=X$). Точнее говоря, будем считать, что для каждого $x\in W$ нам известен вектор
$$ \begin{equation*} y=\{y_j\}_{j\in\overline J}\in Y_{\overline J}=\prod_{j\in\overline J}Y_j \end{equation*} \notag $$
такой, что $\|I_jx-y_j\|_{Y_j}\leqslant\delta_j$, $j\in\overline J$. В качестве методов восстановления будем рассматривать произвольные отображения $\varphi\colon Y_{\overline J}\to Y_0$. Погрешностью метода $\varphi(\,{\cdot}\,)$ называется величина
$$ \begin{equation*} e_J(I,\delta,\varphi)=\sup_{\substack{x\in W_J,\, y\in Y_{\overline J}\\ \|I_jx-y_j\|_{Y_j}\leqslant\delta_j,\, j\in\overline J}}\|I_0x-\varphi(y)\|_{Y_0}, \end{equation*} \notag $$
а погрешностью оптимального восстановления – величина
$$ \begin{equation} E_J(I,\delta)=\inf_{\varphi\colon Y_{\overline J}\,\to Y_0} e_J(I,\delta,\varphi) \end{equation} \tag{2.1} $$
(здесь $I=(I_0,\dots,I_n)$, $\delta=(\delta_1,\dots,\delta_n)$). Методы, на которых достигается нижняя грань в (2.1) (если таковые существуют), называются оптимальными.

Теорема 1. Пусть $1\leqslant p<+\infty$. Предположим, что существуют $\widehat{\lambda}_j\geqslant0$, $j=1,\dots,n$, такие, что

$$ \begin{equation*} \sup_{\substack{x\in X\\\|I_jx\|_{Y_j}\leqslant\delta_j,\, j=1,\dots,n}} \|I_0x\|_{Y_0}^p\geqslant\sum_{j=1}^n\widehat{\lambda}_j\delta_j^p. \end{equation*} \notag $$
Пусть, кроме того, множество линейных операторов $S_j\colon Y_j\to Y_0$, $j=1,\dots,n$, таково, что
$$ \begin{equation} I_0=\sum_{j=1}^nS_jI_j \end{equation} \tag{2.2} $$
и
$$ \begin{equation} \biggl\|\sum_{j=1}^nS_jz_j\biggl\|_{Y_0}^p\leqslant\sum_{j=1}^n\widehat{\lambda}_j\|z_j\|_{Y_j}^p \end{equation} \tag{2.3} $$
для всех $z_j\in Y_j$, $j=1,\dots,n$. Тогда для любого $J\subset\{1,\dots,n\}$ методы
$$ \begin{equation} \widehat{\varphi}(y)=\sum_{j\in\overline J}S_jy_j \end{equation} \tag{2.4} $$
являются оптимальными для соответствующей задачи оптимального восстановления, а для погрешности оптимального восстановления имеет место равенство
$$ \begin{equation} E_J(I,\delta)=\biggl(\sum_{j=1}^n\widehat{\lambda}_j\delta_j^p\biggr)^{1/p}. \end{equation} \tag{2.5} $$

Доказательство. Пусть $\varphi\colon Y_{\overline J}\to Y_0$ – произвольный метод восстановления и $x\in X$ такой, что $\|I_jx\|_{Y_j}\leqslant\delta_j$, $j=1,\dots,n$. Тогда
$$ \begin{equation*} \begin{aligned} \, 2\|I_0x\|_{Y_0} &=\|I_0x-\varphi(0)-(I_0(-x)-\varphi(0))\|_{Y_0} \\ &\leqslant\|I_0x-\varphi(0)\|_{Y_0}+\|I_0(-x)-\varphi(0)\|_{Y_0}\leqslant2e_J(I,\delta,\varphi). \end{aligned} \end{equation*} \notag $$
Отсюда
$$ \begin{equation*} e_J^p(I,\delta,\varphi)\geqslant\sup_{\substack{x\in X\\\|I_jx\|_{Y_j}\leqslant\delta_j,\, j=1,\dots,n}}\|I_0x\|_{Y_0}^p\geqslant\sum_{j=1}^n\widehat{\lambda}_j\delta_j^p. \end{equation*} \notag $$
В силу произвольности метода $\varphi(\,{\cdot}\,)$ получаем
$$ \begin{equation} E_J^p(I,\delta)\geqslant\sum_{j=1}^n\widehat{\lambda}_j\delta_j^p. \end{equation} \tag{2.6} $$

Для оценки $p$-й степени погрешности метода $\widehat{\varphi}(\,{\cdot}\,)$ надо оценить значение следующей экстремальной задачи:

$$ \begin{equation*} \begin{gathered} \, \biggl\|I_0x-\sum_{j\in\overline J}S_jy_j\biggr\|_{Y_0}^p\to\max,\qquad \|I_jx\|_{Y_j}\leqslant\delta_j,\quad j\in J, \\ \|I_jx-y_j\|_{Y_j}\leqslant\delta_j,\qquad j\in\overline J,\quad x\in X. \end{gathered} \end{equation*} \notag $$
Положим $z_j=I_jx-y_j$, $j\in\overline J$. Тогда эта задача переписывается в виде
$$ \begin{equation} \begin{gathered} \, \biggl\|\biggl(I_0-\sum_{j\in\overline J}S_jI_j\biggr)x+\sum_{j\in\overline J}S_jz_j\biggl\|_{Y_0}^p\to\max,\qquad \|I_jx\|_{Y_j}\leqslant\delta_j,\quad j\in J, \\ \|z_j\|_{Y_j}\leqslant\delta_j,\qquad j\in\overline J,\quad x\in X. \end{gathered} \end{equation} \tag{2.7} $$
В силу равенства (2.2) и условия (2.3) получаем
$$ \begin{equation*} \begin{aligned} \, \biggl\|\biggl(I_0-\sum_{j\in\overline J}S_jI_j\biggr)x+\sum_{j\in\overline J}S_jz_j\biggl\|_{Y_0}^p &= \biggl\|\sum_{j\in J}S_jI_jx+\sum_{j\in\overline J} S_jz_j\biggl\|_{Y_0}^p \\ &\leqslant\sum_{j\in J}\widehat{\lambda}_j\|I_jx\|_{Y_j}^p+\sum_{j\in\overline J} \widehat{\lambda}_j\|z_j\|_{Y_j}^p \leqslant\sum_{j=1}^n\widehat{\lambda}_j\delta_j^p. \end{aligned} \end{equation*} \notag $$
Таким образом,
$$ \begin{equation*} E_J^p(I,\delta)\leqslant e_J^p(I,\delta,\widehat{\varphi}) \leqslant\sum_{j=1}^n\widehat{\lambda}_j\delta_j^p, \end{equation*} \notag $$
что вместе с (2.6) доказывает теорему.

Отметим, что двойственная экстремальная задача

$$ \begin{equation*} \|I_0x\|_{Y_0}\to\max,\qquad\|I_jx\|_{Y_j}\leqslant\delta_j,\quad j=1,\dots,n, \end{equation*} \notag $$
“не различает”, какие из операторов $I_j$ являются информационными, а какие из них задают класс, на котором рассматривается задача восстановления. Иными словами, двойственная экстремальная задача не отличает априорную информацию от апостериорной. В силу этого из теоремы 1 вытекает, что если найдены операторы $S_j\colon Y_j\to Y_0$, $j=1,\dots,n$, удовлетворяющие условиям (2.2) и (2.3), то решены сразу $2^n$ задач восстановления. Причем для получения соответствующего оптимального метода достаточно в методе
$$ \begin{equation*} \widehat{\varphi}(y)=S_1y_1+\dots+S_ny_n \end{equation*} \notag $$
положить $y_j=0$ для $j\in J$.

§ 3. Восстановление в $L_p(\mathbb R^d)$

Обозначим через $L_p(\mathbb R^d)$, $1\leqslant p<\infty$, совокупность всех измеримых функций $x(\,{\cdot}\,)$, для которых

$$ \begin{equation*} \|x(\,{\cdot}\,)\|_{L_p(\mathbb R^d)}=\biggl(\int_{\mathbb R^d} |x(\xi)|^p\,d\xi\biggr)^{1/p}<\infty. \end{equation*} \notag $$

Пусть $\alpha=(\alpha_1,\dots,\alpha_d)\in\mathbb R_+^d$. Для $\xi=(\xi_1,\dots,\xi_d)\in\mathbb R^d$ положим $(i\xi)^\alpha=(i\xi_1)^{\alpha_1}\cdots(i\xi_d)^{\alpha_d}$, $|\xi|^\alpha=|\xi_1|^{\alpha_1}\cdots|\xi_d|^{\alpha_d}$. Для $\alpha^0,\dots,\alpha^n\in\mathbb R_+^d$ положим

$$ \begin{equation*} I_jx(\xi)=(i\xi)^{\alpha^j}x(\xi),\qquad j=0,\dots,n. \end{equation*} \notag $$
Множество измеримых функций $x(\,{\cdot}\,)$, для которых $\|I_jx(\,{\cdot}\,)\|_{L_p(\mathbb R^d)}<\infty$, $j=1,\dots,n$, обозначим через $X$. Рассмотрим задачу (2.1) для $Y_0=Y_1=\dots=Y_n=L_p(\mathbb R^d)$.

Положим

$$ \begin{equation*} Q=\operatorname{co}\biggl\{\biggl(\alpha^1,\ln\frac1{\delta_1}\biggr),\dots, \biggl(\alpha^n,\ln\frac1{\delta_n}\biggr)\biggr\}, \end{equation*} \notag $$
где $\operatorname{co} M$ обозначает выпуклую оболочку множества $M$, и определим функцию $S(\,{\cdot}\,)$ на $\mathbb R^d$ по формуле
$$ \begin{equation} S(\alpha)=\max\{z\in\mathbb R\colon (\alpha,z)\in Q\}, \end{equation} \tag{3.1} $$
считая, что $S(\alpha)=-\infty$, если множество в фигурных скобках пусто.

Пусть $\alpha^0\in\operatorname{co}\{\alpha^1,\dots,\alpha^n\}$. Тогда точка $(\alpha^0,S(\alpha^0))$ принадлежит границе выпуклого многогранника $Q$. Проведем опорную гиперплоскость к выпуклому многограннику $Q$ в точке $(\alpha^0,S(\alpha^0))$. Ее можно записать в виде $z=\langle\alpha,\widehat{\eta}\,\rangle\,{+}\,\widehat{a}$ при некоторых $\widehat{\eta}=(\widehat{\eta}_1,\dots,\widehat{\eta}_d)\in\mathbb R^d$ и $\widehat{a}\in\mathbb R$ (через $\langle\alpha,\widehat{\eta}\,\rangle$ обозначается скалярное произведение векторов $\alpha$ и $\widehat{\eta}$ ). По теореме Каратеодори найдутся точки $(\alpha^{j_k},\ln1/\delta_{j_k})$, $k=1,\dots,s$, $s\leqslant d+1$, из этой гиперплоскости такие, что

$$ \begin{equation} \alpha^0=\sum_{k=1}^s\theta_{j_k}\alpha^{j_k},\qquad\theta_{j_k}>0,\quad k=1,\dots,s, \quad\sum_{k=1}^s\theta_{j_k}=1. \end{equation} \tag{3.2} $$
Положим $J_0=\{j_1,\dots,j_s\}$ и
$$ \begin{equation*} \widehat{\lambda}_j=\frac{\theta_j}{\delta_j^p}e^{-pS(\alpha^0)},\qquad j\in J_0. \end{equation*} \notag $$

Теорема 2. Пусть $\alpha^0\in\operatorname{co}\{\alpha^1,\dots,\alpha^n\}$. Тогда для любого $J\subset\{1,\dots,n\}$

$$ \begin{equation*} E_J(I,\delta)=e^{-S(\alpha^0)}. \end{equation*} \notag $$
При этом все методы
$$ \begin{equation*} \widehat{\varphi}(y)=\sum_{j\in\overline J\cap J_0}a_j(\xi)y_j, \end{equation*} \notag $$
где измеримые функции $a_j(\,{\cdot}\,)$, $j\in J_0$, удовлетворяют условиям
$$ \begin{equation} \sum_{j\in J_0}(i\xi)^{\alpha^j}a_j(\xi)=(i\xi)^{\alpha^0}, \end{equation} \tag{3.3} $$
$$ \begin{equation} \sum_{j\in J_0} \frac{|a_j(\xi)|^{p'}}{\widehat{\lambda}_j^{p'/p}} \leqslant 1,\qquad \frac1{p}+\frac1{p'}=1, \quad\textit{если }\ 1<p<\infty, \end{equation} \tag{3.4} $$
$$ \begin{equation} \max_{j\in J_0}\frac{|a_j(\xi)|}{\widehat{\lambda}_j} \leqslant1,\quad\textit{если }\ p=1, \end{equation} \tag{3.5} $$
для п. в. $\xi\in\mathbb R^d$, являются оптимальными для соответствующей задачи оптимального восстановления.

Доказательство. Оценим значение экстремальной задачи
$$ \begin{equation} \int_{\mathbb R^d}|(i\xi)^{\alpha^0} x(\xi)|^p\,d\xi\to\max,\qquad\int_{\mathbb R^d}|(i\xi)^{\alpha^j} x(\xi)|^p\,d\xi\leqslant\delta_j^p,\quad j=1,\dots,n. \end{equation} \tag{3.6} $$
Положим $\widehat{A}=e^{-p\widehat{a}}$, $\widehat{\xi}_j=e^{-\widehat{\eta}_j}$, $j=1,\dots,d$, $\widehat{\xi}=(\widehat{\xi}_1,\dots,\widehat{\xi}_d)$. Для достаточно малых $\varepsilon>0$ рассмотрим куб
$$ \begin{equation*} B_\varepsilon=\{\xi=(\xi_1,\dots,\xi_d)\in\mathbb R^d\colon \widehat{\xi}_j-\varepsilon\leqslant\xi_j\leqslant\widehat{\xi}_j,\, j=1,\dots,d\} \end{equation*} \notag $$
и функцию
$$ \begin{equation*} x_\varepsilon(\xi)= \begin{cases} \biggl(\dfrac{\widehat{A}}{|B_\varepsilon|}\biggr)^{1/p}, &\xi\in B_\varepsilon, \\ 0, &\xi\notin B_\varepsilon \end{cases} \end{equation*} \notag $$
(через $|B_\varepsilon|$ обозначен объем куба $B_\varepsilon$). Тогда
$$ \begin{equation*} \int_{\mathbb R^d} |(i\xi)^{\alpha^j}x_\varepsilon(\xi)|^p\,d\xi \leqslant\widehat{A}|\widehat{\xi}|^{p\alpha^j}= e^{-p(\langle\alpha^j,\widehat{\eta}\,\rangle+\widehat{a})}. \end{equation*} \notag $$
В силу того, что $z=\langle\alpha,\widehat{\eta}\,\rangle+\widehat{a}$ – уравнение опорной гиперплоскости к $Q$, имеем
$$ \begin{equation*} \langle\alpha^j,\widehat{\eta}\,\rangle+\widehat{a}\geqslant\ln\frac1{\delta_j}. \end{equation*} \notag $$
Отсюда вытекает, что
$$ \begin{equation*} \int_{\mathbb R^d}|(i\xi)^{\alpha^j}x_\varepsilon(\xi)|^p\,d\xi\leqslant\delta_j^p, \qquad j=1,\dots,n. \end{equation*} \notag $$
Тем самым $x_\varepsilon(\,{\cdot}\,)$ – допустимая функция в задаче (3.6). Следовательно,
$$ \begin{equation*} \sup_{\substack{x\in X\\\|I_jx\|_{Y_j}\leqslant\delta_j,\, j=1,\dots,n}}\|I_0x\|_{Y_0}^p\geqslant \int_{\mathbb R^d}|(i\xi)^{\alpha^0}x_\varepsilon(\xi)|^p\, d\xi \geqslant\widehat{A}|\widehat{\xi}_\varepsilon|^{p\alpha^0}, \end{equation*} \notag $$
где
$$ \begin{equation*} \widehat{\xi}_\varepsilon=(\widehat{\xi}_1-\varepsilon,\dots,\widehat{\xi}_d-\varepsilon). \end{equation*} \notag $$
Устремив $\varepsilon$ к нулю, будем иметь
$$ \begin{equation*} \sup_{\substack{x\in X\\\|I_jx\|_{Y_j}\leqslant\delta_j,\, j=1,\dots,n}}\|I_0x\|_{Y_0}^p\geqslant e^{-pa}|\widehat{\xi}|^{p\alpha^0} =e^{-p(\langle\alpha^0,\widehat{\eta}\,\rangle+\widehat{a})}=e^{-pS(\alpha^0)}. \end{equation*} \notag $$
Таким образом,
$$ \begin{equation*} \sup_{\substack{x\in X\\\|I_jx\|_{Y_j}\leqslant\delta_j,\, j=1,\dots,n}}\|I_0x\|_{Y_0}^p\geqslant\sum_{j\in J_0} \widehat{\lambda}_j\delta_j^p. \end{equation*} \notag $$

Определим операторы $S_j\colon L_p(\mathbb R^d)\to L_p(\mathbb R^d)$, $j=1,\dots,n$, следующим образом:

$$ \begin{equation*} S_jz(\xi)=\begin{cases} a_j(\xi)z(\xi), &j\in J_0, \\ 0, &j\notin J_0, \end{cases} \end{equation*} \notag $$
где $a_j(\,{\cdot}\,)$, $j\in J_0$, удовлетворяют условиям (3.3)(3.5). Имеем
$$ \begin{equation} \biggl\|\sum_{j=1}^nS_jz_j(\,{\cdot}\,)\biggl\|_{L_p(\mathbb R^d)}^p=\int_{\mathbb R^d} \biggl|\sum_{j\in J_0}a_j(\xi)z_j(\xi)\biggr|^p\,d\xi. \end{equation} \tag{3.7} $$
По неравенству Гёльдера при $1<p<\infty$
$$ \begin{equation*} \biggl|\sum_{j\in J_0}a_j(\xi)z_j(\xi)\biggr|=\biggl|\sum_{j\in J_0} \frac{a_j(\xi)}{\widehat{\lambda}_j^{1/p}}\widehat{\lambda}_j^{1/p}z_j(\xi)\biggr| \leqslant\Omega(\xi)\biggl(\sum_{j\in J_0}\widehat{\lambda}_j|z_j(\xi)|^p\biggr)^{1/p}, \end{equation*} \notag $$
где
$$ \begin{equation*} \Omega(\xi)=\biggl(\sum_{j\in J_0} \frac{|a_j(\xi)|^{p'}}{\widehat{\lambda}_j^{p'/p}}\biggr)^{1/p'},\qquad \frac1{p}+\frac1{p'}=1. \end{equation*} \notag $$
При $p=1$ получаем неравенство
$$ \begin{equation*} \biggl|\sum_{j\in J_0}a_j(\xi)z_j(\xi)\biggr|\leqslant\Omega(\xi)\biggl(\sum_{j\in J_0} \widehat{\lambda}_j|z_j(\xi)|\biggr), \end{equation*} \notag $$
в котором
$$ \begin{equation*} \Omega(\xi)=\max_{j\in J_0}\frac{|a_j(\xi)|}{\widehat{\lambda}_j}. \end{equation*} \notag $$
Используя полученные неравенства, из (3.7) следует, что
$$ \begin{equation*} \biggl\|\sum_{j=1}^nS_jz_j(\,{\cdot}\,)\biggl\|_{L_p(\mathbb R^d)}^p\leqslant\int_{\mathbb R^d} \Omega^p(\xi)\biggl(\sum_{j\in J_0}\widehat{\lambda}_j|z_j(\xi)|^p\biggr)\,d\xi. \end{equation*} \notag $$
В силу условий (3.4), (3.5) получаем
$$ \begin{equation*} \biggl\|\sum_{j=1}^nS_jz_j(\,{\cdot}\,)\biggl\|_{L_p(\mathbb R^d)}^p\leqslant\sum_{j\in J_0} \widehat{\lambda}_j\|z_j(\,{\cdot}\,)\|_{L_p(\mathbb R^d)}^p. \end{equation*} \notag $$

Остается показать, что множество функций $a_j(\,{\cdot}\,)$, $j\in J_0$, удовлетворяющих условиям (3.3)(3.5) не пусто. Рассмотрим на $\mathbb R^d$ функцию

$$ \begin{equation*} f(\eta)=-1+\sum_{j\in J_0}\widehat{\lambda}_je^{-p\langle\alpha^j-\alpha^0,\eta\rangle}. \end{equation*} \notag $$
Это, очевидно, выпуклая функция, причем легко убедиться, что $f(\widehat{\eta})=0$ и производная этой функции в точке $\widehat{\eta}$ также равна нулю. Отсюда вытекает, что $f(\eta)\geqslant0$ при всех $\eta\in\mathbb R^d$. Следовательно,
$$ \begin{equation*} -e^{-p\langle\alpha^0,\eta\rangle}+\sum_{j\in J_0} \widehat{\lambda}_je^{-p\langle\alpha^j,\eta\rangle}\geqslant0. \end{equation*} \notag $$
Положив $e^{-\eta_j}=|\xi_j|$, $j=1,\dots,d$, получаем, что
$$ \begin{equation} -|\xi|^{p\alpha^0}+\sum_{j\in J_0}\widehat{\lambda}_j|\xi|^{p\alpha^j}\geqslant0 \end{equation} \tag{3.8} $$
при всех $\xi\in\mathbb R^d$. Положим
$$ \begin{equation*} a_j(\xi)=(i\xi)^{\alpha^0}\frac{\widehat{\lambda}_j(-i\xi)^{\alpha^j}|\xi|^{(p-2)\alpha^j}} {\sum_{j\in J_0}\widehat{\lambda}_j|\xi|^{p\alpha^j}},\qquad j\in J_0. \end{equation*} \notag $$
Легко убедиться, что условие (3.3) выполнено. При $p=1$, учитывая (3.8), получаем
$$ \begin{equation*} \frac{|a_j(\xi)|}{\widehat{\lambda}_j}=\frac{|\xi|^{\alpha^0}}{\sum_{j\in J_0} \widehat{\lambda}_j|\xi|^{\alpha^j}}\leqslant1. \end{equation*} \notag $$
Если $p>1$, то
$$ \begin{equation*} \begin{aligned} \, \sum_{j\in J_0}\frac{|a_j(\xi)|^{p'}}{\widehat{\lambda}_j^{p'/p}} &=\sum_{j\in J_0} \frac{|\xi|^{p'\alpha^0}\widehat{\lambda}_j^{p'}|\xi|^{(p-1)p'\alpha^j}}{\widehat{\lambda}_j^{p'/p} \bigl(\sum_{j\in J_0} \widehat{\lambda}_j|\xi|^{p\alpha^j}\bigr)^{p'}} =\frac{|\xi|^{p'\alpha^0} \sum_{j\in J_0}\widehat{\lambda}_j|\xi|^{p\alpha^j}}{\bigl(\sum_{j\in J_0} \widehat{\lambda}_j|\xi|^{p\alpha^j}\bigr)^{p'}} \\ &=\Biggl(\frac{|\xi|^{p\alpha^0}}{\sum_{j\in J_0} \widehat{\lambda}_j|\xi|^{p\alpha^j}}\Biggr)^{p'-1}. \end{aligned} \end{equation*} \notag $$
Теперь из (3.8) следует, что
$$ \begin{equation*} \sum_{j\in J_0}\frac{|a_j(\xi)|^{p'}}{\widehat{\lambda}_j^{p'/p}}\leqslant1. \end{equation*} \notag $$

Пусть $\alpha=(\alpha_1,\dots,\alpha_d)\in\mathbb R^d_+$. Для функции $x(\,{\cdot}\,)\in L_2(\mathbb R^d)$ через $D^\alpha x(\,{\cdot}\,)$ будем обозначать производную порядка $\alpha$ по Вейлю, определяемую равенством

$$ \begin{equation*} D^\alpha x(t)=\frac1{(2\pi)^d}\int_{\mathbb R^d}(i\xi)^\alpha Fx(\xi) e^{i\langle\xi,t\rangle}\,d\xi, \end{equation*} \notag $$
где $Fx(\,{\cdot}\,)$ – преобразование Фурье функции $x(\,{\cdot}\,)$.

Пусть $\alpha^0,\dots,\alpha^n\in\mathbb R_+^d$. Положим

$$ \begin{equation*} I_j=D^{\alpha^j},\qquad j=0,\dots,n. \end{equation*} \notag $$
Множество измеримых функций $x(\,{\cdot}\,)$, для которых $\|D^{\alpha^j}x(\,{\cdot}\,)\|_{L_2(\mathbb R^d)}<\infty$, $j=1,\dots,n$, обозначим через $X$. Рассмотрим задачу (2.1) для $Y_0=\dots=Y_n=L_2(\mathbb R^d)$. Используя ранее введенные обозначения для $p=2$, получаем следующую теорему.

Теорема 3. Пусть $\alpha^0\in\operatorname{co}\{\alpha^1,\dots,\alpha^n\}$. Тогда для любого $J\subset\{1,\dots,n\}$

$$ \begin{equation*} E_J(I,\delta)=e^{-S(\alpha^0)}. \end{equation*} \notag $$
При этом все методы
$$ \begin{equation*} \widehat{\varphi}(y)=\sum_{j\in\overline J\cap J_0}\Lambda_jy_j, \end{equation*} \notag $$
где $\Lambda_j\colon L_2(\mathbb R^d)\to L_2(\mathbb R^d)$, $j\in J_0$, – линейные непрерывные операторы, действия которых в образах Фурье имеют вид $F\Lambda_jy_j(\,{\cdot}\,)=a_j(\,{\cdot}\,) Fy_j(\,{\cdot}\,)$, а измеримые функции $a_j(\,{\cdot}\,)$, $j\in J_0$, удовлетворяют условиям
$$ \begin{equation*} \sum_{j\in J_0}(i\xi)^{\alpha^j}a_j(\xi) =(i\xi)^{\alpha^0},\qquad \sum_{j\in J_0} \frac{|a_j(\xi)|^2}{\widehat{\lambda}_j} \leqslant1, \end{equation*} \notag $$
для п. в. $\xi\in\mathbb R^d$, и являются оптимальными для соответствующей задачи оптимального восстановления.

Доказательство. Переходя к образам Фурье и пользуясь равенством Парсеваля, условия
$$ \begin{equation*} \bigl\|D^{\alpha^j}x(\,{\cdot}\,)\bigr\|_{L_2(\mathbb R^d)}^2 \leqslant\delta_j^2,\qquad \bigl\|D^{\alpha^j}x(\,{\cdot}\,)-y_j(\,{\cdot}\,)\bigr\|_{L_2(\mathbb R^d)}^2 \leqslant\delta_j^2 \end{equation*} \notag $$
могут быть переписаны в виде
$$ \begin{equation*} \int_{\mathbb R^d}|\xi|^{2\alpha^j}|f(\xi)|^2\,d\xi\leqslant\delta_j^2,\qquad \int_{\mathbb R^d} \bigl|(i\xi)^{\alpha^j}f(\xi)-Y_j(\xi)\bigr|^2 \leqslant\delta_j^2, \end{equation*} \notag $$
где
$$ \begin{equation*} f(\,{\cdot}\,)=\frac1{(2\pi)^{d/2}}Fx(\,{\cdot}\,),\qquad Y_j(\,{\cdot}\,)=\frac1{(2\pi)^{d/2}}Fy_j(\,{\cdot}\,). \end{equation*} \notag $$
Для любого метода восстановления $\varphi\colon(L_2(\mathbb R^d))^m\to L_2(\mathbb R^d)$, $m=\operatorname{card}\overline{J}$,
$$ \begin{equation*} \bigl\|D^{\alpha^0}x(\,{\cdot}\,)-\varphi(y)(\,{\cdot}\,)\bigr\|^2_{L_2(\mathbb R^d)}=\int_{\mathbb R^d} \bigl|(i\xi)^{\alpha^0}f(\xi)-\Phi(y)(\xi)\bigr|^2\, d\xi, \end{equation*} \notag $$
где
$$ \begin{equation*} \Phi(y)(\,{\cdot}\,)=\frac1{(2\pi)^{d/2}}F\varphi(y)(\,{\cdot}\,). \end{equation*} \notag $$
Тем самым рассматриваемая задача эквивалентна задаче (для $p=2$), решение которой дано в теореме 2. Теорема доказана.

Отметим, что из теорем 1 и 2 вытекает равенство

$$ \begin{equation} \sup_{\|D^{\alpha^j}x(\,{\cdot}\,)\|_{L_2(\mathbb R^d)} \leqslant \delta_j,\, j=1,\dots,n} \bigl\|D^{\alpha^0}x(\,{\cdot}\,)\bigr\|_{L_2(\mathbb R^d)}=e^{-S(\alpha^0)}=\prod_{j\in J_0} \delta_j^{\theta_j}. \end{equation} \tag{3.9} $$
Экстремальная задача в левой части (3.9) тесно связана с нахождением точной константы в обобщенном неравенстве Харди–Литлвуда–Полиа, которое в рассматриваемом случае имеет вид
$$ \begin{equation*} \bigl\|D^{\alpha^0}x(\,{\cdot}\,)\bigr\|_{L_2(\mathbb R^d)}\leqslant\prod_{j\in J_0} \bigl\|D^{\alpha^j}x(\,{\cdot}\,)\bigr\|^{\theta_j}_{L_2(\mathbb R^d)} \end{equation*} \notag $$
(подробнее см. [23]).

§ 4. Обобщенное уравнение теплопроводности на сфере

Положим

$$ \begin{equation*} \mathbb S^{d-1}=\{x\in\mathbb R^d\colon |x|=1\},\qquad d\geqslant2, \end{equation*} \notag $$
где $|x|=\sqrt{x_1^2+\dots+x_d^2}$. Оператор Лапласа–Бельтрами $\Delta_S$ определяется для функций, заданных на единичной сфере $\mathbb S^{d-1}$, следующим образом:
$$ \begin{equation*} \Delta_SY(x')=\Delta Y\biggl(\frac x{|x|}\biggr)\bigg|_{x=x'}, \end{equation*} \notag $$
где $\Delta$ – оператор Лапласа. Обозначим через $\mathcal{H}_k$ множество сферических гармоник порядка $k$. Известно (см. [24]), что $L_2(\mathbb S^{d-1})=\sum_{k=0}^\infty\mathcal{H}_k$, при этом $\dim\mathcal{H}_0=a_0=1$,
$$ \begin{equation*} \dim\mathcal{H}_k=a_k=(d+2k-2)\frac{(d+k-3)!}{(d-2)!\,k!},\qquad k=1,2,\dots\,. \end{equation*} \notag $$

Выберем в $\mathcal{H}_k$ ортонормированный базис $Y_j^{(k)}(\,{\cdot}\,)$, $j=1,\dots,a_k$. Для $\alpha>0$ оператор $(-\Delta_S)^{\alpha/2}$ определяется равенством

$$ \begin{equation*} (-\Delta_S)^{\alpha/2}Y(\,{\cdot}\,)=\sum_{k=1}^\infty\Lambda_k^{\alpha/2}\sum_{j=1}^{ a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,), \end{equation*} \notag $$
где
$$ \begin{equation*} Y(\,{\cdot}\,)=\sum_{k=0}^\infty\sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,), \end{equation*} \notag $$
а $\Lambda_k=k(k+d-2)$ – собственные значения оператора $-\Delta_S$.

Рассмотрим задачу нахождения решения уравнения

$$ \begin{equation} u_t+(-\Delta_S)^{\alpha/2}u=0 \end{equation} \tag{4.1} $$
с начальным условием
$$ \begin{equation*} u(\,{\cdot}\,,0)=f(\,{\cdot}\,), \end{equation*} \notag $$
где $f(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})$. Если
$$ \begin{equation} f(\,{\cdot}\,)=\sum_{k=0}^\infty\sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,), \end{equation} \tag{4.2} $$
то методом Фурье несложно получить решение этой задачи
$$ \begin{equation*} u(x',t)=\sum_{k=0}^\infty e^{-\Lambda_k^{\alpha/2}t}\sum_{j=1}^{a_k}c_{kj} Y_j^{(k)}(x'). \end{equation*} \notag $$

Предположим, что приближенно известны решения рассматриваемой задачи при $t=0,T$. Требуется восстановить решение в момент времени $\tau$, $0<\tau<T$. Для функций $f(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})$, имеющих разложение (4.2), положим $I_1f(\,{\cdot}\,)\,{=}\,f(\,{\cdot}\,)$,

$$ \begin{equation*} \begin{aligned} \, I_0f(\,{\cdot}\,)&=\sum_{k=0}^\infty e^{-\Lambda_k^{\alpha/2}\tau} \sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,), \\ I_2f(\,{\cdot}\,)&=\sum_{k=0}^\infty e^{-\Lambda_k^{\alpha/2}T}\sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,). \end{aligned} \end{equation*} \notag $$
Тем самым мы приходим к задаче (2.1) при $X=Y_0=Y_1=Y_2=L_2(\mathbb S^{d-1})$, $p=2$ и $J=\varnothing$.

Теорема 4. Если $\delta_1/\delta_2\in\bigl[e^{\Lambda_m^{\alpha/2}T},e^{\Lambda_{m+1}^{\alpha/2}T}\bigr]$ при некотором $m\in\mathbb Z_+$, то для всех $\alpha_{kj}$, $k=0,1,\dots$, $j=1,\dots,a_k$, удовлетворяющих условию

$$ \begin{equation} \frac{\bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\alpha_{kj}\bigr)^2} {\lambda_1e^{2\Lambda_k^{\alpha/2}T}}+ \frac{\alpha_{kj}^2}{\lambda_2}\leqslant1, \end{equation} \tag{4.3} $$
где
$$ \begin{equation*} \lambda_1=\frac{e^{2\Lambda_{m+1}^{\alpha/2}(T-\tau)}-e^{2\Lambda_m^{\alpha/2}(T-\tau)}} {e^{2\Lambda_{m+1}^{\alpha/2}T}-e^{2\Lambda_m^{\alpha/2}T}},\qquad \lambda_2=\frac{e^{-2\Lambda_m^{\alpha/2}\tau}-e^{-2\Lambda_{m+1}^{\alpha/2}\tau}} {e^{-2\Lambda_m^{\alpha/2}T}-e^{-2\Lambda_{m+1}^{\alpha/2}T}}, \end{equation*} \notag $$
методы
$$ \begin{equation*} \widehat{\varphi}(y_1,y_2)(\,{\cdot}\,)=\sum_{k=0}^\infty\sum_{j=1}^{a_k}\bigl(e^{-\Lambda_k^{\alpha/2}T} \bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\alpha_{kj}\bigr)y_{kj}^{(1)}+ \alpha_{kj}y_{kj}^{(2)}\bigr)Y_j^{(k)}(\,{\cdot}\,), \end{equation*} \notag $$
где
$$ \begin{equation*} y_s(\,{\cdot}\,)=\sum_{k=0}^\infty\sum_{j=1}^{a_k}y_{kj}^{(s)}Y_j^{(k)}(\,{\cdot}\,),\qquad s=1,2, \end{equation*} \notag $$
являются оптимальными, а
$$ \begin{equation*} E_\varnothing(I,\delta)=\sqrt{\lambda_1\delta_1^2+\lambda_2\delta_2^2}. \end{equation*} \notag $$
Если $\delta_1/\delta_2\in(0,1]$, то метод
$$ \begin{equation*} \widehat{\varphi}(y_1,y_2)(\,{\cdot}\,)=\sum_{k=0}^\infty e^{-\Lambda_k^{\alpha/2}\tau} \sum_{j=1}^{a_k}y_{kj}^{(1)}Y_j^{(k)}(\,{\cdot}\,) \end{equation*} \notag $$
является оптимальным, а $E_\varnothing(I,\delta)=\delta_1$.

Доказательство. Рассмотрим экстремальную задачу
$$ \begin{equation*} \|I_0f(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2\to\max,\qquad\|I_jf(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2\leqslant\delta_j^2,\quad j=1,2. \end{equation*} \notag $$
Эту задачу можно записать в виде
$$ \begin{equation} \sum_{k=0}^\infty e^{-2\Lambda_k^{\alpha/2}\tau}f_k^2\to\max,\qquad\sum_{k=0}^\infty f_k^2\leqslant\delta_1^2,\qquad\sum_{k=0}^\infty e^{-2\Lambda_k^{\alpha/2}T}f_k^2\leqslant\delta_2^2, \end{equation} \tag{4.4} $$
где
$$ \begin{equation*} f_k^2=\sum_{j=1}^{a_k}c_{jk}^2,\qquad k=0,1,\dots\,. \end{equation*} \notag $$
Пусть $\delta_1/\delta_2\in\bigl[e^{\Lambda_m^{\alpha/2}T},e^{\Lambda_{m+1}^{\alpha/2}T}\bigr]$. Определим $f_m$ и $f_{m+1}$ из условий
$$ \begin{equation*} f_m^2+f_{m+1}^2=\delta_1^2,\qquad e^{-2\Lambda_m^{\alpha/2}T}f_m^2+e^{-2\Lambda_{m+1}^{\alpha/2}T}f_{m+1}^2=\delta_2^2. \end{equation*} \notag $$
Имеем
$$ \begin{equation*} f_m^2=\frac{\delta_2^2-\delta_1^2e^{-2\Lambda_{m+1}^{\alpha/2}T}}{e^{-2\Lambda_m^{\alpha/2}T} -e^{-2\Lambda_{m+1}^{\alpha/2}T}},\qquad f_{m+1}^2 =\frac{\delta_1^2e^{-2\Lambda_m^{\alpha/2}T}-\delta_2^2}{e^{-2\Lambda_m^{\alpha/2}T} -e^{-2\Lambda_{m+1}^{\alpha/2}T}}. \end{equation*} \notag $$
Последовательность $\{f_k\}$, в которой $f_k=0$ при $k\ne m,m+1$ является допустимой в экстремальной задаче (4.4). Поэтому
$$ \begin{equation*} \begin{aligned} \, \sup_{\substack{f(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})\\\|I_jf(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})} \leqslant\delta_j,\, j=1,2}}\|I_0f(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2 &\geqslant e^{-2\Lambda_m^{\alpha/2}\tau}f_m^2+e^{-2\Lambda_{m+1}^{\alpha/2}\tau}f_{m+1}^2 \\ &=\lambda_1\delta_1^2+\lambda_2\delta_2^2. \end{aligned} \end{equation*} \notag $$
Если $\delta_1/\delta_2\in(0,1]$, то последовательность $\{f_k\}$, в которой $f_0=\delta_1^2$, а $f_k=0$ при $k\geqslant1$, является допустимой в задаче (4.4). Поэтому в данном случае
$$ \begin{equation*} \sup_{\substack{f(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})\\\|I_jf(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})} \leqslant\delta_j,\, j=1,2}}\|I_0f(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2\geqslant f_0^2=\delta_1^2. \end{equation*} \notag $$

Пусть снова $\delta_1/\delta_2\in\bigl[e^{\Lambda_m^{\alpha/2}T},e^{\Lambda_{m+1}^{\alpha/2}T}\bigr]$. Для функций $f(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})$, имеющих разложение (4.2), определим операторы $S_j\colon L_2(\mathbb S^{d-1})\to L_2(\mathbb S^{d-1})$, $j=1,2$, равенствами

$$ \begin{equation*} \begin{aligned} \, S_1f(\,{\cdot}\,)&=\sum_{k=0}^\infty\sum_{j=1}^{a_k}e^{-\Lambda_k^{\alpha/2}T} \bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\alpha_{kj}\bigr)c_{kj}Y_j^{(k)}(\,{\cdot}\,), \\ S_2f(\,{\cdot}\,)&=\sum_{k=0}^\infty\sum_{j=1}^{a_k}\alpha_{kj}c_{kj}Y_j^{(k)}(\,{\cdot}\,), \end{aligned} \end{equation*} \notag $$
где $\alpha_{kj}$ удовлетворяют условию (4.3). Нетрудно убедиться, что $I_0=S_1I_1+S_2I_2$. Для $f_1(\,{\cdot}\,),f_2(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})$ имеем
$$ \begin{equation*} \|S_1f_1(\,{\cdot}\,)+S_2f_2(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2 =\sum_{k=0}^\infty\sum_{j=1}^{a_k}\bigl(e^{-\Lambda_k^{\alpha/2}T} \bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\alpha_{kj}\bigr)f_{kj}^{(1)}+ \alpha_{kj}f_{kj}^{(2)}\bigr)^2, \end{equation*} \notag $$
где $f_{kj}^{(1)},f_{kj}^{(2)}$ – коэффициенты Фурье функций $f_1(\,{\cdot}\,),f_2(\,{\cdot}\,)$. Из неравенства Коши–Буняковского, учитывая условие (4.3), получаем
$$ \begin{equation*} \begin{aligned} \, &\bigl(e^{-\Lambda_k^{\alpha/2}T} \bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\alpha_{kj}\bigr)f_{kj}^{(1)}+ \alpha_{kj}f_{kj}^{(2)}\bigr)^2 \\ &\qquad\leqslant\biggl(\frac{\bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\alpha_{kj}\bigr)^2} {\lambda_1e^{2\Lambda_k^{\alpha/2}T}}+ \frac{\alpha_{kj}^2}{\lambda_2}\biggr) \bigl(\lambda_1\bigl(f_{kj}^{(1)}\bigr)^2+\lambda_2\bigl(f_{kj}^{(2)}\bigr)^2\bigr) \\ &\qquad\leqslant\lambda_1\bigl(f_{kj}^{(1)}\bigr)^2+\lambda_2\bigl(f_{kj}^{(2)}\bigr)^2. \end{aligned} \end{equation*} \notag $$
Таким образом,
$$ \begin{equation*} \begin{aligned} \, \|S_1f_1(\,{\cdot}\,)+S_2f_2(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2 &\leqslant\sum_{k=0}^\infty\sum_{j=1}^{a_k}\bigl(\lambda_1\bigl(f_{kj}^{(1)}\bigr)^2 +\lambda_2\bigl(f_{kj}^{(2)}\bigr)^2\bigr) \\ &=\lambda_1\|f_1(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2+\lambda_2\|f_2(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2. \end{aligned} \end{equation*} \notag $$

Покажем, что существуют $\alpha_{kj}$, $k=0,1,\dots$, $j=1,\dots,a_k$, удовлетворяющие условию (4.3). Рассмотрим на плоскости $(x,y)$ множество точек с координатами

$$ \begin{equation*} x_k=e^{-2\Lambda_k^{\alpha/2}T},\quad y_k=e^{-2\Lambda_k^{\alpha/2}\tau},\qquad k=0,1,\dots\,. \end{equation*} \notag $$
Это множество точек лежит на вогнутой кривой $y=x^{\tau/T}$. Проведем прямую через точки $(x_{m+1},y_{m+1})$ и $(x_m,y_m)$. Нетрудно убедиться, что уравнение этой прямой записывается в виде $y=\lambda_1+\lambda_2x$. В силу вогнутости кривой, на которой лежат рассматриваемые точки, имеем
$$ \begin{equation*} y_k\leqslant\lambda_1+\lambda_2x_k,\qquad k=0,1,\dots\,. \end{equation*} \notag $$
Следовательно, для всех $k=0,1,\dots$
$$ \begin{equation*} \frac{e^{-2\Lambda_k^{\alpha/2}\tau}}{\lambda_1+\lambda_2e^{-2\Lambda_k^{\alpha/2}T}}\leqslant1. \end{equation*} \notag $$
Положим
$$ \begin{equation*} \widehat{\alpha}_{{kj}}=\frac{\lambda_2e^{\Lambda_k^{\alpha/2}(T-\tau)}} {\lambda_1e^{2\Lambda_k^{\alpha/2}T}+\lambda_2}. \end{equation*} \notag $$
Тогда
$$ \begin{equation*} \frac{\bigl(e^{\Lambda_k^{\alpha/2}(T-\tau)}-\widehat{\alpha}_{kj}\bigr)^2} {\lambda_1e^{2\Lambda_k^{\alpha/2}T}}+ \frac{\widehat{\alpha}_{kj}^2}{\lambda_2}=\frac{e^{2\Lambda_k^{\alpha/2}(T-\tau)}} {\lambda_1e^{2\Lambda_k^{\alpha/2}T}+\lambda_2}= \frac{e^{-2\Lambda_k^{\alpha/2}\tau}}{\lambda_1+\lambda_2e^{-2\Lambda_k^{\alpha/2}T}}\leqslant1. \end{equation*} \notag $$

Если $\delta_1/\delta_2\in(0,1]$, то положим $S_1=I_0$, а $S_2=0$. Тогда

$$ \begin{equation*} \begin{aligned} \, \|S_1f_1(\,{\cdot}\,)+S_2f_2(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2 &=\|I_0f_1(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2=\sum_{k=0}^\infty e^{-2\Lambda_k^{\alpha/2}\tau}\sum_{j=1}^{a_k}\bigl(f_{kj}^{(1)}\bigr)^2 \\ &\leqslant\sum_{k=0}^\infty\sum_{j=1}^{a_k}\bigl(f_{kj}^{(1)}\bigr)^2=\|f_1(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}^2. \end{aligned} \end{equation*} \notag $$
Теперь утверждение доказываемой теоремы вытекает из теоремы 1.

Условие (4.3) можно записать в эквивалентной форме

$$ \begin{equation*} (\alpha_{kj}-\widehat{\alpha}_{kj})^2\leqslant\lambda_1\lambda_2e^{4\Lambda_k^{\alpha/2}T} \frac{-e^{-2\Lambda_k^{\alpha/2}\tau}+\lambda_1+\lambda_2e^{-2\Lambda_k^{\alpha/2}T}} {\bigl(\lambda_1+\lambda_2e^{-2\Lambda_k^{\alpha/2}T}\bigr)^2}. \end{equation*} \notag $$
Тем самым все $\alpha_{kj}$, удовлетворяющие условию (4.3), имеют вид
$$ \begin{equation*} \alpha_{kj}=\widehat{\alpha}_{kj}+\theta_{kj}e^{2\Lambda_k^{\alpha/2}T}\sqrt{\lambda_1\lambda_2}\, \frac{\sqrt{-e^{-2\Lambda_k^{\alpha/2}\tau}+\lambda_1+\lambda_2e^{-2\Lambda_k^{\alpha/2}T}}} {\lambda_1+\lambda_2e^{-2\Lambda_k^{\alpha/2}T}}, \end{equation*} \notag $$
где $|\theta_{kj}|\leqslant1$.

Если рассмотреть задачу об оптимальном восстановлении решения в момент времени $\tau$ по неточно заданному решению в момент времени $T>\tau$ на классе

$$ \begin{equation*} W=\{f(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})\colon \|f(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}\leqslant\delta_1\}, \end{equation*} \notag $$
то из той же теоремы 1 (при $J=\{1\}$) будет следовать, что методы $\widehat{\varphi}(0,y_2)(\,{\cdot}\,)$ будут оптимальными. Оказывается, что среди этого семейства оптимальных методов есть подсемейство оптимальных методов, которые обладают некоторым преимуществом по сравнению с остальными.

Для того чтобы указать это подсемейство, сформулируем сначала расширенный вариант рассматриваемой задачи. Пусть задан некоторый класс функций $\mathcal F\subset L_2(\mathbb S^{d-1})$. Положим

$$ \begin{equation*} \begin{aligned} \, e(\mathcal F,\delta,\varphi) &=\sup_{\substack{f(\,{\cdot}\,)\in\mathcal F,\, y(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})\\\|u(\,{\cdot}\,,T)-y(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}\leqslant\delta}} \|u(\,{\cdot}\,,\tau)-\varphi(y)(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}, \\ E(\mathcal F,\delta) &=\inf_{\varphi\colon L_2(\mathbb S^{d-1})\to L_2(\mathbb S^{d-1})}e(\mathcal F,\delta,\varphi). \end{aligned} \end{equation*} \notag $$
Задача о нахождении погрешности оптимального восстановления $E(\mathcal F,\delta)$ и соответствующего оптимального метода отличается от рассмотренной ранее лишь произвольным классом $\mathcal F$.

Будем говорить, что метод $\varphi(y)(\,{\cdot}\,)$ точен на множестве $L\subset L_2(\mathbb S^{d-1})$, если $\varphi(u(\,{\cdot}\,,T))(\,{\cdot}\,)=u(\,{\cdot}\,,\tau)$ для всех $f(\,{\cdot}\,)\in L$.

Предложение 1. Если $\widehat{\varphi}(y)(\,{\cdot}\,)$ – оптимальный метод для класса $\mathcal F$, являющийся линейным и точным на множестве $L\subset L_2(\mathbb S^{d-1})$, содержащем нуль, то он оптимален и на классе $\mathcal F+L$. При этом

$$ \begin{equation} E(\mathcal F,\delta)=E(\mathcal F+L,\delta). \end{equation} \tag{4.5} $$

Доказательство. Пусть $f(\,{\cdot}\,)\in\mathcal F+L$, $f(\,{\cdot}\,)=f_1(\,{\cdot}\,)+f_2(\,{\cdot}\,)$, где $f_1(\,{\cdot}\,)\,{\in}\,\mathcal F$, $f_2(\,{\cdot}\,)\,{\in}\, L$. Обозначим через $u_j(\,{\cdot}\,,{\cdot}\,)$ решение уравнения (4.1) с начальной функцией $f_j(\,{\cdot}\,)$, $j=1,2$. Пусть функция $y(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})$ такова, что $\|u(\,{\cdot}\,,T)-y(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}\leqslant\delta$. Положим $y_1(\,{\cdot}\,)=y(\,{\cdot}\,)-u_2(\,{\cdot}\,,T)$. Ясно, что $y_1(\,{\cdot}\,)\in L_2(\mathbb S^{d-1})$. Так как $u_1(\,{\cdot}\,,T)-y_1(\,{\cdot}\,)=u(\,{\cdot}\,,T)-y(\,{\cdot}\,)$, то
$$ \begin{equation} \|u_1(\,{\cdot}\,,T)-y_1(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}\leqslant\delta. \end{equation} \tag{4.6} $$
Из линейности и точности $\widehat{\varphi}(y)(\,{\cdot}\,)$ на $L$ следует равенство
$$ \begin{equation} \|u(\,{\cdot}\,,\tau)-\widehat{\varphi}(y)(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})} =\|u_1(\,{\cdot}\,,\tau)-\widehat{\varphi}(y_1)(\,{\cdot}\,)\|_{L_2(\mathbb S^{d-1})}. \end{equation} \tag{4.7} $$
Выражение справа в (4.7) в силу (4.6) не превосходит величины $e(\mathcal F,\delta,\widehat{\varphi})$, которая равна $E(\mathcal F,\delta)$, так как метод $\widehat{\varphi}(y)(\,{\cdot}\,)$ оптимален. Учитывая это обстоятельство и переходя в левой части (4.7) к верхней грани по $f(\,{\cdot}\,)\in\mathcal F+L$ и соответствующим $y(\,{\cdot}\,)$, получаем, что
$$ \begin{equation*} e(\mathcal F+L,\delta,\widehat{\varphi})\leqslant E(\mathcal F,\delta). \end{equation*} \notag $$
Отсюда и из того, что $\mathcal F\subset\mathcal F+L$, имеем
$$ \begin{equation*} E(\mathcal F,\delta)\leqslant E(\mathcal F+L,\delta)\leqslant e(\mathcal F+L,\delta,\widehat{\varphi})\leqslant E(\mathcal F,\delta). \end{equation*} \notag $$
Следовательно, $\widehat{\varphi}(y)(\,{\cdot}\,)$ – оптимальный метод для класса $\mathcal F+L$, и справедливо равенство (4.5). Предложение доказано.

Предположим, что $\delta_1/\delta_2\in\left[e^{\Lambda_m^{\alpha/2}T},e^{\Lambda_{m+1}^{\alpha/2}T}\right]$. Нетрудно показать, что при достаточно большом $m$ выполняется неравенство $\lambda_2\geqslant1$. Тем самым, если $\delta_1$ фиксировано, то при достаточно малых $\delta_2$ выполняется неравенство $\lambda_2\geqslant1$. В этом случае положим

$$ \begin{equation*} \widehat{k}=\max\biggl\{k\in\mathbb Z_+\colon \Lambda_k\leqslant\biggl(\frac{\ln\lambda_2}{2(T-\tau)}\biggr)^{2/\alpha}\biggr\}. \end{equation*} \notag $$
Несложно убедиться, что
$$ \begin{equation*} \widehat{k}=\Biggl[\sqrt{\frac{(d-2)^2}4+\biggl(\frac{\ln\lambda_2}{2(T-\tau)}\biggr)^{2/\alpha}}- \frac{d-2}2\Biggr] \end{equation*} \notag $$
($[a]$ – целая часть числа $a$).

Рассмотрим методы

$$ \begin{equation*} \widehat{\varphi}_0(y)(\,{\cdot}\,)=\sum_{k=0}^{\widehat{k}}\sum_{j=1}^{a_k} e^{\Lambda_k^{\alpha/2}(T-\tau)}Y_j^{(k)}(\,{\cdot}\,)+ \sum_{k=\widehat{k}+1}^\infty\sum_{j=1}^{a_k}\alpha_{kj}y_{kj}Y_j^{(k)}(\,{\cdot}\,), \end{equation*} \notag $$
где $\alpha_{kj}$, $k=\widehat{k}+1,\widehat{k}+2,\dots$, $j=1,\dots,a_k$, удовлетворяют условию (4.3). В силу того, что для
$$ \begin{equation*} \alpha_{kj}=e^{\Lambda_k^{\alpha/2}(T-\tau)},\qquad k=0,\dots\widehat{k},\quad j=1,\dots,a_k, \end{equation*} \notag $$
выполнено условие (4.3), методы $\widehat{\varphi}_0(y)(\,{\cdot}\,)$ – оптимальные на классе $W$.

Кроме того, методы $\widehat{\varphi}_0(y)(\,{\cdot}\,)$ – точные на подпространстве

$$ \begin{equation*} L_{\widehat{k}}=\sum_{k=0}^{\widehat{k}}\mathcal{H}_k. \end{equation*} \notag $$
Действительно, пусть $f(\,{\cdot}\,)\in L_{\widehat{k}}$. Тогда
$$ \begin{equation*} f(\,{\cdot}\,)=\sum_{k=0}^{\widehat{k}}\sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,). \end{equation*} \notag $$
Поэтому
$$ \begin{equation*} u(x',T)=\sum_{k=0}^{\widehat{k}} e^{-\Lambda_k^{\alpha/2}T}\sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(x'). \end{equation*} \notag $$
Следовательно,
$$ \begin{equation*} \widehat{\varphi}_0(u(\,{\cdot}\,,T))(\,{\cdot}\,)=\sum_{k=0}^{\widehat{k}} e^{-\Lambda_k^{\alpha/2}\tau}\sum_{j=1}^{a_k}c_{kj}Y_j^{(k)}(\,{\cdot}\,)=u(\,{\cdot}\,,\tau). \end{equation*} \notag $$
Тем самым из предложения 1 вытекает, что методы $\widehat{\varphi}_0(y)(\,{\cdot}\,)$ не только оптимальны на классе $W$, но они остаются оптимальными на более широком классе $W+L_{\widehat{k}}$.

§ 5. Оптимальное восстановление решений разностных уравнений

Рассмотрим процесс распространения тепла в бесконечном стержне, описываемый дискретной моделью, а именно, неявной разностной схемой

$$ \begin{equation} \frac{u_{s+1,j}-u_{sj}}\tau=\frac{u_{s+1,j+1}-2u_{s+1,j}+u_{s+1,j-1}}{h^2}. \end{equation} \tag{5.1} $$
Здесь $\tau$ и $h$ – положительные числа, $(s,j)\in\mathbb Z_+\times\mathbb Z$, $u_{s,j}$ – температура стержня в момент времени $s\tau$ в точке $jh$.

Обозначим через $l_{2,h}$ множество векторов $x=\{x_j\}_{j\in\mathbb Z}$, для которых

$$ \begin{equation*} \|x\|_{l_{2,h}}=\biggl(h\sum_{j\in\mathbb Z}|x_j|^2\biggr)^{1/2}<\infty,\qquad h>0. \end{equation*} \notag $$
Предположим, что приближенно измерена температура стержня в нулевой момент времени и в момент времени $n\tau$, т. е. приближенно известны векторы $u_0=\{u_{0,j}\}$ и $u_n=\{u_{n,j}\}$, или, точнее говоря, нам известны векторы $y_1,y_2\in l_{2,h}$ такие, что
$$ \begin{equation*} \|u_0-y_1\|_{l_{2,h}}\leqslant\delta_1,\qquad \|u_n-y_2\|_{l_{2,h}}\leqslant\delta_2, \end{equation*} \notag $$
где $\delta_j>0$, $j=1,2$. По этой информации требуется восстановить вектор $u_m=\{u_{m,j}\}$, где $0<m<n$, т. е. восстановить значение температуры стержня в момент времени $m\tau$.

Тем самым мы снова приходим к задаче (2.1), в которой $X=Y_0=Y_1=Y_2= l_2$, $p=2$, $J=\varnothing$, а операторы $I_j\colon l_{2,h}\to l_{2,h}$, $j=0,1,2$, определены равенствами

$$ \begin{equation*} I_0u_0=u_m,\qquad I_1u_0=u_0,\qquad I_2u_0=u_n. \end{equation*} \notag $$

Преобразованием Фурье последовательности $x=\{x_j\}_{j\in\mathbb Z}\in l_{2,h}$ назовем функцию

$$ \begin{equation*} Fx(\xi)=h\sum_{j\in\mathbb Z}x_je^{-ijh\xi}. \end{equation*} \notag $$
Несложно убедиться, что $Fx(\,{\cdot}\,)\in L_2([-\pi/h,\pi/h])$ и
$$ \begin{equation} \|Fx(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}=2\pi\|x\|^2_{l_{2,h}}. \end{equation} \tag{5.2} $$

Применим преобразование Фурье к обеим частям равенства (5.1):

$$ \begin{equation*} h\sum_{j\in\mathbb Z}\frac{u_{s+1,j}-u_{sj}}\tau\, e^{-ijh\xi}=h\sum_{j\in\mathbb Z} \frac{u_{s+1,j+1}-2u_{s+1,j}+u_{s+1,j-1}}{h^2} \, e^{-ijh\xi}. \end{equation*} \notag $$
Отсюда
$$ \begin{equation*} \frac{U_{s+1}(\xi)-U_s(\xi)}\tau=\frac{e^{ih\xi}-2+e^{-ih\xi}}{h^2}U_{s+1}(\xi), \end{equation*} \notag $$
где
$$ \begin{equation*} U_s(\xi)=h\sum_{j\in\mathbb Z}u_{s,j}e^{-ijh\xi}. \end{equation*} \notag $$
Тем самым
$$ \begin{equation*} U_{s+1}(\xi)=\biggl(1+\frac{4\tau}{h^2}\sin^2\frac{h\xi}2\biggr)^{-1}U_s(\xi). \end{equation*} \notag $$
Следовательно,
$$ \begin{equation*} U_s(\xi)=\Lambda^s(\xi)U_0(\xi),\quad\Lambda(\xi)=\biggl(1+\frac{4\tau}{h^2} \sin^2\frac{h\xi}2\biggr)^{-1}. \end{equation*} \notag $$

Положим $a=(1+4\tau/h^2)^{-1}$,

$$ \begin{equation*} \begin{aligned} \, \lambda_1 &=\begin{cases} 0, &\dfrac{\delta_2}{\delta_1}\in(0,a^n], \\ \biggl(1-\dfrac mn\biggr)\biggl(\dfrac{\delta_2}{\delta_1}\biggr)^{2m/n}, &\dfrac{\delta_2}{\delta_1}\in(a^n,1), \\ 1, &\dfrac{\delta_2}{\delta_1}\in[1,+\infty), \end{cases} \\ \lambda_2 &= \begin{cases} a^{2(m-n)}, &\dfrac{\delta_2}{\delta_1}\in(0,a^n], \\ \dfrac mn\biggl(\dfrac{\delta_2}{\delta_1}\biggr)^{2(m/n-1)}, &\dfrac{\delta_2}{\delta_1}\in(a^n,1), \\ 0, &\dfrac{\delta_2}{\delta_1}\in[1,+\infty). \end{cases} \end{aligned} \end{equation*} \notag $$

Теорема 5. Имеет место равенство

$$ \begin{equation*} E_\varnothing(I,\delta)=\sqrt{\lambda_1\delta_1^2+\lambda_2\delta_2^2}. \end{equation*} \notag $$
Для всех $\alpha(\,{\cdot}\,)$, удовлетворяющих при $\delta_2/\delta_1\in(a^n,1)$ условию
$$ \begin{equation} \Lambda^{2m}(\xi)\biggl(\frac{|1-\alpha(\xi)|^2}{\lambda_1} +\Lambda^{-2n}(\xi)\frac{|\alpha(\xi)|^2}{\lambda_2}\biggr)\leqslant1, \end{equation} \tag{5.3} $$
а в остальных случаях равенству
$$ \begin{equation*} \alpha(\xi)=\begin{cases} 1, &\dfrac{\delta_2}{\delta_1}\in(0,a^n], \\ 0, &\dfrac{\delta_2}{\delta_1}\in[1,+\infty), \end{cases} \end{equation*} \notag $$
методы
$$ \begin{equation*} \widehat{\varphi}(y_1,y_2)=F^{-1}\bigl(\Lambda^m(\,{\cdot}\,)(1-\alpha(\,{\cdot}\,))Fy_1(\,{\cdot}\,) +\Lambda^{m-n}(\,{\cdot}\,)\alpha(\,{\cdot}\,) Fy_2(\,{\cdot}\,)\bigr) \end{equation*} \notag $$
являются оптимальными.

Доказательство. Рассмотрим экстремальную задачу
$$ \begin{equation*} \|u_m\|^2_{l_{2,h}}\to\max,\qquad\|u_0\|^2_{l_{2,h}}\leqslant\delta_1^2,\qquad\|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2. \end{equation*} \notag $$
Переходя к образам Фурье, получим следующую задачу:
$$ \begin{equation} \begin{gathered} \, \frac1{2\pi}\|\Lambda^m(\,{\cdot}\,) U_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}\to\max, \qquad\frac1{2\pi}\|U_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}\leqslant\delta_1^2, \\ \frac1{2\pi}\|\Lambda^n(\,{\cdot}\,) U_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}\leqslant\delta_2^2. \end{gathered} \end{equation} \tag{5.4} $$

Предположим, что $\delta_2/\delta_1\in(a^n,1)$. Функция $\Lambda(\xi)$ при $\xi\in[0,\pi/h]$ монотонно убывает от $1$ до $a$. Поэтому найдется $\widehat{\xi}\in(0,\pi/h)$ такое, что $\Lambda^n(\widehat{\xi})=\delta_2/\delta_1$. Положим для достаточно малых $\varepsilon>0$

$$ \begin{equation*} \widehat{U}_0(\xi)=\begin{cases} \sqrt{\dfrac{2\pi}\varepsilon}\,\delta_1, &\xi\in(\widehat{\xi},\widehat{\xi}+\varepsilon), \\ 0, &\xi\notin(\widehat{\xi},\widehat{\xi}+\varepsilon). \end{cases} \end{equation*} \notag $$
Имеем
$$ \begin{equation*} \frac1{2\pi}\|\widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}=\delta_1^2, \end{equation*} \notag $$
а
$$ \begin{equation*} \frac1{2\pi}\|\Lambda^n(\,{\cdot}\,) \widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])} =\frac{\delta_1^2}\varepsilon\int_{\widehat{\xi}}^{\widehat{\xi}+\varepsilon} \Lambda^{2n}(\xi)\,d\xi\leqslant\delta_1^2\Lambda^{2n}(\widehat{\xi})=\delta_2^2. \end{equation*} \notag $$
Тем самым функция $\widehat{U}_0(\,{\cdot}\,)$ является допустимой в задаче (5.4). Следовательно,
$$ \begin{equation*} \begin{aligned} \, \sup_{\substack{u_0\in l_{2,h}\\\|u_0\|^2_{l_{2,h}}\leqslant\delta_1^2\\\|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2}} \|u_m\|^2_{l_{2,h}} &\geqslant\frac1{2\pi}\|\Lambda^m(\,{\cdot}\,)\widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])} =\frac{\delta_1^2} \varepsilon\int_{\widehat{\xi}}^{\widehat{\xi}+\varepsilon} \Lambda^{2m}(\xi)\,d\xi \\ &=\delta_1^2\Lambda^{2m}(c), \end{aligned} \end{equation*} \notag $$
где $c\in[\widehat{\xi},\widehat{\xi}+\varepsilon]$. Переходя к пределу при $\varepsilon\to0$, получаем
$$ \begin{equation*} \sup_{\substack{u_0\in l_{2,h}\\\|u_0\|^2_{l_{2,h}}\leqslant\delta_1^2\\\|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2}} \|u_m\|^2_{l_{2,h}}\geqslant\delta_1^2\Lambda^{2m}(\widehat{\xi})=\delta_1^{2(1-m/n)}\delta_2^{2m/n}= \lambda_1\delta_1^2+\lambda_2\delta_2^2. \end{equation*} \notag $$

Предположим, что $\delta_2/\delta_1\in(0,a^n]$. Положим для достаточно малых $\varepsilon>0$

$$ \begin{equation*} \widehat{U}_0(\xi)=\begin{cases} \sqrt{\dfrac{2\pi}\varepsilon}\, \dfrac{\delta_2}{\Lambda^n(\xi)}, &\xi\in\biggl(\dfrac{\pi}{h}-\varepsilon,\dfrac{\pi}{h}\biggr], \\ 0, &\xi\notin\biggl(\dfrac{\pi}{h}-\varepsilon,\dfrac{\pi}{h}\biggr]. \end{cases} \end{equation*} \notag $$
Тогда
$$ \begin{equation*} \frac1{2\pi}\|\Lambda^n(\,{\cdot}\,) \widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}=\delta_2^2, \end{equation*} \notag $$
а
$$ \begin{equation*} \frac1{2\pi}\|\widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])} =\frac{\delta_2^2}\varepsilon\int_{\pi/h-\varepsilon}^{\pi/h} \Lambda^{-2n}(\xi)\,d\xi\leqslant\delta_2^2a^{-2n}\leqslant\delta_1^2. \end{equation*} \notag $$
Тем самым функция $\widehat{U}_0(\,{\cdot}\,)$ является допустимой в задаче (5.4). Следовательно,
$$ \begin{equation*} \begin{aligned} \, \sup_{\substack{u_0\in l_{2,h}\\\|u_0\|^2_{l_{2,h}} \leqslant\delta_1^2\\\|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2}} \|u_m\|^2_{l_{2,h}} &\geqslant\frac1{2\pi}\|\Lambda^m(\,{\cdot}\,)\widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])} \\ &=\frac{\delta_2^2}\varepsilon\int_{\pi/h-\varepsilon}^{\pi/h}\Lambda^{2(m-n)}(\xi)\,d\xi =\delta_2^2\Lambda^{2(m-n)}(c), \end{aligned} \end{equation*} \notag $$
где $c\in[\pi/h-\varepsilon,\pi/h]$. Переходя к пределу при $\varepsilon\to0$, получаем
$$ \begin{equation*} \sup_{\substack{u_0\in l_{2,h}\\\|u_0\|^2_{l_{2,h}}\leqslant\delta_1^2\\\|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2}} \|u_m\|^2_{l_{2,h}}\geqslant\delta_2^2a^{2(m-n)}=\lambda_2\delta_2^2. \end{equation*} \notag $$

Если, наконец, $\delta_2/\delta_1\in[1,+\infty)$, положим для достаточно малых $\varepsilon>0$

$$ \begin{equation*} \widehat{U}_0(\xi)=\begin{cases} \sqrt{\dfrac{2\pi}\varepsilon}\delta_1, &\xi\in(0,\varepsilon), \\ 0, &\xi\notin(0,\varepsilon). \end{cases} \end{equation*} \notag $$
Тогда
$$ \begin{equation*} \frac1{2\pi}\|\widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])}=\delta_1^2, \end{equation*} \notag $$
а
$$ \begin{equation*} \frac1{2\pi}\|\Lambda^n(\,{\cdot}\,) \widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])} =\frac{\delta_1^2}\varepsilon\int_0^\varepsilon \Lambda^{2n}(\xi)\,d\xi\leqslant\delta_1^2\leqslant\delta_2^2. \end{equation*} \notag $$
Таким образом, функция $\widehat{U}_0(\,{\cdot}\,)$ является допустимой в задаче (5.4). Следовательно,
$$ \begin{equation*} \sup_{\substack{u_0\in l_{2,h}\\ \|u_0\|^2_{l_{2,h}}\leqslant\delta_1^2 \\ \|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2}} \!\|u_m\|^2_{l_{2,h}} {\geqslant}\, \frac1{2\pi}\|\Lambda^m(\,{\cdot}\,)\widehat{U}_0(\,{\cdot}\,)\|^2_{L_2([-\pi/h,\pi/h])} {=}\,\frac{\delta_1^2} \varepsilon\int_0^\varepsilon\Lambda^{2m}(\xi)\,d\xi \,{=}\,\delta_1^2\Lambda^{2m}(c), \end{equation*} \notag $$
где $c\in[0,\varepsilon]$. Переходя к пределу при $\varepsilon\to0$, получаем
$$ \begin{equation*} \sup_{\substack{u_0\in l_{2,h}\\\|u_0\|^2_{l_{2,h}}\leqslant\delta_1^2\\\|u_n\|^2_{l_{2,h}}\leqslant\delta_2^2}} \|u_m\|^2_{l_{2,h}}\geqslant\delta_1^2. \end{equation*} \notag $$

Займемся теперь оценкой (2.3). Пусть $\delta_2/\delta_1\in(a^n,1)$. Определим операторы $S_j\colon l_{2,h}\to l_{2,h}$, $j=1,2$, так, чтобы

$$ \begin{equation*} F(S_1u)(\,{\cdot}\,)=\Lambda^m(\,{\cdot}\,)(1-\alpha(\,{\cdot}\,))Fu(\,{\cdot}\,),\qquad F(S_2u)(\,{\cdot}\,)=\Lambda^{m-n}(\,{\cdot}\,)\alpha(\,{\cdot}\,) Fu(\,{\cdot}\,). \end{equation*} \notag $$

Нетрудно убедиться, что для всех $u_0\in l_{2,h}$

$$ \begin{equation*} F((I_0-S_1I_1-S_2I_2)u)(\,{\cdot}\,)\equiv0. \end{equation*} \notag $$

Поэтому $I_0=S_1I_1+S_2I_2$. В силу (5.2) получаем

$$ \begin{equation*} \|S_1z_1+S_2z_2\|_{l_{2,h}}^2=\frac1{2\pi}\int_{-\pi/h}^{\pi/h}\Lambda^{2m}(\xi) |(1-\alpha(\xi))Fz_1(\xi)+\Lambda^{-n}(\xi)\alpha(\xi)Fz_2(\xi)|^2\,d\xi. \end{equation*} \notag $$

Из неравенства Коши–Буняковского вытекает, что

$$ \begin{equation*} \Lambda^{2m}(\xi)|(1-\alpha(\xi))Fz_1(\xi)+\Lambda^{-n} \alpha(\xi)Fz_2(\xi)|^2 \leqslant\Omega(\xi)(\lambda_1|Fz_1(\xi)|^2+\lambda_2|Fz_2(\xi)|^2), \end{equation*} \notag $$
где
$$ \begin{equation*} \Omega(\xi)=\Lambda^{2m}(\xi)\biggl(\frac{|1-\alpha(\xi)|^2} {\lambda_1}+\Lambda^{-2n}(\xi)\frac{|\alpha(\xi)|^2}{\lambda_2}\biggr). \end{equation*} \notag $$
В силу условия (5.3) получаем
$$ \begin{equation*} \begin{aligned} \, \|S_1z_1+S_2z_2\|_{l_{2,h}}^2 &\leqslant\frac1{2\pi}\int_{-\pi/h}^{\pi/h}\bigl(\lambda_1|Fz_1(\xi)|^2+ \lambda_2|Fz_2(\xi)|^2\bigr)\,d\xi \\ &=\lambda_1\|z_1\|^2_{l_{2,h}}+\lambda_2\|z_2\|^2_{l_{2,h}}. \end{aligned} \end{equation*} \notag $$
Из теоремы 1 вытекает, что в рассматриваемом случае методы
$$ \begin{equation*} \widehat{\varphi}(y_1,y_2)=S_1y_1+S_2y_2 \end{equation*} \notag $$
являются оптимальными, а
$$ \begin{equation*} E_\varnothing(I,\delta)=\sqrt{\lambda_1\delta_1^2+\lambda_2\delta_2^2}. \end{equation*} \notag $$

Рассмотрим теперь случай, когда $\delta_2/\delta_1\in(0,a^n]$. Определим оператор $S_2\colon l_{2,h}\to l_{2,h}$ так, чтобы

$$ \begin{equation*} F(S_2u)(\,{\cdot}\,)=\Lambda^{m-n}(\,{\cdot}\,) Fu(\,{\cdot}\,). \end{equation*} \notag $$
Так как
$$ \begin{equation*} F((I_0-S_2I_2)u_0)(\xi)\equiv0, \end{equation*} \notag $$
то $I_0=S_2I_2$. Кроме того,
$$ \begin{equation*} \|S_2z_2\|_{l_{2,h}}^2=\frac1{2\pi}\int_{-\pi/h}^{\pi/h}\Lambda^{2(m-n)}(\xi)|Fz_2(\xi)|^2\,d\xi \leqslant a^{2(m-n)}\|z_2\|^2_{l_{2,h}}. \end{equation*} \notag $$
Из теоремы 1 вытекает, что в рассматриваемом случае метод
$$ \begin{equation*} \widehat{\varphi}(y_1,y_2)=S_2y_2 \end{equation*} \notag $$
является оптимальным, а
$$ \begin{equation*} E_\varnothing(I,\delta)=a^{m-n}\delta_2. \end{equation*} \notag $$

Наконец, если $\delta_2\geqslant\delta_1$, определим оператор $S_1\colon l_{2,h}\to l_{2,h}$ так, чтобы

$$ \begin{equation*} F(S_1u)(\,{\cdot}\,)=\Lambda^m(\,{\cdot}\,) Fu(\,{\cdot}\,). \end{equation*} \notag $$
Тогда $I_0=S_1I_1$ и
$$ \begin{equation*} \|S_1z_1\|_{l_{2,h}}^2=\frac1{2\pi}\int_{-\pi/h}^{\pi/h}\Lambda^{2m}(\xi)|Fz_1(\xi)|^2\,d\xi \leqslant\|z_1\|^2_{l_{2,h}}. \end{equation*} \notag $$
Из теоремы 1 следует, что метод
$$ \begin{equation*} \widehat{\varphi}(y_1,y_2)=S_1y_1 \end{equation*} \notag $$

является оптимальным, а

$$ \begin{equation*} E_\varnothing(I,\delta)=\delta_1. \end{equation*} \notag $$

Докажем, что при $\delta_2/\delta_1\in(a^n,1)$ множество функций $\alpha(\,{\cdot}\,)$, удовлетворяющих условию (5.3), не пусто. Рассмотрим вогнутую функцию

$$ \begin{equation} y=x^{m/n},\qquad x\geqslant0. \end{equation} \tag{5.5} $$
Проведем касательную к графику этой функции в точке $x_0>0$. Нетрудно убедиться, что касательная будет иметь вид $y=\widehat{\lambda}_1+\widehat{\lambda}_2x$, где
$$ \begin{equation*} \widehat{\lambda}_1=\biggl(1-\frac mn\biggr)x_0^{m/n},\qquad\widehat{\lambda}_2=\frac mnx_0^{m/n-1}. \end{equation*} \notag $$
В силу вогнутости кривой (5.5) для всех $x\geqslant0$ будет выполняться неравенство
$$ \begin{equation*} x^{m/n}\leqslant\widehat{\lambda}_1+\widehat{\lambda}_2x. \end{equation*} \notag $$
Положим
$$ \begin{equation*} x=\Lambda^{2n}(\xi),\qquad x_0=\biggl(\frac{\delta_2}{\delta_1}\biggr)^2. \end{equation*} \notag $$
Тогда $\widehat{\lambda}_j=\lambda_j$, $j=1,2$, и для всех $\xi\in[-\pi/h,\pi/h]$ выполняется неравенство
$$ \begin{equation*} \Lambda^{2m}(\xi)\leqslant\lambda_1+\lambda_2\Lambda^{2n}(\xi). \end{equation*} \notag $$
Отсюда следует, что
$$ \begin{equation*} \frac{\Lambda^{2m}(\xi)}{\lambda_1+\lambda_2\Lambda^{2n}(\xi)}\leqslant1. \end{equation*} \notag $$
Положив
$$ \begin{equation*} \alpha(\xi)=\frac{\lambda_2\Lambda^{2n}(\xi)}{\lambda_1+\lambda_2\Lambda^{2n}(\xi)}, \end{equation*} \notag $$
получаем
$$ \begin{equation*} \Lambda^{2m}(\xi)\biggl(\frac{|1-\alpha(\xi)|^2}{\lambda_1} +\Lambda^{-2n}(\xi)\frac{|\alpha(\xi)|^2}{\lambda_2}\biggr) =\frac{\Lambda^{2m}(\xi)}{\lambda_1+\lambda_2\Lambda^{2n}(\xi)}\leqslant1. \end{equation*} \notag $$
Теорема доказана.

Если рассмотреть задачу об оптимальном восстановлении решения в момент времени $m\tau$ по неточно заданному решению в момент времени $n\tau$ на классе

$$ \begin{equation*} W=\{u_0\in l_{2,h}\colon\|u_0\|_{l_{2,h}}\leqslant\delta_1\}, \end{equation*} \notag $$
то из той же теоремы 1 будет следовать, что методы $\widehat{\varphi}(0,y_2)(\,{\cdot}\,)$ будут оптимальными.

Отметим, что для непрерывной модели распространения тепла результат, полученный в работе [25] для $t_1=0$, $t_2=T$ ($n=2$) и промежуточной точки $\tau_0$, в которой требуется восстановить распределение температуры, в одномерном случае совпадет с предельным значением погрешности восстановления и одним из методов, построенных в теореме 5 при $h\to0$ и $\tau\to0$ (в этом случае надо положить $a=0$).

Отметим также, что задача, аналогичная рассмотренной, когда процесс распространения тепла происходит на окружности, рассматривалась в работе [22].

Список литературы

1. С. Ф. Смоляк, Об оптимальном восстановлении функций и функционалов от них, Дисс. … канд. физ.-матем. наук, МГУ, М., 1965, 152 с.
2. С. М. Никольский, “К вопросу об оценках приближений квадратурными формулами”, УМН, 5:2(36) (1950), 165–177  mathnet  mathscinet  zmath
3. C. A. Micchelli, T. J. Rivlin, “A survey of optimal recovery”, Optimal estimation in approximation theory (Freudenstadt, 1976), Plenum, New York, 1977, 1–54  crossref  mathscinet  zmath
4. A. A. Melkman, C. A. Micchelli, “Optimal estimation of linear operators in Hilbert spaces from inaccurate data”, SIAM J. Numer. Anal., 16:1 (1979), 87–105  crossref  mathscinet  zmath  adsnasa
5. Дж. Трауб, X. Вожьняковский, Общая теория оптимальных алгоритмов, Мир, М., 1983, 384 с.  mathscinet  zmath; пер. с англ.: J. F. Traub, H. Woźniakowski, A general theory of optimal algorithms, ACM Monogr. Ser., Academic Press, Inc., New York–London, 1980, xiv+341 с.  mathscinet  zmath
6. В. В. Арестов, “Наилучшее восстановление операторов и родственные задачи”, Сборник трудов Всесоюзной школы по теории функций (Душанбе, 1986), Тр. МИАН СССР, 189, Наука, М., 1989, 3–20  mathnet  mathscinet  zmath; англ. пер.: V. V. Arestov, “Optimal recovery of operators and related problems”, Proc. Steklov Inst. Math., 189:4 (1990), 1–20
7. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Об оптимальном восстановлении функционалов по неточным данным”, Матем. заметки, 50:6 (1991), 85–93  mathnet  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of functionals based on inaccurate data”, Math. Notes, 50:6 (1991), 1274–1279  crossref
8. L. Plaskota, Noisy information and computational complexity, Cambridge Univ. Press, Cambridge, 1996, xii+308 pp.  crossref  mathscinet  zmath  adsnasa
9. K. Yu. Osipenko, Optimal recovery of analytic functions, Nova Science Publ., Inc., Huntington, NY, 2000, 220 pp.
10. Г. Г. Магарил-Ильяев, В. М. Тихомиров, Выпуклый анализ и его приложения, 2-е изд., Эдиториал УРСС, М., 2003, 176 с.; англ. пер. 1-го изд.: G. G. Magaril-Il'yaev, V. M. Tikhomirov, Convex analysis: theory and applications, rev. by the authors, Transl. Math. Monogr., 222, Amer. Math. Soc., Providence, RI, 2003, viii+183 с.  crossref  mathscinet  zmath
11. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление функций и их производных по коэффициентам Фурье, заданным с погрешностью”, Матем. сб., 193:3 (2002), 79–100  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of functions and their derivatives from Fourier coefficients prescribed with an error”, Sb. Math., 193:3 (2002), 387–407  crossref  adsnasa
12. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление функций и их производных по приближенной информации о спектре и неравенства для производных”, Функц. анализ и его прил., 37:3 (2003), 51–64  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of functions and their derivatives from inaccurate information about the spectrum and inequalities for derivatives”, Funct. Anal. Appl., 37:3 (2003), 203–214  crossref
13. К. Ю. Осипенко, “Неравенство Харди–Литтлвуда–Полиа для аналитических функций из пространств Харди–Соболева”, Матем. сб., 197:3 (2006), 15–34  mathnet  crossref  mathscinet  zmath; англ. пер.: K. Yu. Osipenko, “The Hardy–Littlewood–Pólya inequality for analytic functions in Hardy–Sobolev spaces”, Sb. Math., 197:3 (2006), 315–334  crossref  adsnasa
14. К. Ю. Осипенко, “Оптимальное восстановление линейных операторов в неевклидовых метриках”, Матем. сб., 205:10 (2014), 77–106  mathnet  crossref  mathscinet  zmath; англ. пер.: K. Yu. Osipenko, “Optimal recovery of linear operators in non-Euclidean metrics”, Sb. Math., 205:10 (2014), 1442–1472  crossref  adsnasa
15. K. Yu. Osipenko, “Optimal recovery of operators and multidimensional Carlson type inequalities”, J. Complexity, 32:1 (2016), 53–73  crossref  mathscinet  zmath
16. В. В. Арестов, “Наилучшее равномерное приближение оператора дифференцирования ограниченными в пространстве $L_2$ операторами”, Тр. ИММ УрО РАН, 24, № 4, 2018, 34–56  mathnet  crossref  mathscinet  zmath; англ. пер.: V. V. Arestov, “Best uniform approximation of the differentiation operator by operators bounded in the space $L_2$”, Proc. Steklov Inst. Math., 308, Suppl. 1 (2020), 9–30  crossref
17. V. V. Arestov, “Best approximation of a differentiation operator on the set of smooth functions with exactly or approximately given Fourier transform”, Mathematical optimization theory and operations research (MOTOR 2019), Lecture Notes in Comput. Sci., 11548, Springer, Cham, 2019, 434–448  crossref  mathscinet  zmath
18. V. Arestov, “Uniform approximation of differentiation operators by bounded linear operators in the space $L_r$”, Anal. Math., 46:3 (2020), 425–445  crossref  mathscinet  zmath
19. К. Ю. Осипенко, “Оптимальное восстановление в весовых пространствах с однородными весами”, Матем. сб., 213:3 (2022), 111–138  mathnet  crossref  mathscinet  zmath; англ. пер.: K. Yu. Osipenko, “Optimal recovery in weighted spaces with homogeneous weights”, Sb. Math., 213:3 (2022), 385–411  crossref  adsnasa
20. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Об оптимальном гармоническом синтезе по неточно заданному спектру”, Функц. анализ и его прил., 44:3 (2010), 76–79  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “On optimal harmonic synthesis from inaccurate spectral data”, Funct. Anal. Appl., 44:3 (2010), 223–225  crossref
21. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Неравенство Харди–Литтлвуда–Полиа и восстановление производных по неточной информации”, Докл. РАН, 438:3 (2011), 300–302  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Hardy–Littlewood–Paley inequality and recovery of derivatives from inaccurate data”, Dokl. Math., 83:3 (2011), 337–339  crossref
22. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Об оптимальном восстановлении решений разностных уравнений по неточным измерениям”, Проблемы матем. анализа, 69 (2013), 47–54  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “On optimal recovery of solutions to difference equations from inaccurate data”, J. Math. Sci. (N.Y.), 189:4 (2013), 596–603  crossref
23. Г. Г. Магарил-Ильяев, В. М. Тихомиров, “О неравенствах для производных колмогоровского типа”, Матем. сб., 188:12 (1997), 73–106  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, V. M. Tikhomirov, “Kolmogorov-type inequalities for derivatives”, Sb. Math., 188:12 (1997), 1799–1832  crossref  adsnasa
24. И. Стейн, Г. Вейс, Введение в гармонический анализ на евклидовых пространствах, Мир, М., 1974, 336 с.  zmath; пер. с англ.: E. M. Stein, G. Weiss, Introduction to Fourier analysis on Euclidean spaces, Princeton Math. Ser., 32, Princeton Univ. Press, Princeton, NJ, 1971, x+297 с.  mathscinet  zmath
25. Г. Г. Магарил-Ильяев, К. Ю. Осипенко, “Оптимальное восстановление решения уравнения теплопроводности по неточным измерениям”, Матем. сб., 200:5 (2009), 37–54  mathnet  crossref  mathscinet  zmath; англ. пер.: G. G. Magaril-Il'yaev, K. Yu. Osipenko, “Optimal recovery of the solution of the heat equation from inaccurate data”, Sb. Math., 200:5 (2009), 665–682  crossref  adsnasa

Образец цитирования: К. Ю. Осипенко, “О построении семейств оптимальных методов восстановления линейных операторов”, Изв. РАН. Сер. матем., 88:1 (2024), 98–120; Izv. Math., 88:1 (2024), 92–113
Цитирование в формате AMSBIB
\RBibitem{Osi24}
\by К.~Ю.~Осипенко
\paper О~построении семейств оптимальных методов восстановления линейных операторов
\jour Изв. РАН. Сер. матем.
\yr 2024
\vol 88
\issue 1
\pages 98--120
\mathnet{http://mi.mathnet.ru/im9384}
\crossref{https://doi.org/10.4213/im9384}
\mathscinet{https://mathscinet.ams.org/mathscinet-getitem?mr=4727543}
\zmath{https://zbmath.org/?q=an:07838016}
\adsnasa{https://adsabs.harvard.edu/cgi-bin/bib_query?2024IzMat..88...92O}
\transl
\jour Izv. Math.
\yr 2024
\vol 88
\issue 1
\pages 92--113
\crossref{https://doi.org/10.4213/im9384e}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=001202734300006}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85191540740}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/im9384
  • https://doi.org/10.4213/im9384
  • https://www.mathnet.ru/rus/im/v88/i1/p98
  • Эта публикация цитируется в следующих 5 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Известия Российской академии наук. Серия математическая Izvestiya: Mathematics
    Статистика просмотров:
    Страница аннотации:798
    PDF русской версии:67
    PDF английской версии:159
    HTML русской версии:320
    HTML английской версии:360
    Список литературы:123
    Первая страница:13
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2026