Математический сборник
RUS  ENG    ЖУРНАЛЫ   ПЕРСОНАЛИИ   ОРГАНИЗАЦИИ   КОНФЕРЕНЦИИ   СЕМИНАРЫ   ВИДЕОТЕКА   ПАКЕТ AMSBIB  
Общая информация
Последний выпуск
Скоро в журнале
Архив
Импакт-фактор
Правила для авторов
Лицензионный договор
Загрузить рукопись
Историческая справка

Поиск публикаций
Поиск ссылок

RSS
Последний выпуск
Текущие выпуски
Архивные выпуски
Что такое RSS



Матем. сб.:
Год:
Том:
Выпуск:
Страница:
Найти






Персональный вход:
Логин:
Пароль:
Запомнить пароль
Войти
Забыли пароль?
Регистрация


Математический сборник, 2024, том 215, номер 7, страницы 74–95
DOI: https://doi.org/10.4213/sm9860
(Mi sm9860)
 

Эта публикация цитируется в 2 научных статьях (всего в 2 статьях)

Оценки погрешности усреднения эллиптических операторов на основе корректоров первого и второго порядка

С. Е. Пастухова

МИРЭА — Российский технологический университет, г. Москва
Список литературы:
Аннотация: Для действующих в пространстве $\mathbb{R}^d$ дивергентных эллиптических операторов второго порядка с $\varepsilon$-периодическими измеримыми коэффициентами построены аппроксимации резольвенты в операторной норме $\|\cdot\|_{H^1{\to}H^1}$ с остаточным членом порядка $\varepsilon^2$ при $\varepsilon\to 0$. Применяется метод двухмасштабных разложений по степеням $\varepsilon$ до второй включительно. Недостаток гладкости в данных задачи преодолевается с помощью сглаживания по Стеклову или его итераций. Рассмотрены сначала скалярные дифференциальные операторы с вещественной матрицей коэффициентов, действующие на функциях $u\colon \mathbb{R}^d\to \mathbb{R}$, а затем матричные дифференциальные операторы с комплекснозначным тензором четвертого порядка, действующие на функциях $u\colon \mathbb{R}^d\to \mathbb{C}^n$.
Библиография: 20 названий.
Ключевые слова: периодические дифференциальные операторы, усреднение, корректоры, аппроксимации резольвенты, операторные оценки погрешности.
Поступила в редакцию: 11.11.2022 и 03.04.2024
Дата публикации: 28.06.2024
Англоязычная версия:
Sbornik: Mathematics, 2024, Volume 215, Issue 7, Pages 932–952
DOI: https://doi.org/10.4213/sm9860e
Реферативные базы данных:
Тип публикации: Статья
MSC: 35B27, 35J47

§ 1. Операторные оценки и двухмасштабные разложения

1.1.

В пространстве $\mathbb{R}^d$, $d\geqslant 2$, рассмотрим задачу

$$ \begin{equation} \begin{gathered} \, u^\varepsilon\in H^1(\mathbb{R}^d), \qquad (A_\varepsilon+1) u^\varepsilon=f, \\ A_\varepsilon=-\operatorname{div}(a^\varepsilon(x)\nabla), \end{gathered} \end{equation} \tag{1.1} $$
с $\varepsilon$-периодической матрицей коэффициентов $a^\varepsilon(x)=a(y)|_{y=\varepsilon^{-1}x}$, $\varepsilon> 0$ – малый параметр. Предполагается, что 1-периодическая измеримая вещественная матрица $a(y)=\{a_{ij}(y)\}_{i,j=1}^d$ ограничена и положительно определена, т.е. удовлетворяет неравенствам
$$ \begin{equation} \|{a}(\cdot)\|_{L^\infty(\mathbb{R}^{d\times d})}\leqslant \lambda_1, \end{equation} \tag{1.2} $$
$$ \begin{equation} {a}(\cdot)\xi\cdot\xi\geqslant \lambda_0|\xi|^2 \quad \forall\, \xi \in\mathbb{R}^d \end{equation} \tag{1.3} $$
с некоторыми положительными константами $\lambda_0$ и $\lambda_1$. Уравнение (1.1) разрешимо для любой правой части $ f\in H^{-1}(\mathbb{R}^d)=(H^1(\mathbb{R}^d))^*$, при этом резольвента $(A_{\varepsilon}+1)^{-1}\colon H^{-1}(\mathbb{R}^d)\to H^1(\mathbb{R}^d)$ есть ограниченный оператор такой, что $\|(A_{\varepsilon}+1)^{-1}\|_{H^{-1}\to H^1}\leqslant C$ равномерно по $\varepsilon$. Все связанные с задачей (1.1) функциональные пространства состоят из вещественнозначных функций.

Усредненной, или предельной при $\varepsilon\to 0$, для (1.1) будет аналогичная задача

$$ \begin{equation} \begin{gathered} \, u\in H^1(\mathbb{R}^d), \qquad (\widehat{A}+1) u=f, \\ \widehat{A}=-\operatorname{div}(\widehat{a}\nabla), \end{gathered} \end{equation} \tag{1.4} $$
где постоянная матрица $\widehat{a}$ того же класса (1.3) и находится с помощью решений задач на ячейке периодичности $Y=[-1/2,1/2)^d$ (см. (2.1), (2.3)). Хорошо известно [1]–[5], что решения задач (1.1) и (1.4) связаны сходимостью $\lim_{\varepsilon\to 0}\|u^\varepsilon-u\|_{L^2(\mathbb{R}^d)}=0$ и можно уточнить скорость сходимости по параметру $\varepsilon$. Наиболее общий результат в этом направлении получен сравнительно недавно: если $f\in L^2(\mathbb{R}^d)$, то верна оценка
$$ \begin{equation} \|u^\varepsilon-u\|_{L^2(\mathbb{R}^d)}\leqslant C\varepsilon \|f\|_{L^2(\mathbb{R}^d)}, \qquad C=\mathrm{const}(d,\lambda), \end{equation} \tag{1.5} $$
которая доказана впервые в [6], а несколько позже другим методом в [7]. Эту оценку можно записать в операторном виде в терминах резольвент:
$$ \begin{equation} \|(A_\varepsilon+1)^{-1}-(\widehat A+1)^{-1}\|_{L^2 (\mathbb{R}^d)\to L^2 (\mathbb{R}^d)}\leqslant C\varepsilon. \end{equation} \tag{1.6} $$
Видим, что резольвента $(\widehat A+1)^{-1}$ приближает резольвенту $(A_\varepsilon+1)^{-1}$ в операторной $L^2(\mathbb{R}^d)$-норме с погрешностью порядка $\varepsilon$. Для аппроксимации резольвенты исходного оператора с погрешностью того же порядка $\varepsilon$, как в (1.6), но в более сильной операторной норме $\|\cdot\|_{L^2 (\mathbb{R}^d)\to H^1 (\mathbb{R}^d)}$ нужно к нулевому приближению $(\widehat A+1)^{-1}$ добавить подходящий корректор; а именно, справедлива оценка
$$ \begin{equation} \|(\widehat A+1)^{-1}+\varepsilon K_1(\varepsilon)-(A_\varepsilon+1)^{-1}\|_{L^2 (\mathbb{R}^d)\to H^1 (\mathbb{R}^d)}\leqslant C\varepsilon, \end{equation} \tag{1.7} $$
где $K_1(\varepsilon)f(x)=N(x/\varepsilon)\,{\cdot}\,\nabla u(x)$, $u=(\widehat A+1)^{-1}f$ и 1-периодический вектор $N(y)=\{N_j(y)\}_{j=1}^d$ составлен из решений основных задач на ячейке периодичности $Y$, упомянутых выше. Оценка (1.7) впервые доказана в [8]; использован метод Жикова, получивший в [8] по сравнению с первоначальным его вариантом из [7] определенное развитие.

Еще более сузим действие резольвенты $(A_\varepsilon+1)^{-1}$. Рассматривая резольвенту как оператор в $H^1 (\mathbb{R}^d)$, найдем ее аппроксимацию с погрешностью порядка $O(\varepsilon^2)$; иными словами, установим асимптотику

$$ \begin{equation} (A_\varepsilon+1)^{-1}=(\widehat A+1)^{-1}+\varepsilon \mathcal{K}_1(\varepsilon)+\varepsilon^2 \mathcal{K}_2(\varepsilon)+O(\varepsilon^2) \end{equation} \tag{1.8} $$
в операторной $H^1(\mathbb{R}^d)$-норме (результат сформулирован точно в теореме 4.1). С этой целью вначале найдем аппроксимации для решения уравнения (1.1) с подходящей оценкой погрешности в норме $H^1(\mathbb{R}^d)$. Такие аппроксимации строятся в виде двухмасштабного разложения, как в методе Бахвалова [1], с необходимым количеством корректоров, дополняющих нулевое приближение. При этом все корректоры зависят одновременно от “медленной” и “быстрой” переменных $x$ и $x/\varepsilon$ и отличаются от аналогичных членов в двухмасштабных разложениях метода Бахвалова лишь возможным сглаживанием по медленной переменной. Необходимость сглаживания объясняется недостаточной регулярностью данных задачи (к ним относим коэффициенты и правую часть уравнения), из-за чего двухмасштабное разложение не определяется корректно без сглаживания. Нулевое приближение в разложении зависит только от “медленной” переменной $x$, но само строится как разложение по степеням $\varepsilon$ (и, значит, тоже зависит от $\varepsilon$). Для приближения с погрешностью порядка $\varepsilon^2$ его можно взять в виде суммы
$$ \begin{equation} U_0^\varepsilon(x)=u(x)+\varepsilon u^1(x) \end{equation} \tag{1.9} $$
решения $u(x)$ усредненного уравнения (1.4) и решения $u^1(x)$ другого усредненного уравнения (c правой частью, зависящей от $u$)
$$ \begin{equation} (\widehat{A}+1) u^1=-Bu,\qquad Bu=- b_{jkl} D_jD_kD_l u, \end{equation} \tag{1.10} $$
где $b_{jkl}$ – специально подобранные постоянные коэффициенты, которые находятся через решения периодических задач (2.1) и (2.7) по формулам (2.9), $D_j= \partial/\partial x_j$ – дифференцирование по $j$-й переменной. Здесь, как и всюду далее, по повторяющимся индексам подразумевается суммирование от 1 до $d$.

Заметим, что в силу (1.4), (1.9) и (1.10) выполнено равенство

$$ \begin{equation} (\widehat{A}+\varepsilon B )U_0^\varepsilon+U_0^\varepsilon=f+\varepsilon^2 B u^1. \end{equation} \tag{1.11} $$

Первоначально в качестве приближения к решению исходной задачи возьмем двухмасштабную функцию описанного выше типа, сглаженную по медленным переменным во всех слагаемых,

$$ \begin{equation} w^\varepsilon(x)=u^{,\varepsilon}(x)+\varepsilon\,U_1^\varepsilon(x) +\varepsilon^2\,U_2^\varepsilon(x), \end{equation} \tag{1.12} $$
где нулевое приближение $u^{,\varepsilon}(x)$ есть сглаженная функция (1.9), т.е.
$$ \begin{equation} u^{,\varepsilon}(x)=\Theta^\varepsilon(u(x)+\varepsilon u^1(x)) \end{equation} \tag{1.13} $$
с подходящим оператором сглаживания $\Theta^\varepsilon$, а первый и второй корректоры строятся как
$$ \begin{equation} \begin{gathered} \, U_1^\varepsilon(x)=N\biggl(\frac{x}{\varepsilon}\biggr)\cdot\nabla u^{,\varepsilon}(x)=N_j\biggl(\frac{x}{\varepsilon}\biggr)D_ju^{,\varepsilon}(x), \\ U_2^\varepsilon(x)=N_{jk}\biggl(\frac{x}{\varepsilon}\biggr)D_jD_k u^{,\varepsilon}(x). \end{gathered} \end{equation} \tag{1.14} $$
Здесь 1-периодические функции $N_j(y)$ и $N_{jk}(y)$ суть решения задач (2.1) и (2.7); в качестве оператора сглаживания $ \Theta^\varepsilon$ можно брать итерации оператора сглаживания по Стеклову $S^\varepsilon$, например $\Theta^\varepsilon=S^\varepsilon S^\varepsilon$. Наконец, сам оператор сглаживания $S^\varepsilon$ определяется по формуле
$$ \begin{equation} (S^\varepsilon\varphi)(x)=\int_Y \varphi(x-\varepsilon\omega)\,d\omega, \qquad Y=\biggl[-\frac12,\frac12\biggr)^d, \end{equation} \tag{1.15} $$
для любой функции $\varphi\in L^1_{\mathrm{loc}}(\mathbb{R}^d)$.

Теорема 1.1. Пусть в уравнении (1.1) правая часть $f$ принадлежит $H^1(\mathbb{R}^d)$. Тогда функция, заданная в (1.12)(1.14), приближает решение задачи (1.1) с оценкой

$$ \begin{equation} \|u^\varepsilon-w^\varepsilon\|_{H^1(\mathbb{R}^d)} \leqslant C\varepsilon^2 \|f\|_{H^1(\mathbb{R}^d)}, \end{equation} \tag{1.16} $$
где константа $C$ зависит лишь от размерности $d$ и постоянных $\lambda_0$, $\lambda_1$ из условий (1.2) и (1.3).

1.2.

Теорема 1.1 доказана в § 4 (в пп. 4.1, 4.2); используется метод Жикова, идущий от [7] и [8]. Теорема 1.1 является основным техническим результатом, из него извлекаем другие как более или менее обычные следствия. Например, от аппроксимации $w^\varepsilon$ перейдем к более простой

$$ \begin{equation} v^\varepsilon(x)=u(x)+\varepsilon u^1(x) +\varepsilon N_j\biggl(\frac{x}{\varepsilon}\biggr) D_j(u(x)+\varepsilon u^1(x))+\varepsilon^2 N_{jk}\biggl(\frac{x}{\varepsilon}\biggr)D_jD_kS^\varepsilon u(x) \end{equation} \tag{1.17} $$
за счет упрощения каждого из трех слагаемых суммы (1.12), в частности, со сглаживанием, притом вида $S^\varepsilon$, лишь во втором корректоре. Благодаря сглаживанию и мультипликаторным свойствам градиента решения задачи на ячейке (2.1) все участвующие в разложениях (1.12) и (1.17) члены принадлежат пространству $H^1(\mathbb{R}^d)$ в наших предположениях. Это следует из приведенных ниже лемм 3.1, 3.3 и 2.2, а также эллиптических оценок
$$ \begin{equation} \|u\|_{H^{3}(\mathbb{R}^d)}\leqslant c \|f\|_{H^1(\mathbb{R}^d)}, \end{equation} \tag{1.18} $$
$$ \begin{equation} \|u^1\|_{H^{2}(\mathbb{R}^d)}\leqslant c \|Bu\|_{L^2(\mathbb{R}^d)}\leqslant C\|f\|_{H^1(\mathbb{R}^d)} \end{equation} \tag{1.19} $$
для решений усредненных уравнений.

При выводе оценки (1.16) слагаемые в (1.12) должны быть подстроены друг под друга и потому все содержат двойное сглаживание по Стеклову. Оно прежде всего требуется в корректоре $U_2^\varepsilon(x)$, во-первых, для принадлежности его пространству $H^1(\mathbb{R}^d)$ и, во-вторых, при оценке невязки построенного приближения в уравнении (1.1) (см. доказательство теоремы 1.1 в п. 4.1). Наоборот, в разложении (1.17) сглаживания сняты всюду, где только можно, чтобы максимально приблизиться к анзатцу Бахвалова из [1].

Из (1.16), используя свойства сглаживания (см. § 3) и мультипликаторные свойства градиента решения задачи (2.1), отмеченные в лемме 2.2, выводим

$$ \begin{equation} \|u^\varepsilon-{v}^\varepsilon\|_{H^1(\mathbb{R}^d)}\leqslant C\varepsilon^2 \|f\|_{H^1(\mathbb{R}^d)} \end{equation} \tag{1.20} $$
с константой $C$ того же типа, как в (1.16), что подробно объясняется в п. 4.3.

Оценки (1.16) и (1.20) можно записать в операторных терминах и получить, например, асимптотику (1.8) с точным видом корректоров. Это сделано в п. 4.4.

Метод построения резольвентных аппроксимаций в операторной энергетической норме, изложенный сначала в целях наглядности и простоты на примере скалярной задачи (1.1), перенесен в § 5 на случай матричных операторов, действующих в пространстве вектор-функций. При этом двухмасштабное разложение типа (1.12) принципиально не меняется, но приходится использовать более громоздкий математический аппарат, связанный с тензорами четвертого и пятого порядков. Обобщением теоремы 1.1 на этот случай является теорема 5.1, а операторная асимптотика типа (1.8) указана в теореме 5.2. В § 5 приводятся также вытекающие из теоремы 5.2 асимптотики резольвенты в более слабых операторных нормах $\|\cdot\|_{H^1\to L^2}$ и $\|\cdot\|_{H^1\to H^{-1}}$.

1.3.

Построение приближений для решения задачи (1.1) в энергетической норме с погрешностью $O(\varepsilon^2)$ при минимальных условиях на регулярность данных задачи — естественный шаг после получения результата (1.7). Приближение из (1.16) ценно само по себе, но оно востребовано также как вспомогательное для построения резольвентных аппроксимаций в операторной норме $\|\cdot\|_{H^1\to L^2}$ с точностью $O(\varepsilon^3)$, что показано в [9] в скалярном симметричном вещественном случае. Так работает метод для получения подобных аппроксимаций, альтернативный по сравнению со спектральным (теоретико-операторным) методом, примененным в работе [10], где впервые изучались улучшенные резольвентные аппроксимации с учетом первого и второго корректоров в операторной норме $\|\cdot\|_{H^1\to L^2}$. Наш альтернативный подход концептуально проще и согласуется с идеями Н. С. Бахвалова из [1], в которые привносится из метода Жикова ряд усовершенствований таких, как сглаживание приближений или специальный анализ невязки приближений. Применение сглаживания позволяет ослабить условия на регулярность данных задачи, в которых справедливы доказываемые оценки, а специальный анализ невязки приближения позволяет в построенных приближениях минимизировать число слагаемых.

До выхода статьи [10] улучшенные резольвентные аппроксимации были получены в операторной норме $\|\,{\cdot}\,\|_{L^2\to L^2}$ с погрешностью $O(\varepsilon^2)$ (см. [11] и [12]). Чтобы повысить точность приближений до порядка $\varepsilon^3$, в [10] потребовалось сузить действие резольвенты и рассмотреть ее как оператор из $H^1$ в $L^2$. В норме $\|\,{\cdot}\,\|_{L^2\to L^2}$ подобные аппроксимации невозможны. Аналогично, когда приближаем решение задачи (1.1) в энергетической $H^1$-норме, точность приближения порядка $\varepsilon$ достигается, если правая часть $f$ принадлежит $L^2(\mathbb{R}^d)$ (см. (1.7)). Для точности порядка $\varepsilon^2$ требуется повысить минимальную регулярность $f$ (см. (1.16) с $f\in H^1(\mathbb{R}^d)$).

Оценки (1.16) и (1.20) доказаны в [13] в предположении, что скалярный оператор $A_\varepsilon$ в задаче (1.1) самосопряженный. В этом случае приближение $v^\varepsilon$ из оценки (1.20) берется без функции $u^1$ (см. (1.17)), следовательно, не вводится второе усредненное уравнение. Здесь существенным является отмеченный и доказанный в [13] факт о равенстве нулю формы $\sum_{i,j,k}b_{ijk}\xi_{i}\xi_{j}\xi_{k}$, $\xi\in \mathbb{R}^d$, связанной с оператором $B$ из (1.10). Это равенство справедливо только в “скалярном симметрическом вещественном случае”, когда коэффициенты $\{b_{ijk}\}$ обладают богатой симметрией.

Наша цель — перенести, опираясь на метод Жикова, результат работы [13] на более широкий класс эллиптических операторов – на матричные несамосопряженные операторы с комплексными коэффициентами, для которых конструкция из [13] не проходит, как и метод из работы [10]. На помощь приходит техника Бахвалова: искомое приближение к точному решению исходной задачи строится как двухмасштабное разложение, в нем нулевое приближение, зависящее лишь от медленной переменной, само ищется в виде разложения по степеням $\varepsilon$, что приводит к рассмотрению нескольких усредненных задач, определяемых рекуррентно. В результате происходит сращивание двух методов, Бахвалова и Жикова, что составляет примечательную особенность настоящей статьи.

§ 2. Задачи на ячейке

Введем $\mathcal{W}=\{\varphi\in H^1_{\mathrm{per}}(Y)\colon \langle \varphi\rangle=0\}$ – соболевское пространство периодических функций ($Y=[-1/2,1/2)$ – ячейка периодичности) с нулевым средним

$$ \begin{equation*} \langle \varphi\rangle=\int_Y \varphi(y)\,dy. \end{equation*} \notag $$
Рассмотрим задачи на ячейке
$$ \begin{equation} N_j\in \mathcal{W}, \qquad \operatorname{div}(a(\nabla N_j+e_j))=0, \quad j=1,\dots,d, \end{equation} \tag{2.1} $$
$e_1,\dots,e_d$ – канонический базис в $\mathbb{R}^d$. Решения задач (2.1) можно понимать в смысле распределений в $\mathbb{R}^d$, а также в смысле интегрального тождества по ячейке $Y$ на пробных функциях из $ C_{\mathrm{per}}^\infty(Y)$. Последнее по замыканию распространяется на все функции из энергетического пространства $\mathcal{W}$, т.е.
$$ \begin{equation} \langle a\nabla N_j\cdot\nabla\varphi \rangle=-\langle a e_j\cdot\nabla\varphi \rangle, \qquad \varphi\in \mathcal{W}. \end{equation} \tag{2.2} $$
Отсюда следует разрешимость задачи (2.1) и оценка $\|N_j\|_{\mathcal{W}}\leqslant c$, $c=\mathrm{const}(\lambda)$. Двоякая точка зрения на уравнение (2.1) переносится на подобные дифференциальные соотношения для периодических функций (например, в (2.5)(2.7), (2.10)).

Усредненная матрица $\widehat{a}$ определяется соотношениями

$$ \begin{equation} \widehat{a}e_j=\langle a(e_j+\nabla N_j)\rangle, \qquad j=1,\dots,d, \end{equation} \tag{2.3} $$
и принадлежит классу (1.3). Отсюда следуют эллиптические оценки (1.18) и (1.19).

Введем векторы

$$ \begin{equation} g_j=a(e_j+\nabla N_j)-\widehat{a}e_j, \qquad j=1,\dots,d. \end{equation} \tag{2.4} $$
Поскольку
$$ \begin{equation} \operatorname{div}g_j=0, \qquad \langle g_j\rangle=0, \end{equation} \tag{2.5} $$
к векторам $g_j$ применимо следующее утверждение, доказанное в [5].

Лемма 2.1. Пусть $g\in L_{\mathrm{per}}^2(Y)^d$, $\langle g\rangle=0$ и $\operatorname{div}g=0$. Тогда найдется кососимметрическая матрица $G\in H^1_{\mathrm{per}}(Y)^{d\times d}$ такая, что $\langle G\rangle=0$, $\operatorname{Div}G=g$, $\|G\|_{H^1}\leqslant c \|g\|_{L^2}$.

Здесь и далее обозначаем через $\operatorname{Div} G$ дивергенцию от матрицы $G=\{G_{st}\}_{s,t=1}^d$, вычисляемую построчно, так что $\operatorname{Div}G$ есть вектор $\{D_tG_{st}\}_{s=1}^d$.

По лемме 2.1 найдутся кососимметрические матрицы $G_j$ такие, что

$$ \begin{equation} \langle G_j\rangle=0, \quad\operatorname{Div}G_j=g_j, \quad \|G_j\|_{H^1}\leqslant c \|g_j\|_{L^2}, \qquad j=1,\dots,d. \end{equation} \tag{2.6} $$

Рассмотрим также задачи на ячейке

$$ \begin{equation} N_{ij}\in \mathcal{W}, \qquad\operatorname{div}(a\nabla N_{ij}+aN_je_i-G_je_i)=0, \quad i,j=1,\dots,d, \end{equation} \tag{2.7} $$
где $N_j$ – решения задач (2.1) и матрицы $G_j$ – их производные, определенные соотношениями (2.4) и (2.6). Очевидны разрешимость этих задач и оценка $\|N_{ij}\|_{\mathcal{W}}\leqslant c$, $ c=\mathrm{const}(\lambda)$.

Для всех индексов $i,j=1,\dots,d$ введем связанные с уравнением (2.7) векторы

$$ \begin{equation} \widetilde{g}_{ij}=a\nabla N_{ij}+aN_je_i-G_je_i- b_{ij}, \end{equation} \tag{2.8} $$
где
$$ \begin{equation} b_{ij}=\langle a\nabla N_{ij}+aN_je_i\rangle. \end{equation} \tag{2.9} $$
Очевидны свойства
$$ \begin{equation} \operatorname{div}\widetilde{g}_{ij}=0, \qquad\langle \widetilde{g}_{ij}\rangle=0. \end{equation} \tag{2.10} $$

Отметим специфические для скалярного случая свойства решения основной задачи на ячейке (2.1). Прежде всего, $N_j\in L^\infty(Y)$ в силу обобщенного принципа максимума (см., например, [14], [15]). Кроме того, градиент $\nabla N_j$ является мультипликатором из пространства $H^1(\mathbb{R}^d)$ в $L^2(\mathbb{R}^d) ^d$ со следующей оценкой.

Лемма 2.2. Если $(\nabla N_j)^\varepsilon(x)=(\nabla N_j)(x/\varepsilon)$, то

$$ \begin{equation} \begin{gathered} \, \|(\nabla N_j)^\varepsilon\varphi\|_{L^2(\mathbb{R}^d) ^d}\leqslant C(\|\varphi\|_{L^2(\mathbb{R}^d)}+\varepsilon \|\nabla\varphi\|_{L^2(\mathbb{R}^d) ^d}) \quad \forall\, \varphi\in H^1(\mathbb{R}^d), \\ C=\mathrm{const}(d,\lambda). \end{gathered} \end{equation} \tag{2.11} $$

Мультипликаторные свойства градиента решения основной задачи на ячейке впервые отмечены в [16]. Доказательство оценки (2.11) приведено, например, в [8] и [17].

§ 3. О сглаживании

Оценки (1.16) и (1.20) получены с помощью того же подхода, который применялся в [7] и [8]: проблемы, связанные с минимальной регулярностью данных задачи, снимаются введением дополнительного параметра интегрирования. Это можно сделать за счет непосредственного сдвига в построенном приближении, как в [7], либо за счет его сглаживания (например, по Стеклову) по медленной переменной, как в [8]. В настоящей статье выбрана версия метода сдвига, использующая сглаживание по Стеклову и его итерации.

Напомним некоторые свойства оператора сглаживания по Стеклову (см. определение в (1.15)). Далее $\|\cdot\|$ и $(\cdot,\cdot)$ обозначают норму и скалярное произведение в $L^2(\mathbb{R}^d)$ соответственно.

Начнем с хорошо известных неравенств:

$$ \begin{equation} \|S^\varepsilon\varphi\|\leqslant\|\varphi\| \quad \forall\,\varphi\in L^2(\mathbb{R}^d), \end{equation} \tag{3.1} $$
$$ \begin{equation} \|S^\varepsilon\varphi-\varphi\|\leqslant \frac{\sqrt{d}}2\,\varepsilon\|\nabla\varphi\| \quad \forall\,\varphi\in H^1(\mathbb{R}^d). \end{equation} \tag{3.2} $$
Отметим также очевидное равенство $S^\varepsilon(\nabla \varphi)=\nabla (S^\varepsilon\varphi)$, которое далее систематически используется.

Важную роль в нашем методе играют следующие две леммы, доказанные в [8], [17].

Лемма 3.1. Если $\varphi\in L^2(\mathbb{R}^d)$, $b\in L^2_{\mathrm{per}}(Y)$ и $b^\varepsilon(x)=b(\varepsilon^{-1}x)$, то

$$ \begin{equation} \|b^\varepsilon S^\varepsilon\varphi\|\leqslant\|b\|_{L^2(Y)}\|\varphi\|. \end{equation} \tag{3.3} $$

Лемма 3.2. Если $b\in L^2_{\mathrm{per}}(Y)$, $\displaystyle \int_Yb(y)\,dy=0$, $b^\varepsilon(x)=b(\varepsilon^{-1}x)$, $\varphi\in L^2(\mathbb{R}^d)$ и $\Phi\in H^1(\mathbb{R}^d)$, то

$$ \begin{equation} |(b^\varepsilon S^\varepsilon\varphi,\Phi)|\leqslant C\varepsilon\|b\|_{L^2(Y)}\|\varphi\|\, \|\nabla \Phi\|, \qquad C=\mathrm{const}(d). \end{equation} \tag{3.4} $$

Оценка (3.2) может быть улучшена в условиях большей регулярности. Например,

$$ \begin{equation} \|S^\varepsilon\varphi-\varphi\|\leqslant C\varepsilon^2\|\nabla^2\varphi\| \quad \forall\,\varphi\in H^2(\mathbb{R}^d), \qquad C=\mathrm{const}(d). \end{equation} \tag{3.5} $$
Из (3.5) следует аналогичная оценка со сдвигом по шкале соболевских пространств:
$$ \begin{equation} \|S^\varepsilon f-f\|_{H^{-1}(\mathbb{R}^d)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d)} \quad \forall\, f\in H^1(\mathbb{R}^d), \qquad C=\mathrm{const}(d). \end{equation} \tag{3.6} $$
Действительно, введем функцию $v=(-\Delta+1)^{-1}f$, где $\Delta=\operatorname{div}\nabla$ – лапласиан. Тогда
$$ \begin{equation*} \begin{gathered} \, (S^\varepsilon f-f,\varphi)=((-\Delta+1)S^\varepsilon v-(-\Delta+1)v,\varphi)= (\nabla(S^\varepsilon v-v),\nabla\varphi)+(S^\varepsilon v-v,\varphi), \\ \varphi\in H^1(\mathbb{R}^d), \end{gathered} \end{equation*} \notag $$
где к обеим разностям $S^\varepsilon v-v$ и $\nabla(S^\varepsilon v-v)=S^\varepsilon (\nabla v)-\nabla v$ применимо неравенство (3.5), так как по построению $v\in H^3(\mathbb{R}^d)$ с оценкой $\|v\|_{H^3(\mathbb{R}^d)} \leqslant c_0\|f\|_{H^1(\mathbb{R}^d)}$. В итоге
$$ \begin{equation*} \begin{aligned} \, |(S^\varepsilon f-f,\varphi)| &\leqslant c\varepsilon^2(\|\nabla^3v\|\,\|\nabla\varphi\|+\|\nabla^2v\|\,\|\varphi\|) \\ &\leqslant c\varepsilon^2\|v\|_{H^3}\|\varphi\|_{H^1}\leqslant C\varepsilon^2\|f\|_{H^1}\|\varphi\|_{H^1}, \end{aligned} \end{equation*} \notag $$
откуда вытекает оценка (3.6).

Рассмотрим также оператор сглаживания общего вида

$$ \begin{equation} \Theta^\varepsilon\varphi(x)=\int_{\mathbb{R}^d}\varphi(x-\varepsilon\omega)\theta(\omega)\,d\omega. \end{equation} \tag{3.7} $$
Предположим, что ядро сглаживания $\theta\in L^\infty(\mathbb{R}^d)$ имеет компактный носитель, $\theta\geqslant 0$ и $\displaystyle\int_{\mathbb{R}^d} \theta(x)\,dx=1$.

Оценки (3.1)(3.3), сформулированные для оператора сглаживания Стеклова, остаются в силе для общего оператора сглаживания (3.7) с единственной оговоркой, что константы в их правых частях зависят теперь не только от размерности $d$, но и от ядра сглаживания $\theta$. Если $\theta$ четно, то для сглаживания $\Theta^\varepsilon$ верны также свойства типа (3.5) и (3.6).

Следующие свойства оператора (3.7) или их аналоги отмечены в [18] и [19].

Лемма 3.3. Пусть ядро сглаживания $\theta$ есть липшицева функция. Тогда если $b\in L^2_{\mathrm{per}}(Y)$, $b_\varepsilon(x)=b(x/\varepsilon)$ и $\varphi\in L^2(\mathbb{R}^d)$, то

$$ \begin{equation} \|\nabla\Theta^\varepsilon\varphi\|\leqslant C\varepsilon^{-1}\|\varphi\|, \qquad C=\mathrm{const}(\theta,d), \end{equation} \tag{3.8} $$
$$ \begin{equation} \|b_\varepsilon\nabla\Theta^\varepsilon\varphi\|\leqslant C\varepsilon^{-1} \langle |b|^2\rangle^{1/2}\|\varphi\|, \qquad C=\mathrm{const}(\theta,d). \end{equation} \tag{3.9} $$

Очевидно, что оператор сглаживания Стеклова $S^\varepsilon$ задается по формуле (3.7) с ядром сглаживания – характеристической функцией $\theta_1(x)$ куба $Y=[-{1}/{2},{1}/{2})^d$. Двойное сглаживание по Стеклову $S^\varepsilon S^\varepsilon$ есть оператор вида (3.7) с ядром сглаживания, равным свертке $\theta_2=\theta_1*\theta_1$, причем свертку легко подсчитать. Из полученного выражения для ядра сглаживания $\theta_2(x)$ (см. [18]) видно, что это липшицева функция, притом четная; следовательно, к оператору двойного сглаживания по Стеклову применима лемма 3.3, а также неравенства типа (3.5) и (3.6).

§ 4. Оценки в энергетической норме

4.1.

Докажем основной технический результат – теорему 1.1.

Введем обозначение

$$ \begin{equation} (\varphi)_\varepsilon:=\Theta_\varepsilon \varphi \end{equation} \tag{4.1} $$
для функции, сглаженной с помощью оператора $\Theta^\varepsilon=S^\varepsilon S^\varepsilon$. Применяя этот оператор к обеим частям равенства (1.11), получаем
$$ \begin{equation} (\widehat{A}+\varepsilon B )u^{,\varepsilon}+u^{,\varepsilon}=(f)_\varepsilon+\varepsilon^2 B (u^1)_\varepsilon=:f^{,\varepsilon}, \end{equation} \tag{4.2} $$
если учесть определение (1.13).

Оценим невязку приближения (1.12) в уравнении (1.1), записав ее в виде

$$ \begin{equation} (A_\varepsilon+1)w^\varepsilon-f=(A_\varepsilon+1)w^\varepsilon-f^{,\varepsilon} +(f^{,\varepsilon}-f), \end{equation} \tag{4.3} $$
где введенную в (4.2) функцию $f^{,\varepsilon}$ можно представить как сумму
$$ \begin{equation*} f^{,\varepsilon}=(\widehat{A}+1)u^{,\varepsilon}+\varepsilon Bu^{,\varepsilon}. \end{equation*} \notag $$
Тогда
$$ \begin{equation} \begin{aligned} \, \notag (A_\varepsilon+1)w^\varepsilon-f^{,\varepsilon} &=(A_\varepsilon+1)w^\varepsilon-(\widehat{A}+1)u^{,\varepsilon}-\varepsilon B u^{,\varepsilon} \\ &\!\!\! \stackrel{(1.12)}=-\operatorname{div}\bigl(\Gamma(w^\varepsilon,A_\varepsilon) -\Gamma(u^{,\varepsilon},\widehat{A})-\varepsilon\Gamma(u^{,\varepsilon},B)\bigr) +\varepsilon U_1^\varepsilon+\varepsilon^2U_2^\varepsilon, \end{aligned} \end{equation} \tag{4.4} $$
где мы ввели
$$ \begin{equation} \Gamma(w^\varepsilon,A_\varepsilon)=a^\varepsilon\nabla w^\varepsilon, \qquad \Gamma(u^{,\varepsilon},\widehat{A})=\widehat{a}\nabla u^{,\varepsilon}, \qquad \Gamma(u^{,\varepsilon},B)=b_{ij}D_iD_ju^{,\varepsilon}, \end{equation} \tag{4.5} $$
$b_{ij}$ – вектор с компонентами $\{b_{ijk}\}_{k=1}^d$.

Далее для 1-периодической функции $b(y)$ используем обозначение

$$ \begin{equation} b^\varepsilon(x):=b\biggl(\frac{x}{\varepsilon}\biggr). \end{equation} \tag{4.6} $$
Например, $N_j^\varepsilon(x)=N_j(x/\varepsilon) $ или $(a\nabla N_j)^\varepsilon(x)=a(x/\varepsilon)(\nabla N_j)(x/\varepsilon) $.

Простые вычисления дают

$$ \begin{equation} \begin{split} \nabla w^\varepsilon &\stackrel{(1.12)}= \nabla u^{,\varepsilon}+(\nabla N_j)^\varepsilon D_ju^{,\varepsilon}+ \varepsilon(\nabla N_{ij})^\varepsilon D_iD_ju^{,\varepsilon} \\ &\qquad\quad+\varepsilon N_j^\varepsilon \nabla D_ju^{,\varepsilon}+\varepsilon^2 N_{ij}^\varepsilon \nabla D_iD_ju^{,\varepsilon}, \end{split} \end{equation} \tag{4.7} $$
$$ \begin{equation} \begin{split} a^\varepsilon(\nabla u^{,\varepsilon}+(\nabla N_j)^\varepsilon D_ju^{,\varepsilon}) &=(a(e_j+\nabla N_j))^\varepsilon D_ju^{,\varepsilon}\stackrel{(2.4), (4.5)}=g_j^\varepsilon D_ju^{,\varepsilon}+\Gamma(u^{,\varepsilon},\widehat{A}) \\ &\!\!\stackrel{(2.6)}=\Gamma(u^{,\varepsilon},\widehat{A})+\operatorname{Div}(\varepsilon G_j^\varepsilon D_ju^{,\varepsilon})-\varepsilon G_j^\varepsilon \nabla D_ju^{,\varepsilon}, \end{split} \end{equation} \tag{4.8} $$
где учтены представление $g_j^\varepsilon=\operatorname{Div}(\varepsilon G_j^\varepsilon )$ и правило взятия дивергенции от произведения матрицы $G$ на скаляр $\varphi$, а именно $\operatorname{Div}( G\varphi )=\varphi\operatorname{Div}G+G\nabla \varphi$. Вектор $\operatorname{Div}(\varepsilon G_j^\varepsilon D_ju^{,\varepsilon})$ соленоидален в силу кососимметричности матрицы $G_j^\varepsilon$. Из (4.7) и (4.8) выводим
$$ \begin{equation*} \begin{aligned} \, &\operatorname{div}\bigl(\Gamma(w^\varepsilon,A_\varepsilon) -\Gamma(u^{,\varepsilon},\widehat{A})-\varepsilon\Gamma(u^{,\varepsilon},B)\bigr) \\ &\qquad \stackrel{(4.5)}=\varepsilon\operatorname{div} [(a\nabla N_{ij}+a N_je_i-G_je_i-b_{ij})^\varepsilon D_iD_ju^{,\varepsilon}] +\varepsilon^2\operatorname{div} [(a N_{ij})^\varepsilon\nabla D_iD_ju^{,\varepsilon}] \\ &\qquad \stackrel{(2.8)}=\varepsilon\operatorname{div} [\widetilde{g}_{ij}^{\,\varepsilon} D_iD_ju^{,\varepsilon}] +\varepsilon^2\operatorname{div} [(a N_{ij})^\varepsilon\nabla D_iD_ju^{,\varepsilon}]. \end{aligned} \end{equation*} \notag $$
Отсюда в силу соленоидальности вектора $ \widetilde{g}_{ij}$ (см. (2.10)) получим представление
$$ \begin{equation} (A_\varepsilon+1)w^\varepsilon-f\stackrel{(4.3), (4.4)}=-\varepsilon r_0^\varepsilon-\varepsilon^2\operatorname{div} r_1^\varepsilon+\varepsilon U_1^\varepsilon+\varepsilon^2U_2^\varepsilon +(f^{,\varepsilon}-f)=:F^\varepsilon, \end{equation} \tag{4.9} $$
где
$$ \begin{equation*} r_0^\varepsilon:=\widetilde{g}_{ij}^{\,\varepsilon}\cdot\nabla D_iD_ju^{,\varepsilon}, \qquad r_1^\varepsilon:=(a N_{ij})^\varepsilon\nabla D_iD_ju^{,\varepsilon}. \end{equation*} \notag $$
Запишем подробнее составляющие правой части $F^\varepsilon$, раскрывая структуру нулевого приближения $u^{,\varepsilon}$ и при этом обозначая сглаживание оператором $\Theta^\varepsilon$, как в (4.1):
$$ \begin{equation} \nonumber r_0^\varepsilon =\widetilde{g}_{ij}^{\,\varepsilon}\cdot\nabla D_iD_ju^{,\varepsilon}\stackrel{(1.13)}= \widetilde{g}_{ij}^{\,\varepsilon}\cdot\nabla D_iD_j((u)_\varepsilon+\varepsilon(u^1)_\varepsilon) \end{equation} \notag $$
$$ \begin{equation} =\widetilde{g}_{ij}^{\,\varepsilon}\cdot\nabla D_iD_j (u)_\varepsilon+ \varepsilon \widetilde{g}_{ij}^{\,\varepsilon}\cdot\nabla D_iD_j (u^1)_\varepsilon, \end{equation} \tag{4.10} $$
$$ \begin{equation} \nonumber r_1^\varepsilon =(a N_{ij})^\varepsilon\nabla D_iD_ju^{,\varepsilon}\stackrel{(1.13)}= (a N_{ij})^\varepsilon\nabla D_iD_j((u)_\varepsilon+\varepsilon(u^1)_\varepsilon) \end{equation} \notag $$
$$ \begin{equation} =(a N_{ij})^\varepsilon\nabla D_iD_j(u)_\varepsilon+\varepsilon(a N_{ij})^\varepsilon\nabla D_iD_j(u^1)_\varepsilon, \end{equation} \tag{4.11} $$
и аналогично
$$ \begin{equation} U_1^\varepsilon\stackrel{(1.14)}=N^\varepsilon\cdot \nabla u^{,\varepsilon} =N^\varepsilon\cdot \nabla(u)_\varepsilon+\varepsilon N^\varepsilon\cdot \nabla(u^1)_\varepsilon, \end{equation} \tag{4.12} $$
$$ \begin{equation} U_2^\varepsilon\stackrel{(1.14)}=(N_{jk})^\varepsilon D_jD_k u^{,\varepsilon} =(N_{jk})^\varepsilon D_jD_k(u)_\varepsilon+\varepsilon(N_{jk})^\varepsilon D_jD_k(u^1)_\varepsilon. \end{equation} \tag{4.13} $$

Докажем, что

$$ \begin{equation} \|F^\varepsilon\|_{H^{-1}(\mathbb{R}^d)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d)}. \end{equation} \tag{4.14} $$
В самом деле, к слагаемым из (4.11), (4.13) и второму слагаемому в (4.12) применим лемму 3.1 или лемму 3.3; к первым слагаемым в (4.10) и (4.12) применим лемму 3.2; второе слагаемое в (4.10) предварительно, в силу соленоидальности вектора $\widetilde{g}_{ij}^{\,\varepsilon}$, приведем к виду
$$ \begin{equation*} \varepsilon \widetilde{g}_{ij}^{\,\varepsilon}\cdot\nabla D_iD_j (u^1)_\varepsilon=\varepsilon\operatorname{div}[\widetilde{g}_{ij}^{\,\varepsilon} D_iD_j(u^1)_\varepsilon] \end{equation*} \notag $$
и к произведению $\widetilde{g}_{ij}^{\,\varepsilon} D_iD_j(u^1)_\varepsilon$ снова применим лемму 3.1. (Некоторые подробности применения лемм 3.13.3 приведены ниже в п. 4.2.) В результате проведенного анализа получаем оценки
$$ \begin{equation*} \begin{gathered} \, \|r_1^\varepsilon\|_{L^2(\mathbb{R}^d)}\leqslant C(\|\nabla^3 u\|_{L^2(\mathbb{R}^d)}+\|\nabla^2 u^1\|_{L^2(\mathbb{R}^d)}), \\ \|U_2^\varepsilon\|_{L^2(\mathbb{R}^d)}\leqslant C(\|\nabla^2 u\|_{L^2(\mathbb{R}^d)}+\|\nabla^2 u^1\|_{L^2(\mathbb{R}^d)}), \\ \|r_0^\varepsilon\|_{H^{-1}(\mathbb{R}^d)}\leqslant C\varepsilon(\|\nabla^3 u\|_{L^2(\mathbb{R}^d)}+\|\nabla^2 u^1\|_{L^2(\mathbb{R}^d)}), \\ \|U_1^\varepsilon\|_{H^{-1}(\mathbb{R}^d)}\leqslant C\varepsilon(\|\nabla u\|_{L^2(\mathbb{R}^d)}+\|\nabla u^1\|_{L^2(\mathbb{R}^d)}), \end{gathered} \end{equation*} \notag $$
где константы $C$ зависят в конечном итоге от размерности $d$ и норм $\|N_i\|_{\mathcal{W}} $ или $\|N_{ij}\|_{\mathcal{W}} $, а $L^2$-нормы градиентов $\nabla^3 u$, $\nabla^2 u$, $\nabla u$ и $\nabla^2 u^1$, $\nabla u^1$ оцениваются в силу эллиптических оценок (1.18) и (1.19) через норму $\|f\|_{H^1(\mathbb{R}^d)}$.

Наконец, последнее слагаемое $(f^{,\varepsilon}-f)$ в (4.9) запишем в силу (4.2) как сумму

$$ \begin{equation*} f^{,\varepsilon}-f=((f)_\varepsilon -f)+\varepsilon^2 Bu^1. \end{equation*} \notag $$
К разности $(f)_\varepsilon -f$ применим неравенство типа (3.6); кроме того, поскольку оператор $B$ (см. определение в (1.10)) допускает дивергентное представление, то
$$ \begin{equation*} \|Bu^1\|_{H^{-1}(\mathbb{R}^d)}\leqslant C \|\nabla^2u^1\|_{L^2(\mathbb{R}^d)}\stackrel{(1.19)}\leqslant C\|f\|_{H^1(\mathbb{R}^d)}. \end{equation*} \notag $$
Таким образом, оценка (4.14) проверена.

В силу уравнения (1.1) и представления (4.9) для разности $w^\varepsilon-u^\varepsilon$ имеем уравнение

$$ \begin{equation*} (A_\varepsilon+1)(w^\varepsilon-u^\varepsilon)=(A_\varepsilon+1)w^\varepsilon-(A_\varepsilon+1)u^\varepsilon=(A_\varepsilon+1)w^\varepsilon-f \stackrel{(4.9)}=F^\varepsilon \end{equation*} \notag $$
с правой частью $F^\varepsilon$, удовлетворяющей оценке (4.14). Отсюда по энергетическому неравенству для эллиптического уравнения следует искомая оценка (1.16).

Теорема 1.1 доказана.

4.2.

Покажем на некоторых примерах, как применялись выше (при доказательстве оценки (4.14)) леммы 3.13.3. Например, компонентами вектора $r_1^\varepsilon$ из (4.11) являются содержащие сглаживание с помощью оператора $\Theta^\varepsilon=S^\varepsilon S^\varepsilon$ произведения двух типов, $b(x/\varepsilon)(\psi)_\varepsilon$ или $\varepsilon b(x/\varepsilon)(D_j\varphi)_\varepsilon$, с периодической функцией $b\in L^2(Y) $, где $\psi(x)=D_jD_kD_m u(x)$ и $\varphi(x)=D_kD_m u^1(x)$ – производные третьего и второго порядков от решений усредненных уравнений (1.4) и (1.10) соответственно, для которых имеются оценки (1.18) и (1.19). Заметим, что ядро сглаживания оператора $\Theta^\varepsilon$ допускает применение леммы 3.3, что объяснено в конце § 3. По лемме 3.1 или лемме 3.3 имеем оценки

$$ \begin{equation*} \begin{gathered} \, \biggl\|b\biggl(\frac{x}{\varepsilon}\biggr)(\psi)_\varepsilon\biggr\| \stackrel{(3.3)}\leqslant \langle |b|^2\rangle^{1/2}\|S^\varepsilon\psi\| \stackrel{(3.1)}\leqslant \langle |b|^2\rangle^{1/2}\|\psi\| , \\ \varepsilon\biggl\|b\biggl(\frac{x}{\varepsilon}\biggr)(D_j\varphi)_\varepsilon\biggr\| \stackrel{(3.9)}\leqslant C\langle |b|^2\rangle^{1/2}\|\varphi\|. \end{gathered} \end{equation*} \notag $$
В сумму $r_0^\varepsilon$ из (4.11) входят слагаемые вида $b(x/\varepsilon)(\psi)_\varepsilon$, уже рассмотренные выше, но с дополнительным условием $ \langle b\rangle=0$. Для них по лемме 3.2 имеем оценку
$$ \begin{equation*} \biggl\|b\biggl(\frac{x}{\varepsilon}\biggr)(\psi)_\varepsilon\biggr\|_{H^{-1}(\mathbb{R}^d)}\leqslant C \varepsilon\langle |b|^2\rangle^{1/2}\|S^\varepsilon\psi\| \stackrel{(3.1)}\leqslant C\varepsilon\langle |b|^2\rangle^{1/2}\|\psi\|. \end{equation*} \notag $$

4.3.

Поясним вывод оценки (1.20) из (1.16). Изучим разность двух приближений, $w^\varepsilon$ и $v^\varepsilon$, определенных в (1.12)(1.14) и (1.17). Будем использовать обозначение (4.1) для участвующего в $w^\varepsilon$ двойного сглаживания по Стеклову. Очевидно,

$$ \begin{equation*} \begin{aligned} \, w^\varepsilon-v^\varepsilon &=((u)_\varepsilon-u)+\varepsilon((u^1)_\varepsilon-u^1)+\varepsilon N_j^\varepsilon ((D_j u)_\varepsilon-D_ju) \\ &\qquad+\varepsilon^2 N_j^\varepsilon ((D_ju^1)_\varepsilon-D_ju^1) \\ &\qquad +\varepsilon^2 N_{jk}^\varepsilon ((D_jD_k u)_\varepsilon-S^\varepsilon(D_jD_k u))+\varepsilon^3 N_{jk}^\varepsilon (D_jD_k u^1)_\varepsilon \\ &=((u)_\varepsilon-u)+\varepsilon((u^1)_\varepsilon-u^1)+\varepsilon N_j^\varepsilon ((D_j u)_\varepsilon-D_ju) \\ &\qquad+\varepsilon^2 N_j^\varepsilon ((D_ju^1)_\varepsilon-D_ju^1)+r(\varepsilon), \end{aligned} \end{equation*} \notag $$
необходимая оценка в $L^2$-норме слагаемых, включенных в остаточный член $r(\varepsilon)$, получается по лемме 3.1. К разностям $(u)_\varepsilon-u$, $(D_ju)_\varepsilon-D_ju$ и $(u^1)_\varepsilon- u^1$ применимо неравенство типа (3.5) для оператора сглаживания $\Theta^\varepsilon=S^\varepsilon S^\varepsilon$. Ввиду того, что $N_j\in L^\infty$, этого достаточно, чтобы заключить, что $\|w^\varepsilon-v^\varepsilon\|_{L^2(\mathbb{R}^d)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d)}$.

Теперь запишем градиент $\nabla(w^\varepsilon-v^\varepsilon)$ как сумму:

$$ \begin{equation*} \begin{aligned} \, \nabla(w^\varepsilon-v^\varepsilon) &=((\nabla u)_\varepsilon-\nabla u)+\varepsilon((\nabla u^1)_\varepsilon-\nabla u^1)+ \varepsilon N_j^\varepsilon \nabla((D_ju)_\varepsilon-D_ju) \\ &\qquad+ \varepsilon^2 N_j^\varepsilon \nabla((D_ju^1)_\varepsilon-D_ju^1) +(\nabla N_j)^\varepsilon( (D_ju)_\varepsilon-D_ju) \\ &\qquad+\varepsilon(\nabla N_j)^\varepsilon( (D_ju^1)_\varepsilon-D_ju^1) +\varepsilon^2 N_{jk}^\varepsilon \nabla((D_jD_ku)_\varepsilon-S^\varepsilon D_jD_ku) \\ &\qquad+\varepsilon(\nabla N_{jk})^\varepsilon((D_jD_ku)_\varepsilon-S^\varepsilon D_jD_ku) \\ &\qquad+\varepsilon^2(\nabla N_{jk})^\varepsilon(D_jD_ku^1)_\varepsilon+ \varepsilon^3 N_{jk}^\varepsilon \nabla(D_jD_ku^1)_\varepsilon. \end{aligned} \end{equation*} \notag $$
Последнее слагаемое оценивается по лемме 3.3 с нужной мажорантой, если положить $\varphi=D_jD_ku^1$ и $b(y)=N_{jk}(y)$, так как $D_jD_ku^1\in L^2(\mathbb{R}^d)$ и $\|D_jD_ku^1\|\leqslant C\|f\|_{H^1(\mathbb{R}^d)} $ в силу (1.19); к остальным слагаемым применяем лемму 2.2 или лемму 3.1, а также неравенства типа (3.2), (3.5) и (3.1) для сглаживаний $S^\varepsilon$ и $\Theta^\varepsilon$. Например,
$$ \begin{equation*} \begin{aligned} \, \|(\nabla N_j)^\varepsilon( (D_ju)_\varepsilon-D_ju)\| &\stackrel{(2.11)}\leqslant C (\| (D_ju)_\varepsilon-D_ju\|+\varepsilon\| \nabla((D_ju)_\varepsilon-D_ju)\|) \\ &\!\!\!\!\stackrel{(3.2), (3.5)}\leqslant C\varepsilon^2 \| \nabla^3 u\| \end{aligned} \end{equation*} \notag $$
или
$$ \begin{equation*} \varepsilon^2\|(\nabla N_{jk})^\varepsilon( D_jD_ku^1)_\varepsilon\|\stackrel{(3.3)}\leqslant C \varepsilon^2\| D_jD_ku^1\|, \end{equation*} \notag $$
далее для градиентов $\nabla^3 u$ и $\nabla^2 u^1$ используем эллиптические оценки (1.18) и (1.19).

В итоге из анализа разности $w^\varepsilon-v^\varepsilon$ и ее градиента следует

$$ \begin{equation*} \|w^\varepsilon-v^\varepsilon\|_{H^1(\mathbb{R}^d)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d)}, \end{equation*} \notag $$
что вместе с (1.16) по неравенству треугольника дает (1.20).

4.4.

Запишем оценку (1.20) в операторном виде. Прежде всего, группируя слагаемые по степеням $\varepsilon$ и используя обозначение (4.6), имеем

$$ \begin{equation} \begin{aligned} \, \notag v^\varepsilon(x) &\stackrel{(1.17)}=u(x)+\varepsilon (u^1(x) + N^\varepsilon_j(x) D_j u(x)) \\ &\qquad +\varepsilon^2(N^\varepsilon_j(x) D_j u^1(x)+ N_{jk}^\varepsilon(x)D_jD_kS^\varepsilon u(x)). \end{aligned} \end{equation} \tag{4.15} $$
Кроме того, решения уравнений (1.1), (1.4) и (1.10) можно представить через резольвенты:
$$ \begin{equation} u^\varepsilon=(A_\varepsilon+1)^{-1}f, \qquad u=(\widehat A+1)^{-1}f, \qquad u^1=-(\widehat A+1)^{-1}B(\widehat A+1)^{-1}f. \end{equation} \tag{4.16} $$
Если $v^\varepsilon=\mathcal{U}_\varepsilon f$, то в силу (4.15)
$$ \begin{equation} \mathcal{U}_\varepsilon=(\widehat A+1)^{-1}+\varepsilon \mathcal{K}_1(\varepsilon)+\varepsilon^2 \mathcal{K}_2(\varepsilon), \end{equation} \tag{4.17} $$
где
$$ \begin{equation} \begin{gathered} \, \mathcal{K}_1(\varepsilon)=-(\widehat A+1)^{-1}B(\widehat A+1)^{-1} +N^\varepsilon_j(x) D_j(\widehat A+1)^{-1}, \\ \mathcal{K}_2(\varepsilon)=-N^\varepsilon_j(x) D_j(\widehat A+1)^{-1}B(\widehat A+1)^{-1} +N_{jk}^\varepsilon(x)D_jD_kS^\varepsilon (\widehat A+1)^{-1}. \end{gathered} \end{equation} \tag{4.18} $$

Таким образом, доказана

Теорема 4.1. Пусть $A_\varepsilon$ – оператор исходной задачи (1.1), и пусть $\widehat A$ – оператор усредненной задачи (1.4). Пусть операторы $\mathcal{K}_1(\varepsilon)$ и $\mathcal{K}_2(\varepsilon)$ определены формулами (4.18), где участвуют решения $N_j$ и $N_{jk}$ задач на ячейке (см. (2.1) и (2.7)), а также оператор $B$, определенный в (1.10), и оператор сглаживания по Стеклову $S^\varepsilon$, определенный в (1.15). Тогда выполнена оценка

$$ \begin{equation} \|(\widehat A+1)^{-1}+\varepsilon \mathcal{K}_1(\varepsilon)+\varepsilon^2 \mathcal{K}_2(\varepsilon)-(A_\varepsilon+1)^{-1}\|_{H^1(\mathbb{R}^d)\to H^1(\mathbb{R}^d)}\leqslant C\varepsilon^2, \end{equation} \tag{4.19} $$
где константа $C$ зависит лишь от размерности $d$ и постоянных $\lambda_0$, $\lambda_1$ из условий (1.2) и (1.3).

Замечание 4.2. Если оператор $A_\varepsilon$ имеет симметричную матрицу вещественных коэффициентов, аппроксимация резольвенты в оценке (4.19) упрощается. В обоих корректорах (см. (4.18)) обнуляется первое слагаемое, поскольку из-за симметрии в коэффициентах оператор $B=- b_{jkl} D_jD_kD_l$ оказывается фактически нулевым, как показано в [13].

Замечание 4.3. Опираясь на оценку (4.19), с помощью соображений двойственности можно найти аппроксимацию резольвенты $(A_\varepsilon+1)^{-1}$ в операторной норме $\|\cdot\|_{H^1(\mathbb{R}^d)\to L^2(\mathbb{R}^d)}$ с погрешностью порядка $\varepsilon^3$, что проделано в скалярном вещественном симметрическом случае в [9] и согласуется с результатами в [10]. В несимметрическом случае работает тот же метод, но он выдает большее число корректоров, поскольку в изначальной аппроксимации (4.17)(4.18) большее число слагаемых.

§ 5. Векторная задача

5.1.

Рассмотрим векторный аналог задачи (1.1), притом с комплексными коэффициентами. Для этого введем $a(y)=\{a_{jk}^{\alpha\beta}(y)\}_{1\leqslant j,k\leqslant d}^{1\leqslant\alpha,\beta\leqslant n}$ – комплекснозначный 1-периодический тензор четвертого порядка, действующий как линейный оператор в пространстве $(n\times d)$-матриц. Функции $u\colon \mathbb{R}^d\to \mathbb{C}^n$ сопоставим $(n\times d)$-матрицу градиента $D u=\{D_k u^\beta\}_{\beta,k}$, где $D=-i\nabla$ ($i^2=-1$), а также $(n\times d)$-матрицу потока $aD u=\{a_{jk}^{\alpha\beta}D_k u^\beta\}_{\alpha,j}$. Здесь и далее подразумеваем суммирование по повторяющимся индексам: от 1 до $d$, если индексы латинские, и от 1 до $n$, если индексы греческие.

В пространстве функций $u\colon \mathbb{R}^d\to \mathbb{C}^n$ действует дифференциальный оператор второго порядка с $\varepsilon$-периодическими комплексными коэффициентами

$$ \begin{equation} A_\varepsilon u=D^*\biggl(a\biggl(\frac{x}{\varepsilon}\biggr)Du\biggr)= \biggl\{D_j\biggl(a_{jk}^{\alpha\beta}\biggl(\frac{x}{\varepsilon}\biggr)D_k u^\beta\biggr)\biggr\}_{1\leqslant \alpha\leqslant n}. \end{equation} \tag{5.1} $$
Относительно тензора $a(y)=\{a_{jk}^{\alpha\beta}(y)\}$ предполагаем выполненными условия ограниченности и коэрцитивности
$$ \begin{equation} \|a_{jk}^{\alpha\beta}\|_{L^\infty(\mathbb{R}^d)}\leqslant \lambda_1 \quad \forall\, j,k,\alpha,\beta, \end{equation} \tag{5.2} $$
$$ \begin{equation} \operatorname{Re}(aD\varphi,D\varphi)\geqslant \lambda_0\|D\varphi\|^2 \quad \forall\, \varphi\in C_0^\infty(\mathbb{R}^d,\mathbb{C}^n) \end{equation} \tag{5.3} $$
с некоторыми константами $\lambda_0,\lambda_1> 0$. Здесь и далее используем упрощенные обозначения $(\cdot,\cdot)$ и $\|\cdot\|$ для скалярного произведения и нормы в пространствах $L^2(\mathbb{R}^d,\mathbb{C}^n)$ или $L^2(\mathbb{R}^d,\mathbb{C}^{n\times d})$ в зависимости от контекста.

Из (5.3) гомотетией получаем аналогичное неравенство для $\varepsilon$-периодического тензора $a^\varepsilon(x)=a(x/\varepsilon)$, а именно

$$ \begin{equation} \operatorname{Re}(a^\varepsilon D\varphi,D\varphi)\geqslant \lambda_0\|D\varphi\|^2 \quad \forall\, \varphi\in C_0^\infty(\mathbb{R}^d,\mathbb{C}^n). \end{equation} \tag{5.4} $$

Рассмотрим уравнение

$$ \begin{equation} u^\varepsilon\in \mathcal{H}, \qquad A_\varepsilon u^\varepsilon+u^\varepsilon=f, \end{equation} \tag{5.5} $$
с правой частью $f\in \mathcal{H}^*$, где $\mathcal{H}=H^1(\mathbb{R}^d,\mathbb{C}^n)$ и $ \mathcal{H}^*$ – сопряженное пространство. Это уравнение имеет единственное решение. Благодаря неравенству (5.4) выполнена равномерная по $\varepsilon\in(0,1)$ оценка $\|u^\varepsilon\|_\mathcal{H}\leqslant C \|f\|_{\mathcal{H}^*}$. Усредненным для (5.5) будет уравнение
$$ \begin{equation} u\in \mathcal{H}, \qquad\widehat{A} u+u=f, \qquad \widehat{A}u=D^*(\widehat{a} Du ), \end{equation} \tag{5.6} $$
где постоянный тензор четвертого порядка $\widehat{a}=\{\widehat{a}_{jk}^{\alpha\beta}\}$ принадлежит классу (5.3) и находится с помощью решений приведенной ниже задачи на ячейке (см. (5.7) и (5.9)).

5.2.

Введем необходимые 1-периодические объекты для построения двухмасштабного разложения типа (1.12), приближающего решение векторной задачи (5.5).

В соболевском пространстве $\mathcal{W}=\{\varphi\in H^1_{\mathrm{per}}(Y,\mathbb{C}^n)\colon \langle \varphi\rangle=0\}$ периодических вектор-функций ($Y=[-1/2,1/2)$ – ячейка периодичности) с нулевым средним рассмотрим задачу

$$ \begin{equation} N^\alpha_j\in \mathcal{W}, \qquad D^*(a(D N^\alpha_j+e^\alpha_j ))=0, \end{equation} \tag{5.7} $$
с матрицами $e^\alpha_j=\{\delta^\alpha_\beta\delta^k_j\}_{\beta,k}$, $1\leqslant j\leqslant d$, $1\leqslant \alpha\leqslant n$, где $\delta^\alpha_\beta$ и $\delta^k_j$ – символы Кронекера.

Из интегрального неравенства (5.3) на финитных функциях следует аналогичное неравенство на периодических функциях

$$ \begin{equation} \operatorname{Re}(aD\varphi,D\varphi)_{ L^2(Y,\mathbb{C}^{n\times d})}\geqslant \lambda_0\|D\varphi\|_{ L^2(Y,\mathbb{C}^{n\times d})}^2\qquad \forall\, \varphi\in C_{\mathrm{per}}^\infty(Y,\mathbb{C}^n), \end{equation} \tag{5.8} $$
что доказано, например, в [20]. Неравенство (5.8) обеспечивает однозначную разрешимость задачи на ячейке (5.7) для любой матрицы $e^\alpha_j$.

Усредненный тензор $\widehat{a}$ определен соотношениями

$$ \begin{equation} \widehat{a} e^\alpha_j=\langle a(D N^\alpha_j+e^\alpha_j )\rangle, \qquad 1\leqslant j\leqslant d, \quad 1\leqslant \alpha\leqslant n. \end{equation} \tag{5.9} $$
То, что это тензор класса (5.3), доказано, например, в [20].

С задачей (5.7) связаны матрицы

$$ \begin{equation} g^\alpha_j= a(D N^\alpha_j+e^\alpha_j )-\widehat{a} e^\alpha_j, \qquad 1\leqslant j\leqslant d, \quad 1\leqslant \alpha\leqslant n. \end{equation} \tag{5.10} $$
Из (5.7), (5.9) и (5.10) получаем
$$ \begin{equation} \langle g^\alpha_j\rangle=0, \quad D^*g^\alpha_j=0, \qquad 1\leqslant j\leqslant d, \quad 1\leqslant \alpha\leqslant n, \end{equation} \tag{5.11} $$
что, в частности, означает
$$ \begin{equation*} (g^\alpha_j,D\varphi)_{ L^2(Y,\mathbb{C}^{n\times d})}=0 \quad \forall\, \varphi\in C^\infty_{\mathrm{per}}(Y,\mathbb{C}^n). \end{equation*} \notag $$
Отсюда получаем, что строки матрицы $g^\alpha_j=\{g^{\alpha\beta}_{jm}\}_{\beta,m}$ являются соленоидальными $d$-мерными векторами. По лемме 2.1 найдутся $(d\times d)$-матрицы $G^{\alpha\beta}_j=\{G^{\alpha\beta}_{jmk}\}_{m,k}\in H^1_{\mathrm{per}}(Y,\mathbb{C}^{d\times d}) $ с нулевым средним такие, что
$$ \begin{equation} g^{\alpha\beta}_{jm}=D_k G^{\alpha\beta}_{jmk}, \qquad G^{\alpha\beta}_{jmk}=-G^{\alpha\beta}_{jkm}. \end{equation} \tag{5.12} $$
Таким образом, возникает 1-периодический тензор пятого порядка $\{G^{\alpha\beta}_{jmk}(y)\}$.

Рассмотрим еще одну периодическую задачу

$$ \begin{equation} N^\alpha_{jk}\in \mathcal{W}, \quad D^*(aD N^\alpha_{jk}+a(N^\alpha_j\otimes e_k)+G^\alpha_{jk})=0, \qquad 1\leqslant j,k\leqslant d, \quad 1\leqslant \alpha\leqslant n, \end{equation} \tag{5.13} $$
в которой задействованы тензорное произведение векторов $ N^\alpha_j$ и $e_k=\{\delta_k^j\}_j$, а также $(n\times d)$-матрица $G^\alpha_{jk}=\{G^{\alpha\beta}_{jkm}\}_{\beta,m}$, составленная из компонент тензора пятого порядка, стоящего в (5.12). Очевидна однозначная разрешимость задачи (5.13).

Теперь введем постоянные $(n\times d)$-матрицы

$$ \begin{equation} \begin{gathered} \, b^\alpha_{jk}=\{b^{\alpha\beta}_{jkm}\}_{\beta,m}, \qquad 1\leqslant j,k\leqslant d, \quad 1\leqslant \alpha\leqslant n, \\ b^\alpha_{jk}=\langle aD N^\alpha_{jk}+a(N^\alpha_j\otimes e_k)\rangle, \end{gathered} \end{equation} \tag{5.14} $$
дифференциальный оператор $B$ третьего порядка, действующий в пространстве функций $u\colon \mathbb{R}^d\to \mathbb{C}^n$ по правилу
$$ \begin{equation} Bu= D^*b^\alpha_{jk}D_jD_k u^\alpha, \end{equation} \tag{5.15} $$
и, наконец, “второе усредненное уравнение”
$$ \begin{equation} u^1\in \mathcal{H}, \qquad\widehat{A} u^1+u^1=-Bu \end{equation} \tag{5.16} $$
(это аналог уравнения (1.10)). Отметим равенство, которое выполнено в силу уравнений (5.6) и (5.16),
$$ \begin{equation} (\widehat{A}+\varepsilon B)(u+\varepsilon u^1)+u+\varepsilon u^1=f+\varepsilon^2Bu^1. \end{equation} \tag{5.17} $$

Ввиду постоянства тензора $\widehat{a}$ для решений уравнений (5.6) и (5.16) имеют место эллиптические оценки типа (1.18) и (1.19), если функция $f$ в (5.6) принадлежит пространству $H^1(\mathbb{R}^d,\mathbb{C}^n)$, а именно

$$ \begin{equation} \|u\|_{H^3(\mathbb{R}^d,\mathbb{C}^n)}\leqslant C\|f\|_{H^1(\mathbb{R}^d,\mathbb{C}^n)}, \end{equation} \tag{5.18} $$
$$ \begin{equation} \|u^1\|_{H^2(\mathbb{R}^d,\mathbb{C}^n)}\leqslant C\|f\|_{H^1(\mathbb{R}^d,\mathbb{C}^n)}. \end{equation} \tag{5.19} $$

Кроме того, введем $(n\times d)$-матрицы

$$ \begin{equation} \widetilde{g}^{\,\alpha}_{jk}= aD N^\alpha_{jk}+a(N^\alpha_j\otimes e_k)+ G^\alpha_{jk}-b^\alpha_{jk},\qquad 1\leqslant j,k\leqslant d, \quad 1\leqslant \alpha\leqslant n, \end{equation} \tag{5.20} $$
для которых в силу (5.13) и (5.14) справедливы соотношения $\langle \widetilde{g}^{\,\alpha}_{jk}\rangle=0$ и
$$ \begin{equation} D^*\widetilde{g}^{\,\alpha}_{jk}=0. \end{equation} \tag{5.21} $$

5.3.

Определим функцию в виде разложения по степеням $\varepsilon$:

$$ \begin{equation} w^\varepsilon(x)=u^{,\varepsilon}(x)+\varepsilon\,U_1^\varepsilon(x) +\varepsilon^2\,U_2^\varepsilon(x), \end{equation} \tag{5.22} $$
где старший член есть вектор-функция
$$ \begin{equation} u^{,\varepsilon}(x)=\Theta^\varepsilon(u(x)+\varepsilon u^1(x)), \qquad u^{,\varepsilon}(x)=\{u^{\alpha,\varepsilon}(x)\}_{1\leqslant \alpha\leqslant n}, \end{equation} \tag{5.23} $$
сглаженная с помощью оператора $\Theta^\varepsilon=S^\varepsilon S^\varepsilon$, а первый и второй корректоры строятся по $u^{,\varepsilon}(x)$ как
$$ \begin{equation} U_1^\varepsilon(x)=N^\alpha_j\biggl(\frac{x}{\varepsilon}\biggr)D_ju^{\alpha,\varepsilon}(x), \qquad U_2^\varepsilon(x)=N^\alpha_{jk}\biggl(\frac{x}{\varepsilon}\biggr)D_jD_k u^{\alpha,\varepsilon}(x). \end{equation} \tag{5.24} $$
Здесь 1-периодические функции $N^\alpha_j(y)$ и $N^\alpha_{jk}(y)$ – решения задач на ячейке (5.7) и (5.13) соответственно, а $u$ и $u^1$ – решения усредненных уравнений (5.6) и (5.16).

Оценим невязку функции (5.22) в уравнении (5.5), записав ее в виде

$$ \begin{equation} (A_\varepsilon+1)w^\varepsilon-f=(A_\varepsilon+1)w^\varepsilon -f^{,\varepsilon}+(f^{,\varepsilon}-f), \end{equation} \tag{5.25} $$
где $f^{,\varepsilon}$ – правая часть уравнения
$$ \begin{equation} (\widehat{A}+\varepsilon B )u^{,\varepsilon}+u^{,\varepsilon} =(f)_\varepsilon+\varepsilon^2 B (u^1)_\varepsilon=:f^{,\varepsilon}, \end{equation} \tag{5.26} $$
которое получается, если к обеим частям равенства (5.17) применить оператор сглаживания $\Theta^\varepsilon$ и учесть определение (5.23). Поскольку в силу (5.26) $f^{,\varepsilon}=(\widehat{A}u^{,\varepsilon}+u^{,\varepsilon})+\varepsilon Bu^{,\varepsilon}$, то
$$ \begin{equation} \begin{aligned} \, \notag A_\varepsilon w^\varepsilon+w^\varepsilon-f^{,\varepsilon} &=A_\varepsilon w^\varepsilon+w^\varepsilon-(\widehat{A}u^{,\varepsilon}+u^{,\varepsilon})-\varepsilon B u^{,\varepsilon} \\ &=A_\varepsilon w^\varepsilon-\widehat{A}u^{,\varepsilon}-\varepsilon B u^{,\varepsilon}+(w^\varepsilon- u^{,\varepsilon}) \notag \\ &\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\!\stackrel{(5.1), (5.6), (5.15), (5.22)}=D^*\bigl(a^\varepsilon Dw^\varepsilon-\widehat{a}D u^{,\varepsilon}-\varepsilon b^\alpha_{jk}D_jD_k u^\alpha\bigr)+\varepsilon U_1^\varepsilon+\varepsilon^2U_2^\varepsilon. \end{aligned} \end{equation} \tag{5.27} $$

Вычислим градиент функции $w^\varepsilon$:

$$ \begin{equation} \begin{aligned} \, \notag D w^\varepsilon &=D u^{,\varepsilon}+(DN^\alpha_j)^\varepsilon D_ju^{\alpha,\varepsilon}+\varepsilon (DN^\alpha_{jk})^\varepsilon D_jD_k u^{\alpha,\varepsilon} \\ &\qquad +\varepsilon (N^\alpha_j)^\varepsilon \otimes DD_ju^{\alpha,\varepsilon}+\varepsilon^2 (N^\alpha_{jk})^\varepsilon \otimes DD_jD_k u^{\alpha,\varepsilon} \end{aligned} \end{equation} \tag{5.28} $$
(с этого места начинаем систематически использовать обозначение (4.6)), и учтем, что
$$ \begin{equation} a^\varepsilon\bigl(D u^{,\varepsilon}+(DN^\alpha_j)^\varepsilon D_ju^{\alpha,\varepsilon}\bigr) =(a(DN^\alpha_j+e^\alpha_j))^\varepsilon D_j u^{\alpha,\varepsilon} \stackrel{(5.10)}=(g^\alpha_j)^\varepsilon D_ju^{\alpha,\varepsilon}+\widehat{a} D u^{,\varepsilon}. \end{equation} \tag{5.29} $$
Каждый элемент матрицы $(g^\alpha_j)^\varepsilon D_ju^{\alpha,\varepsilon}=\{(g^{\alpha\beta}_{jm})^\varepsilon D_ju^{\alpha,\varepsilon}\}_{\beta,m}$ (здесь нет суммирования по $\alpha$ и $j$) представляется в виде
$$ \begin{equation*} (g^{\alpha\beta}_{jm})^\varepsilon D_ju^{\alpha,\varepsilon}= D_k(\varepsilon (G^{\alpha\beta}_{jmk})^\varepsilon D_ju^{\alpha,\varepsilon})-\varepsilon(G^{\alpha\beta}_{jmk})^\varepsilon D_k D_ju^{\alpha,\varepsilon} \end{equation*} \notag $$
в силу первого равенства в (5.12), причем
$$ \begin{equation*} \begin{aligned} \, D_m[(g^{\alpha\beta}_{jm})^\varepsilon D_ju^{\alpha,\varepsilon}] &=D_mD_k(\varepsilon (G^{\alpha\beta}_{jmk})^\varepsilon D_ju^{\alpha,\varepsilon})-\varepsilon D_m((G^{\alpha\beta}_{jmk})^\varepsilon D_k D_ju^{\alpha,\varepsilon}) \\ &=-\varepsilon D_m((G^{\alpha\beta}_{jmk})^\varepsilon D_k D_ju^{\alpha,\varepsilon}) =\varepsilon D_m((G^{\alpha\beta}_{jkm})^\varepsilon D_k D_ju^{\alpha,\varepsilon}), \end{aligned} \end{equation*} \notag $$
где дважды использована кососимметричность матрицы $G_j^{\alpha\beta}= \{G_{jmk}^{\alpha\beta}\}_{m,k}$ из (5.12). Коротко это записывается как
$$ \begin{equation} D^*[(g^\alpha_j)^\varepsilon D_ju^{\alpha,\varepsilon}]=\varepsilon D^*((G^{\alpha}_{jk})^\varepsilon D_k D_ju^{\alpha,\varepsilon}), \end{equation} \tag{5.30} $$
где матрица $G^{\alpha}_{jk}$ та же, что в (5.13).

Из (5.28)(5.30) получаем

$$ \begin{equation*} \begin{aligned} \, &D^*\bigl(a^\varepsilon Dw^\varepsilon-\widehat{a}D u^{,\varepsilon}-\varepsilon b^\alpha_{jk}D_jD_k u^\alpha\bigr) \\ &\qquad =D^*[(g^\alpha_j)^\varepsilon D_ju^{\alpha,\varepsilon} +\varepsilon (aDN^\alpha_{jk})^\varepsilon D_jD_k u^{\alpha,\varepsilon} +\varepsilon a^\varepsilon((N^\alpha_j)^\varepsilon \otimes DD_ju^{\alpha,\varepsilon}) \\ &\qquad\qquad -\varepsilon b^\alpha_{jk}D_jD_k u^\alpha +\varepsilon^2a^\varepsilon((N^\alpha_{jk})^\varepsilon \otimes DD_jD_k u^{\alpha,\varepsilon})] \\ &\qquad =D^*[\varepsilon(aDN^\alpha_{jk}+ a(N^\alpha_j \otimes e_k)+G^\alpha_{jk}-b^\alpha_{jk})^\varepsilon D_k D_ju^{\alpha,\varepsilon} \\ &\qquad\qquad +\varepsilon^2a^\varepsilon((N^\alpha_{jk})^\varepsilon \otimes DD_jD_k u^{\alpha,\varepsilon})] \\ &\!\!\!\qquad \stackrel{(5.20)}= D^*[\varepsilon(\widetilde{g}^{\,\alpha}_{jk})^\varepsilon D_k D_ju^{\alpha,\varepsilon} +\varepsilon^2a^\varepsilon((N^\alpha_{jk})^\varepsilon \otimes DD_jD_k u^{\alpha,\varepsilon})]. \end{aligned} \end{equation*} \notag $$
Отсюда в силу (5.21) следует представление
$$ \begin{equation} A_\varepsilon w^\varepsilon+w^\varepsilon-f\stackrel{(5.25), (5.27)} =\varepsilon r_0^\varepsilon+\varepsilon^2 D^*\, r_1^\varepsilon+\varepsilon U_1^\varepsilon+\varepsilon^2U_2^\varepsilon +(f^{,\varepsilon}-f)=:F^\varepsilon, \end{equation} \tag{5.31} $$
где
$$ \begin{equation*} r_0^\varepsilon:=(\widetilde{g}^{\,\alpha}_{jk})^\varepsilon DD_k D_ju^{\alpha,\varepsilon}, \qquad r_1^\varepsilon:=a^\varepsilon((N^\alpha_{jk})^\varepsilon \otimes DD_jD_k u^{\alpha,\varepsilon}). \end{equation*} \notag $$

Для функции $F^\varepsilon$ из (5.31) устанавливаем аналог оценки (4.14), используя те же аргументы, которые приведены в § 4 при проверке (4.14); подробности опускаем. В итоге доказываем следующее утверждение – аналог теоремы 1.1.

Теорема 5.1. Пусть в уравнении (5.5) правая часть $f$ принадлежит пространству $ \mathcal{H}$. Тогда функция, заданная в (5.22)(5.24), приближает решение задачи (5.5) с оценкой

$$ \begin{equation} \|u^\varepsilon-w^\varepsilon\|_{\mathcal{H}}\leqslant C\varepsilon^2 \|f\|_{\mathcal{H}}, \end{equation} \tag{5.32} $$
где константа $C$ зависит лишь от размерностей $d$ и $n$, а также постоянных $\lambda_0$, $\lambda_1$ из условий (5.2) и (5.3).

5.4.

Найдем аналог аппроксимации (4.17), (4.18) для резольвенты оператора $A_\varepsilon$ векторной задачи (5.5). Для этого запишем заданную в (5.22)(5.24) функцию, группируя слагаемые по степеням $\varepsilon$ и используя обозначения (4.1) и (4.6), в виде суммы:

$$ \begin{equation*} \begin{aligned} \, w^\varepsilon &=(u)_\varepsilon+\varepsilon[ (u^1)_\varepsilon + (N^\alpha_j)^\varepsilon(D_ju^\alpha)_\varepsilon] \\ &\qquad +\varepsilon^2[ (N^\alpha_j)^\varepsilon(D_ju^{1,\alpha})_\varepsilon + (N^\alpha_{jk})^\varepsilon(D_jD_ku^\alpha)_\varepsilon] +\varepsilon^3 (N^\alpha_{jk})^\varepsilon(D_jD_ku^{1,\alpha})_\varepsilon. \end{aligned} \end{equation*} \notag $$
Устраняя сглаживание в первых двух слагаемых и отбрасывая последнее слагаемое, получаем ошибку в $H^1$-норме порядка $\varepsilon^2$
$$ \begin{equation} \begin{aligned} \, w^\varepsilon &=u+\varepsilon[ u^1 + (N^\alpha_j)^\varepsilon(D_ju^\alpha)_\varepsilon] +\varepsilon^2[ (N^\alpha_j)^\varepsilon(D_ju^{1,\alpha})_\varepsilon \nonumber \\ &\qquad+ (N^\alpha_{jk})^\varepsilon(D_jD_ku^\alpha)_\varepsilon] +O(\varepsilon^2); \end{aligned} \end{equation} \tag{5.33} $$
для обоснования этого перехода ссылаемся на свойства сглаживания типов (3.2) и (3.4), а также леммы 3.1 и 3.3. Аналогичные соображения использованы в пп. 4.2, 4.3. Записывая в (5.33) решения усредненных уравнений через резольвенты, как в (4.16), и раскрывая обозначение (4.1), получаем аппроксимацию резольвенты оператора $A_\varepsilon$ типа (4.17), а именно
$$ \begin{equation} \begin{gathered} \, \mathcal{U}_\varepsilon=(\widehat A+I)^{-1}+\varepsilon \mathcal{K}_1(\varepsilon)+\varepsilon^2 \mathcal{K}_2(\varepsilon), \\ \mathcal{K}_1(\varepsilon)=\widetilde{K}_1+K_1(\varepsilon),\qquad \mathcal{K}_2(\varepsilon)=\widetilde{K}_2(\varepsilon)+K_2(\varepsilon). \end{gathered} \end{equation} \tag{5.34} $$
Здесь
$$ \begin{equation} \begin{gathered} \, \widetilde{K}_1 f=-(\widehat A+I)^{-1}B(\widehat A+I)^{-1}f, \\ \widetilde{K}_2(\varepsilon)f=(N^\alpha_j)^\varepsilon(x) D_j \Theta^\varepsilon u^{1,\alpha}, \quad \text{где }\ u^1=-(\widehat A+I)^{-1}B(\widehat A+I)^{-1}f, \end{gathered} \end{equation} \tag{5.35} $$
$$ \begin{equation} \begin{gathered} \, K_1(\varepsilon)f =(N^\alpha_j)^\varepsilon(x) D_j\Theta^\varepsilon u^\alpha, \qquad K_2(\varepsilon)=(N^\alpha_{jk})^\varepsilon(x)D_jD_k \Theta^\varepsilon u^\alpha, \\ \text{где }\ u=(\widehat A+I)^{-1}f. \end{gathered} \end{equation} \tag{5.36} $$

Таким образом, доказана

Теорема 5.2. Пусть $A_\varepsilon$ – оператор задачи (5.5), и пусть $\widehat A$ – оператор усредненной задачи (5.6). Пусть операторы $\mathcal{U}_\varepsilon$, $\mathcal{K}_1(\varepsilon)$ и $\mathcal{K}_2(\varepsilon)$ определены в (5.34)(5.36), где участвуют решения $N^\alpha_j$ и $N^\alpha_{jk}$ задач на ячейке (см. (5.7) и (5.13)), а также оператор $B$, определенный в (5.15), и оператор двойного сглаживания по Стеклову $\Theta^\varepsilon=S^\varepsilon S^\varepsilon$ ($S^\varepsilon$ определен в (1.15)). Тогда выполнена оценка

$$ \begin{equation} \|(A_\varepsilon+I)^{-1}-\mathcal{U}_\varepsilon\|_{H^1(\mathbb{R}^d,\mathbb{C}^n)\to H^1(\mathbb{R}^d,\mathbb{C}^n)}\leqslant C\varepsilon^2, \end{equation} \tag{5.37} $$
где константа $C$ зависит лишь от размерностей $d$, $n$ и постоянных $\lambda_0$, $\lambda_1$ из условий (5.2) и (5.3).

Ослабляя норму в оценке (5.37), получим аппроксимацию резольвенты $(A_\varepsilon+ I)^{-1}$ с погрешностью $O(\varepsilon^2)$ в норме операторов, действующих из $H^1(\mathbb{R}^d,\mathbb{C}^n)$ в $L^2(\mathbb{R}^d,\mathbb{C}^n)$ или в $H^{-1}(\mathbb{R}^d,\mathbb{C}^n)$, при этом структура аппроксимации упрощается. В самом деле, по лемме 3.1 или лемме 3.2 можно отнести в остаточный член часть слагаемых в разложении (5.34). Например,

$$ \begin{equation*} \begin{aligned} \, \|K_1(\varepsilon)f \|_{H^{-1}} &\stackrel{(5.36)}=\| (N^\alpha_j)^\varepsilon D_j\Theta^\varepsilon u^\alpha \|_{H^{-1}} \stackrel{(3.4)}\leqslant C\varepsilon\| N^\alpha_j\|_{L^2(Y)}\|D_jS^\varepsilon u^\alpha\|_{L^2} \\ &\,\stackrel{(3.1)}\leqslant C\varepsilon\| N^\alpha_j\|_{L^2(Y)}\|D_j u^\alpha\|_{L^2} \stackrel{(5.18)}\leqslant C\varepsilon\| N^\alpha_j\|_{L^2(Y)}\|f\|_{L^2}, \end{aligned} \end{equation*} \notag $$
в результате чего имеем оценку $\|\varepsilon K_1(\varepsilon) \|_{L^2\to H^{-1}}=O(\varepsilon^2)$ и, тем более, в норме $\|\cdot\|_{H^1\to H^{-1}}$ оператор $\varepsilon K_1(\varepsilon)$ переходит в разложении (5.34) в остаточный член.

Теорема 5.3. В условиях теоремы 5.2 выполнены оценки

$$ \begin{equation} \|(\widehat A+I)^{-1}+\varepsilon \mathcal{K}_1(\varepsilon)-(A_\varepsilon+I)^{-1}\|_{H^1(\mathbb{R}^d,\mathbb{C}^n)\to L^2(\mathbb{R}^d,\mathbb{C}^n)}\leqslant C\varepsilon^2, \end{equation} \tag{5.38} $$
$$ \begin{equation} \|(\widehat A+I)^{-1}+\varepsilon \widetilde{K}_1-(A_\varepsilon+I)^{-1}\|_{H^1(\mathbb{R}^d,\mathbb{C}^n)\to H^{-1}(\mathbb{R}^d,\mathbb{C}^n)}\leqslant C\varepsilon^2, \end{equation} \tag{5.39} $$
где константа $C$ того же типа, что и в (5.37).

Любопытно заметить, что оценка (5.39) в терминах решений уравнений означает, что

$$ \begin{equation*} \|u+\varepsilon u^1- u^\varepsilon\|_{H^{-1}(\mathbb{R}^d,\mathbb{C}^n)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d,\mathbb{C}^n)}, \end{equation*} \notag $$
т.е. решение $u^\varepsilon$ исходной задачи приближается в указанном смысле только решениями двух усредненных уравнений (5.6) и (5.16).

Оценки (5.38) и (5.39) еще более упрощаются в “скалярном вещественном симметрическом случае”, отмеченном в замечании 4.2.

Теорема 5.4. Пусть в условиях теоремы 4.1 матрица коэффициентов $a(y)$ симметрична. Тогда выполнены оценки

$$ \begin{equation} \|(\widehat A+1)^{-1}+\varepsilon N^\varepsilon_j(x) D_j(\widehat A+1)^{-1} -(A_\varepsilon+I)^{-1}\|_{H^1(\mathbb{R}^d)\to L^2(\mathbb{R}^d)}\leqslant C\varepsilon^2, \end{equation} \tag{5.40} $$
$$ \begin{equation} \|(\widehat A+1)^{-1}-(A_\varepsilon+I)^{-1}\|_{H^1(\mathbb{R}^d)\to H^{-1}(\mathbb{R}^d)}\leqslant C\varepsilon^2, \end{equation} \tag{5.41} $$
где константа $C$ того же типа, что и в (4.19).

Оценки (5.40) и (5.41) в терминах решений уравнений записываются как

$$ \begin{equation*} \begin{gathered} \, \|u+\varepsilon N^\varepsilon_j(x) D_j u- u^\varepsilon\|_{L^2(\mathbb{R}^d)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d}, \\ \|u^\varepsilon- u\|_{H^{-1}(\mathbb{R}^d)}\leqslant C\varepsilon^2\|f\|_{H^1(\mathbb{R}^d)}. \end{gathered} \end{equation*} \notag $$
Видим, что решение $u$ усредненной задачи (1.4), т.е. “нулевое приближение”, и связанное с ним классическое “первое приближение” $u+\varepsilon N^\varepsilon_j(x) D_j u$ из [1]–[5] могут аппроксимировать в слабых нормах решение $u^\varepsilon$ исходной задачи (1.1) с погрешностью порядка $\varepsilon^2$. Для этого нужно иметь правую часть $f$ в (1.1) из $H^1(\mathbb{R}^d)$.

Замечание 5.5. Опираясь на оценку (5.37), с помощью соображений двойственности можно найти аппроксимацию резольвенты $(A_\varepsilon+I)^{-1}$ по норме операторов, действующих из $H^1(\mathbb{R}^d,\mathbb{C}^n)$ в $L^2(\mathbb{R}^d,\mathbb{C}^n)$, с погрешностью порядка $\varepsilon^3$. Нужно следовать методу [9], где аналогичная аппроксимация построена в наиболее простом “скалярном вещественном симметрическом случае”, отмеченном в замечании 4.2. Совсем другим теоретико-операторным (спектральным) методом, идущим от [6], подобные аппроксимации изучались в [10], причем только для самосопряженных операторов.

Список литературы

1. Н. С. Бахвалов, “Осреднение дифференциальных уравнений с частными производными с быстро осциллирующими коэффициентами”, Докл. АН СССР, 221:3 (1975), 516–519  mathnet  mathscinet  zmath; англ. пер.: N. S. Bakhvalov, “Averaging of partial differential equations with rapidly oscillating coefficients”, Soviet Math. Dokl., 16:2 (1975), 351–355
2. A. Bensoussan, J.-L. Lions, G. Papanicolaou, Asymptotic analysis for periodic structures, Stud. Math. Appl., 5, North-Holland Publishing Co., Amsterdam–New York, 1978, xxiv+700 pp.  mathscinet  zmath
3. В. В. Жиков, С. М. Козлов, О. А. Олейник, Ха Тьен Нгоан, “Усреднение и $G$-сходимость дифференциальных операторов”, УМН, 34:5(209) (1979), 65–133  mathnet  mathscinet  zmath; англ. пер.: V. V. Zhikov, S. M. Kozlov, O. A. Oleinik, Kha T'en Ngoan, “Averaging and $G$-convergence of differential operators”, Russian Math. Surveys, 34:5 (1979), 69–147  crossref  adsnasa
4. Н. С. Бахвалов, Г. П. Панасенко, Осреднение процессов в периодических средах. Математические задачи механики композиционных материалов, Наука, М., 1984, 352 с.  mathscinet  zmath; англ. пер.: N. Bakhvalov, G. Panasenko, Homogenisation: averaging processes in periodic media. Mathematical problems in the mechanics of composite materials, Math. Appl. (Soviet Ser.), 36, Kluwer Acad. Publ., Dordrecht, 1989, xxxvi+366 с.  crossref  mathscinet  zmath
5. В. В. Жиков, С. М. Козлов, О. А. Олейник, Усреднение дифференциальных операторов, Физматлит, М., 1993, 464 с.  mathscinet  zmath; англ. пер.: V. V. Jikov, S. M. Kozlov, O. A. Oleinik, Homogenization of differential operators and integral functionals, Springer-Verlag, Berlin, 1994, xii+570 с.  crossref  mathscinet  zmath
6. М. Ш. Бирман, Т. А. Суслина, “Периодические дифференциальные операторы второго порядка. Пороговые свойства и усреднения”, Алгебра и анализ, 15:5 (2003), 1–108  mathnet  mathscinet  zmath; англ. пер.: M. Sh. Birman, T. A. Suslina, “Second order periodic differential operators. Threshold properties and homogenization”, St. Petersburg Math. J., 15:5 (2004), 639–714  crossref
7. В. В. Жиков, “Об операторных оценках в теории усреднения”, Докл. РАН, 403:3 (2005), 305–308  mathnet  mathscinet  zmath; англ. пер.: V. V. Zhikov, “On operator estimates in homogenization theory”, Dokl. Math., 72:1 (2005), 534–538
8. V. V. Zhikov, S. E. Pastukhova, “On operator estimates for some problems in homogenization theory”, Russ. J. Math. Phys., 12:4 (2005), 515–524  mathscinet  zmath
9. S. E. Pastukhova, “Approximations of resolvents of second order elliptic operators with periodic coefficients”, J. Math. Sci. (N.Y.), 267:3 (2022), 382–397  crossref  mathscinet  zmath
10. Е. С. Василевская, Т. А. Суслина, “Усреднение параболических и эллиптических периодических операторов в $L_2(\mathbb{R}^d)$ при учете первого и второго корректоров”, Алгебра и анализ, 24:2 (2012), 1–103  mathnet  mathscinet  zmath; англ. пер.: E. S. Vasilevskaya, T. A. Suslina, “Homogenization of parabolic and elliptic periodic operators in $L_2(\mathbb{R}^d)$ with the first and second correctors taken into account”, St. Petersburg Math. J., 24:2 (2013), 185–261  crossref
11. М. Ш. Бирман, Т. А. Суслина, “Усреднение периодических эллиптических дифференциальных операторов с учетом корректора”, Алгебра и анализ, 17:6 (2005), 1–104  mathnet  mathscinet  zmath; англ. пер.: M. Sh. Birman, T. A. Suslina, “Homogenization with corrector term for periodic elliptic differential operators”, St. Petersburg Math. J., 17:6 (2006), 897–973  crossref
12. В. В. Жиков, “О спектральном методе в теории усреднения”, Дифференциальные уравнения и динамические системы, Сборник статей, Труды МИАН, 250, Наука, МАИК «Наука/Интерпериодика», М., 2005, 95–104  mathnet  mathscinet  zmath; англ. пер.: V. V. Zhikov, “Spectral method in homogenization theory”, Proc. Steklov Inst. Math., 250 (2005), 85–94
13. С. Е. Пастухова, “Об улучшенных аппроксимациях резольвенты в усреднении операторов второго порядка с периодическими коэффициентами”, Функц. анализ и его прил., 56:4 (2022), 93–104  mathnet  crossref  mathscinet  zmath; англ. пер.: S. E. Pastukhova, “Improved resolvent approximations in homogenization of second order operators with periodic coefficients”, Funct. Anal. Appl., 56:4 (2022), 310–319  crossref
14. О. А. Ладыженская, Н. Н. Уральцева, Линейные и квазилинейные уравнения эллиптического типа, Наука, М., 1964, 538 с.  mathscinet  zmath; англ. пер.: O. A. Ladyzhenskaya, N. N. Ural'tseva, Linear and quasilinear elliptic equations, Academic Press, New York–London, 1968, xviii+495 с.  mathscinet  zmath
15. Д. Киндерлерер, Г. Стампаккья, Введение в вариационные неравенства и их приложения, Мир, М., 1983, 256 с.  mathscinet  zmath; пер. с англ.: D. Kinderlehrer, G. Stampacchia, An introduction to variational inequalities and their applications, Pure Appl. Math., 88, Academic Press, Inc. [Harcourt Brace Jovanovich, Publishers], New York–London, 1980, xiv+313 с.  mathscinet  zmath
16. Т. А. Суслина, “Усреднение стационарной периодической системы Максвелла”, Алгебра и анализ, 16:5 (2004), 162–244  mathnet  mathscinet  zmath; англ. пер.: T. A. Suslina, “Homogenization of a stationary periodic Maxwell system”, St. Petersburg Math. J., 16:5 (2005), 863–922  crossref
17. В. В. Жиков, С. Е. Пастухова, “Об операторных оценках в теории усреднения”, УМН, 71:3(429) (2016), 27–122  mathnet  crossref  mathscinet  zmath; англ. пер.: V. V. Zhikov, S. E. Pastukhova, “Operator estimates in homogenization theory”, Russian Math. Surveys, 71:3 (2016), 417–511  crossref  adsnasa
18. S. E. Pastukhova, “Homogenization estimates for singularly perturbed operators”, J. Math. Sci. (N.Y.), 251:5 (2020), 724–747  crossref  mathscinet  zmath
19. Weisheng Niu, Yue Yuan, “Convergence rate in homogenization of elliptic systems with singular perturbations”, J. Math. Phys., 60:11 (2019), 111509, 7 pp.  crossref  mathscinet  zmath  adsnasa
20. S. E. Pastukhova, “Operator estimates in homogenization of elliptic systems of equations”, J. Math. Sci. (N.Y.), 226:4 (2017), 445–461  crossref  mathscinet  zmath

Образец цитирования: С. Е. Пастухова, “Оценки погрешности усреднения эллиптических операторов на основе корректоров первого и второго порядка”, Матем. сб., 215:7 (2024), 74–95; S. E. Pastukhova, “Error estimates taking account of correctors in homogenization of elliptic operators”, Sb. Math., 215:7 (2024), 932–952
Цитирование в формате AMSBIB
\RBibitem{Pas24}
\by С.~Е.~Пастухова
\paper Оценки погрешности усреднения эллиптических операторов на основе корректоров первого и второго порядка
\jour Матем. сб.
\yr 2024
\vol 215
\issue 7
\pages 74--95
\mathnet{http://mi.mathnet.ru/sm9860}
\crossref{https://doi.org/10.4213/sm9860}
\mathscinet{https://mathscinet.ams.org/mathscinet-getitem?mr=4813935}
\zmath{https://zbmath.org/?q=an:07945703}
\adsnasa{https://adsabs.harvard.edu/cgi-bin/bib_query?2024SbMat.215..932P}
\transl
\by S.~E.~Pastukhova
\paper Error estimates taking account of correctors in homogenization of elliptic operators
\jour Sb. Math.
\yr 2024
\vol 215
\issue 7
\pages 932--952
\crossref{https://doi.org/10.4213/sm9860e}
\isi{https://gateway.webofknowledge.com/gateway/Gateway.cgi?GWVersion=2&SrcApp=Publons&SrcAuth=Publons_CEL&DestLinkType=FullRecord&DestApp=WOS_CPL&KeyUT=001346292600005}
\scopus{https://www.scopus.com/record/display.url?origin=inward&eid=2-s2.0-85208418844}
Образцы ссылок на эту страницу:
  • https://www.mathnet.ru/rus/sm9860
  • https://doi.org/10.4213/sm9860
  • https://www.mathnet.ru/rus/sm/v215/i7/p74
  • Эта публикация цитируется в следующих 2 статьяx:
    Citing articles in Google Scholar: Russian citations, English citations
    Related articles in Google Scholar: Russian articles, English articles
    Математический сборник Sbornik: Mathematics
     
      Обратная связь:
     Пользовательское соглашение  Регистрация посетителей портала  Логотипы © Математический институт им. В. А. Стеклова РАН, 2025