source
stringlengths 128
512
| target
stringlengths 100
1.22k
|
---|---|
PooL is compared with DQN [1]}, MFQ [2]}, DGN [3]}. DGN is applied in Battle, Battlefield, Adversarial Pursuit, Tiger-Deer environments. In these four environments, We use the same settings as DGN —— the number of agents remains unchanged during the game. But for Combined Arms and Gather, the previous setting goes against the original intention of these two environments. Therefore, we only compare PooL with MFQ and DQN in these two environments.
| Сравнение PooL проводится с DQN [1], MFQ [2] и DGN [3]. DGN применяется в средах Battle, Battlefield, Adversarial Pursuit и Tiger-Deer. В этих четырех средах мы используем те же настройки, что и у DGN — количество агентов остается неизменным во время игры. Однако для Combined Arms и Gather предыдущие настройки противоречат первоначальному намерению этих двух сред. Поэтому мы сравниваем только PooL с MFQ и DQN в этих двух средах. |
where \(\Pi \in \mathcal {P}(\Omega ^N\times \Omega ^N)\) denotes the optimal transport plan between \(\rho ^N\) and \(\rho ^{\otimes N}\) . The convexity along 2-Wasserstein geodesics of the entropy functional as discussed in [1]} implies that (cf. [2]})
\(\int _{\Omega ^N\times \Omega ^N} (x-y)\cdot (\beta ^{-1}\nabla _x\log \rho ^N(x)-\beta ^{-1}\nabla _y\log \rho ^{\otimes N}(y))\;\mathop {}\!\mathup {d} \Pi (x,y)\ge 0,\)
| где \(\Pi \in \mathcal {P}(\Omega ^N\times \Omega ^N)\) обозначает оптимальный транспортный план между \(\rho ^N\) и \(\rho ^{\otimes N}\). Следует отметить, что выпуклость функционала энтропии вдоль 2-Wasserstein геодезических, как это было рассмотрено в [1], подразумевает (см. [2]):
\(\int _{\Omega ^N\times \Omega ^N} (x-y)\cdot (\beta ^{-1}\nabla _x\log \rho ^N(x)-\beta ^{-1}\nabla _y\log \rho ^{\otimes N}(y))\;\mathop {}\!\mathup {d} \Pi (x,y)\ge 0,\) |
[1]} and [2]} showed that
fine-tuning an LM with an extra classification head yields a
better model than training a classifier from scratch with the
same architecture of the LM. We follow a similar approach by fine-tuning a Linear Transformer instead of
an LSTM [1]} or a GPT-2 [2]}.
We fine-tune this Linear Transformer with the labelled pieces of the VGMIDI data set.
| [1]} и [2]} показали, что доработка Языковой модели (LM) с дополнительной головой классификации приводит к лучшей модели по сравнению с обучением классификатора с нуля на той же архитектуре LM. Мы следуем подобному подходу, дорабатывая Линейный Трансформер вместо LSTM [1]} или GPT-2 [2]}.
Мы проводим доработку этого Линейного Трансформера с помощью помеченных фрагментов набора данных VGMIDI. |
By the fundamental theorem of finite commutative groups (see [1]}), \(G_K\) is a direct sum of primary cyclic groups. Since \({\mathcal {K}}\) is a minimal set of generators for \(G_K\) by Proposition REF , we therefore have \(G_K \cong \bigoplus _{\sigma \in K} \big \langle \lbrace \sigma \rbrace \big \rangle \) . Finally, each \(\lbrace \sigma \rbrace \in {\mathcal {K}}\) has order 2 in \(G_K\) , so \(\big \langle \lbrace \sigma \rbrace \big \rangle \cong {\mathbb {Z}}/ 2{\mathbb {Z}}\) .
| По основной теореме о конечных коммутативных группах (см. [1]), \(G_K\) является прямой суммой первичных циклических групп. Поскольку \({\mathcal {K}}\) является минимальным набором порождающих для \(G_K\), согласно Proposition REF, у нас получается \(G_K \cong \bigoplus _{\sigma \in K} \big \langle \lbrace \sigma \rbrace \big \rangle\). Наконец, каждый \(\lbrace \sigma \rbrace \in {\mathcal {K}}\) имеет порядок 2 в \(G_K\), поэтому \(\big \langle \lbrace \sigma \rbrace \big \rangle \cong {\mathbb {Z}}/ 2{\mathbb {Z}}\). |
This section provides three examples where the relation between the Lie algebra element and the group element is explicit. However, before proceeding, let us introduce additional concepts and notations (see [1]}, [2]} for more details), which will be relevant for the quantum description.
| В данном разделе приведены три примера, где связь между элементом алгебры Ли и элементом группы явно выражена. Однако, прежде чем продолжить, давайте представим дополнительные концепции и обозначения (см. [1], [2] для получения более подробной информации), которые будут актуальны для квантового описания. |
holds, see [1]}. We leave the question open whether in Theorem
REF one may replace the \(L^{2}\) -norm by the supremum norm. In passing
we mention that in [2]} the inequality (REF ) has been
generalized to \(L\) -splines where \(L\) is a differential operator with constant
coefficients of order \(4.\)
| см., [1]}. Мы оставляем открытым вопрос, можно ли в Теореме REF заменить норму \(L^{2}\) на норму супремума. Кстати, упоминаем, что в [2] неравенство (REF) было обобщено на \(L\)-сплайны, где \(L\) является дифференциальным оператором с постоянными коэффициентами порядка 4. |
To the best of our knowledge, both FOTs and SOTs have been tested in Bjorken and Gubser backgrounds, where they successfully reproduce the results from kinetic theory under the relaxation time approximation [1]}, [2]}, [3]}.
| По нашему лучшему пониманию, как FOT, так и SOT были протестированы в фоновых условиях Бьоркена и Губсера, где они успешно воспроизводят результаты кинетической теории при приближении времени релаксации [1], [2], [3]. |
Multilingual models have received growing interest in natural language processing (NLP) [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}. The task of multilingual machine translation aims to have one model which can translate between multiple languages pairs, which reduces training and deployment cost by improving parameter efficiency. It presents several research questions around crosslingual transfer learning and multi-task learning (MTL) [8]}, [9]}, [5]}, [11]}, [12]}, [13]}.
| Многопользовательские модели вызывают все больший интерес в обработке естественного языка (NLP) [1], [2], [3], [4], [5], [6], [7]. Задача многопользовательского машинного перевода направлена на создание одной модели, которая может переводить между несколькими языковыми парами, что позволяет снизить затраты на обучение и развертывание за счет улучшения параметрической эффективности. Это представляет несколько исследовательских вопросов в области межъязыкового переноса знаний и многозадачного обучения (MTL) [8], [9], [5], [11], [12], [13]. |
Thus, the net baryon to entropy ratio can be expressed as [1]}
\(\frac{\eta _{B}}{s}\simeq \frac{15 g_{b}}{g_{*s}}\frac{\dot{T}}{M_{D}^{2} T_{D}}.\)
| Таким образом, отношение чистого барионного числа к энтропии может быть выражено как [1]:
\(\frac{\eta _{B}}{s}\simeq \frac{15 g_{b}}{g_{*s}}\frac{\dot{T}}{M_{D}^{2} T_{D}}.\) |
If \(\rho \) is a measurable c.n.d. kernel on \(\mathcal {X}\) and \(x_{0} \in \mathcal {X}\) , then by [1]}, the kernel
\(k(x, x^{\prime }) = \rho (x, x^{\prime }) + \rho (x_{0}, x_{0}) - \rho (x, x_{0}) - \rho (x^{\prime }, x_{0})\)
| Если \(\rho \) является измеримым ядром с положительной определенностью на \(\mathcal {X}\) и \(x_{0} \in \mathcal {X}\), то по [1] ядро
\(k(x, x^{\prime }) = \rho (x, x^{\prime }) + \rho (x_{0}, x_{0}) - \rho (x, x_{0}) - \rho (x^{\prime }, x_{0})\) |
In this work, we use an off-the-shelf disparity estimation module from Yang et al. [1]}.
This approach provides an estimate of uncertainty (entropy) for each prediction.
We also keep an array of uncertainty values (\(\mathbf {\mathfrak {H}}\) ) of equal size as the depth array (obtained from disparity and camera parameters), s.t., \(\mathfrak {H}_i\in [0,1]\) , where a higher value represents higher uncertainty.
The uncertainty allow us to suppress noise or uncertain 3D points.
| В этой работе мы используем модуль оценки разногласий из работы Янга и др. [1].
Этот подход обеспечивает оценку неопределенности (энтропии) для каждого предсказания.
Мы также сохраняем массив значений неопределенности (\(\mathbf {\mathfrak {H}}\) ) такого же размера, как массив глубины (полученный из разногласий и параметров камеры), т.е., \(\mathfrak {H}_i\in [0,1]\) , где более высокое значение представляет более высокую степень неопределенности.
Неопределенность позволяет нам подавлять шум или неясные точки в трехмерном пространстве. |
However, in 2016 H. Gies and one of the authors [1]} noted that
such diagrams can give finite values because of the infrared divergence of the connecting photon propagator.
In dimensional regularization, the key integral is
\(\int d^Dk \, \delta ^D(k) \frac{k^{\mu }k^{\nu }}{k^2} = \frac{\eta ^{\mu \nu }}{D} \, .\)
| Однако, в 2016 году Х. Джиз и один из авторов отметили, что такие диаграммы могут давать конечные значения из-за бесконечности инфракрасной киральности связующего фотонного пропагатора. В размерностной регуляризации ключевым является интеграл
\(\int d^Dk \, \delta ^D(k) \frac{k^{\mu }k^{\nu }}{k^2} = \frac{\eta ^{\mu \nu }}{D} \, .\) |
For future research, the audio modality could be leveraged even further to create more effective audio-visual representations. Augmentations applied on the audio modality might be beneficial, and are less explored compared to the visual modality in this field. For the model architecture, incorporating attention-based mechanisms to combine visual and audio modalities might prove advantageous, as these models achieve great performance in image, video and audio based tasks [1]}, [2]}.
| Для будущих исследований аудио-модальность может быть использована еще более эффективно для создания более эффективных аудио-визуальных представлений. Аугментации, применяемые к аудио-модальности, могут быть полезными и менее исследованы в сравнении с визуальной модальностью в этой области. Для архитектуры модели, включение механизмов на основе внимания для объединения визуальных и аудио модальностей может оказаться выгодным, так как эти модели достигают отличной производительности в задачах с изображениями, видео и аудио [1]}, [2]}. |
In modern analytical approaches, usually the number of features is huge but only a small portion of them are regarded as relevant to the classification decision, although these are not known in advance.
In this sense, the methods will lose power because of the large amount of noise.
A common way to solve this problem is to perform dimension reduction such that the number of features is greatly reduced, and then use only the resultant features for classification; see [1]}, [2]}, [3]}.
| В современных аналитических подходах обычно количество признаков огромно, но лишь небольшая часть из них рассматривается как важная для принятия решения о классификации, хотя заранее неизвестно, какие именно признаки являются важными. В этом смысле методы теряют мощность из-за большого количества шума. Одним из распространенных способов решения этой проблемы является уменьшение размерности путем значительного сокращения количества признаков, а затем использование только полученных признаков для классификации; см. [1]}, [2]}, [3]}. |
In the optimization bound shown above from [1]}, the subscripts are used to denote each data sample in the dataset, and superscripts are used to indicate a layer in the DGP. The rest of the terms follow the same convention as the one used by Damianou et al. [2]}.
| В оптимизационной границе, показанной выше в [1]}, нижние индексы используются для обозначения каждого образца данных в наборе данных, а верхние индексы используются для обозначения слоя в DGP. Остальные термины следуют той же конвенции, что и в работе Damianou et al. [2]}. |
The following result [1]}, [2]}, [3]}
gives a combinatorial formula for the steady state
probabilities of the ASEP. (Note that [1]}, [2]} used
permutation tableaux, which are in bijection with staircase tableaux,
and are closely connected to the positive Grassmannian.)
The \(q=0\) case was previously
studied by Duchi–Schaeffer in [6]}.
| Следующий результат [1], [2], [3] дает комбинаторную формулу для стационарных вероятностей ASEP. (Заметим, что [1], [2] используют таблицы перестановок, которые сопоставляются с таблицами лестницы и тесно связаны с положительным грассманианом). Случай \(q=0\) был ранее исследован Дучи-Шеффером в [6]. |
The partial order \((\mathcal {S}(n,r),\trianglerighteq )\) is a sublattice of Young's (partition) lattice (see, for example, [1]}). We shall use the following description of
\(\trianglerighteq \) .
| Частичный порядок \((\mathcal {S}(n,r),\trianglerighteq )\) является подрешёткой решётки Янга (партиций) (см. например, [1]). Мы будем использовать следующее описание \(\trianglerighteq \). |
For example, for the untwisted sector see
the Refs. [1]}, [2]}.
In the rest of this paper we shall explicitly calculate and concentrate on the
variables \(\mathbf {A}^{\rm U/T}\) ,
\(\mathbf {B}^{\rm U/T}\) , \(\mathbf {C}^{\rm U/T}\) ,
\(\mathbf {D}^{\rm U/T}\) , \(\mathbf {E}^{\rm U/T}\) ,
\(\mathbf {F}\) and \(\mathbf {G}\) for the
graviton, Kalb-Ramond and dilaton states.
| Например, для неперемешивающегося сектора см. Ссылки [1], [2].
В остальной части этой статьи мы явно вычислим и сосредоточимся на переменных \(\mathbf {A}^{\rm U/T}\), \(\mathbf {B}^{\rm U/T}\), \(\mathbf {C}^{\rm U/T}\), \(\mathbf {D}^{\rm U/T}\), \(\mathbf {E}^{\rm U/T}\), \(\mathbf {F}\) и \(\mathbf {G}\) для гравитона, состояний Кальб-Рамонда и дилатона. |
For example, we have implemented a lightweight version of the lssOrel algorithm [1]} with the tau table reduced. The pseudo-code of the enhanced implementation is given in Algorithm . The following notations were used:
| Например, мы реализовали упрощенную версию алгоритма lssOrel с уменьшенной таблицей tau. Псевдокод улучшенной реализации приведен в Алгоритме . Использовались следующие обозначения: |
In this paper, we propose using False Omission Rate (FOR) and False Positive Rate (FPR) to evaluate the performance of a malicious detector. Accuracy and true positive rates as considered by [1]}, [2]}, [3]}, [4]} are not ideal choice of metrics as they evaluate the model's performance using the true positive values of the majority class which are generally high for highly imbalanced data such as SherLock and therefore compensate the impreciseness in classifying the minority class.
| В этой статье мы предлагаем использовать False Omission Rate (FOR) и False Positive Rate (FPR) для оценки производительности обнаружителя вредоносных объектов. Точность и true positive rates, рассмотренные в [1], [2], [3], [4], не являются идеальным выбором метрик, так как они оценивают производительность модели с использованием true positive значений большинства класса, которые обычно высоки для сильно несбалансированных данных, таких как SherLock, и поэтому компенсируют неточность в классификации меньшинственного класса. |
The prevailing OpenQA datasets mainly take the unstructured passage as evidence, including Natural Questions [1]}, TriviaQA [2]}, WebQuestions [3]}, CuratedTREC [4]} and SQuAD [5]}.
There are also recent works studying OpenQA in the tabular domain [6]}, [7]}, [8]}. [9]} consider a more challenging setting that takes both tabular corpus and textual corpus as the knowledge sources, which is also the setting in this paper.
| В основном, текущие наборы данных OpenQA используют неструктурированные текстовые предложения в качестве доказательств, включая Natural Questions [1], TriviaQA [2], WebQuestions [3], CuratedTREC [4] и SQuAD [5].
Также были проведены недавние исследования по изучению OpenQA в области табличных данных [6], [7], [8]. [9] также рассматривают более сложную ситуацию, в которой в качестве источников знаний используются как корпус табличных данных, так и текстовый корпус, что является и настройкой данной статьи. |
The potential \(V(x)\) accounts for the inhomogeneity of the medium. We refer the reader to [1]}, [2]} for the physical background of (REF ). The particular case \(V(x)=|x|^{-b}\) appears naturally as a limiting case of potentials \(V(x)\) that decays as \(|x|^{-b}\) at infinity (see [3]}).
| Энергетический потенциал \(V(x)\) учитывает неоднородность среды. Мы ссылаемся на [1], [2] для физических основ (ССЫЛКА). Особый случай \(V(x)=|x|^{-b}\) возникает естественным образом как предельный случай потенциалов \(V(x)\), убывающих как \(|x|^{-b}\) на бесконечности (см. [3]). |
for difference complex values \(z\) and vectors \(\mathbf {v}\) . Using a direct method, these take \(O(K^2)\) time each as \(\mathbf {Q}\) is lower triangular. However we can do better, using a trick described in [1]}. Here we give a very high level description of the approach.
| для различных комплексных значений \(z\) и векторов \(\mathbf{v}\). Используя прямой метод, это занимает \(O(K^2)\) времени на каждый элемент, так как \(\mathbf{Q}\) является нижнетреугольной матрицей. Однако мы можем поступить лучше, используя хитрость, описанную в [1]. Здесь мы даем очень общее описание подхода. |
(cf. [1]}), where \(d=\operatorname{depth}I(\omega )\) and \(\partial _{\omega }\) is the operator of exterior multiplication by \(\omega \) , \(\partial _{\omega }:\alpha \mapsto \omega \wedge \alpha \) . Exactness of this complex is used in many contexts but it is usually assumed that \(R\) is Noetherian.
| (cf. [1]), где \(d=\operatorname{depth}I(\omega )\) и \(\partial _{\omega }\) - оператор внешнего умножения на \(\omega \), \(\partial _{\omega }:\alpha \mapsto \omega \wedge \alpha \). Точность этого комплекса применяется во многих контекстах, но обычно предполагается, что \(R\) является нётеровым. |
Furthermore, from a modelling perspective, a stark shortcoming of the many of the afore-mentioned models lies in the fact that the interfacial velocity and pressure are difficult to determine, see [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}, [12]}, [13]}, [14]} and references therein for a discussion of this issue as well as possible remedies.
| Кроме того, с точки зрения моделирования, резким недостатком многих упомянутых выше моделей является трудность определения межфазной скорости и давления, см. [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}, [12]}, [13]}, [14]} и соответствующие ссылки для обсуждения этой проблемы и возможных решений. |
Szegedy et al. were the first to discover the phenomena of adversarial examples [1]} — human-indistinguishable manipulation of the input space that results in misclassification.
It is worth noting that naturally-occurring adversarial examples have been shown to exist [2]}, although the focus of this work concerns human adversaries.
While there is a mound of literature on adversarial attacks on neural networks [3]}, attacks on explainers are far less explored.
| Szegedy et al. впервые обнаружили явление адверсарных примеров [1] - человеко-неразличимую манипуляцию пространством входных данных, приводящую к ошибочной классификации.
Строителен отметить, что естественно возникающие адверсарные примеры были показаны существовать [2], хотя в этой работе фокусируются на адверсарах-человеках.
В то время как существует огромное количество литературы о адверсарных атаках на нейронные сети [3], атаки на методы объяснения гораздо меньше исследовались. |
To adapt our methods for stochastic LTP systems with noisy measurements, we may regularize both P-DeePC and P-SPC.
To regularize P-DeePC, one can apply similar techniques as regularizing DeePC [1]}, [2]}, [3]}, [4]}.
For regularizing P-SPC, in the computation of the pseudo-inverse in (REF ), we treat as zero the singular values smaller than a selected threshold \(\sigma _{\rm SPC}\) ; the remainder of the settings in regularized P-SPC are same as in P-SPC.
| Для адаптации наших методов к стохастическим LTP-системам с шумными измерениями мы можем регуляризовать как P-DeePC, так и P-SPC.
Для регуляризации P-DeePC можно применить аналогичные методы, как при регуляризации DeePC [1]}, [2]}, [3]}, [4]}.
Для регуляризации P-SPC в вычислении псевдообратной матрицы в (ССЫЛКА), мы считаем нулевыми сингулярные значения, меньшие выбранного порога \(\sigma _{\rm SPC}\) ; все остальные настройки для регуляризованного P-SPC такие же, как в P-SPC. |
According to [1]}, the zeroth order solution \(\theta _{sn}^0\) is obtained from \(\hat{\alpha }(\theta _{sn}^0)=2n\pi \) . Using the SDL deflection angle in (REF ) we have then
\(\theta _{sn}^0=\frac{\vert b_{sc}\vert }{d_L}\left( 1+e^{\frac{\bar{b}-2n\pi }{\bar{a}}} \right)\)
| Согласно [1], нулевое приближение \(\theta _{sn}^0\) получается из уравнения \(\hat{\alpha }(\theta _{sn}^0)=2n\pi \). Используя угол отклонения \(SDL\) в (ссылка), мы получаем
\(\theta _{sn}^0=\frac{\vert b_{sc}\vert }{d_L}\left( 1+e^{\frac{\bar{b}-2n\pi }{\bar{a}}} \right)\) |
The ensemble games described by [1]} are formulated as a special subclass of voting games. This allows the use of precise game-specific approximation [2]} techniques and because of this the Shapley value estimates are obtained in quadratic time and have a tight approximation error. The games themselves are model agnostic concerning the player set – ensembles can be formed by heterogeneous types of machine learning models that operate on the same inputs.
| Ансамблевые игры, описанные в [1], формулируются как особый подкласс голосовых игр. Это позволяет использовать точные игровые приближения, специфичные для игры [2], и из-за этого оценки значений Шепли получаются за квадратичное время и имеют точную погрешность приближения. Сами игры не зависят от модели и позволяют формировать ансамбли из гетерогенных типов моделей машинного обучения, работающих с одними и теми же входными данными. |
Model explainability approaches XAI by approximating the results of one model
with a second model that is by design easier to understand – for example, by using decision
trees [1]}, [2]}, [3]}.
However, even human-readable rules quickly become complex and incomprehensible, especially
when they occur in large numbers [4]}.
| Подходы к объяснимости моделей XAI основаны на приближении результатов одной модели с помощью второй модели, которая является более понятной - например, с использованием деревьев принятия решений [1], [2], [3].
Однако, даже читаемые для человека правила быстро становятся сложными и непонятными, особенно когда их число большое [4]. |
Let Alice and Bob be two observers allowed to perform two \(d\) outcome measurements. If \(A_1\) and \(A_2\) are measurement settings of Alice while \(B_1\) and \(B_2\) are of Bob, the CGLMP inequality reads as [1]}
\(I_d &=& \sum ^{\left\lfloor \frac{d}{2}\right\rfloor -1}_{k = 0} [f(k)-f(-k-1)] \le 2,\)
| Пусть Элис и Боб будут двумя наблюдателями, которым разрешено выполнить два измерения с \(d\) результатами. Если \(A_1\) и \(A_2\) - настройки измерений Элис, а \(B_1\) и \(B_2\) - настройки измерений Боба, то неравенство CGLMP записывается таким образом [1]:
\(I_d &=& \sum ^{\left\lfloor \frac{d}{2}\right\rfloor -1}_{k = 0} [f(k)-f(-k-1)] \le 2,\) |
The main known problem of skyline queries [1]} regards the unconstrained cardinality of the resulting skyline, mainly due to the lack of user preferences. The underlying idea behind [2]}, [3]} relies on hybridizing the skyline operator with the top-\(k\) approach. The goal is empowering skyline queries capturing user preferences using constraints on the weights appearing in the scoring function.
| Основная известная проблема запросов к линии горизонта [1] связана с неограниченной кардинальностью полученной линии горизонта, в основном из-за отсутствия предпочтений пользователей. Основная идея, лежащая в основе [2], [3], заключается в гибридизации оператора линии горизонта с подходом top-\(k\). Цель состоит в том, чтобы усилить запросы к линии горизонта, учитывая предпочтения пользователей с помощью ограничений на веса, появляющиеся в функции оценки. |
[[1]}, [2]}, [3]}]
An NFA (or PFA) \(\mathcal {A}\) having the EDA property is equivalent to it being exponentially ambiguous. For any \(d \in \mathbb {N}\) , an NFA (or PFA) \(\mathcal {A}\) having property \(\text{IDA}_d\) is equivalent to \(\textrm {deg}(\mathcal {A}) \ge d\) .
| [[1]}, [2]}, [3]}
NFA (или PFA) \(\mathcal {A}\), обладающий свойством EDA, эквивалентен экспоненциальной неоднозначности. Для любого \(d \in \mathbb {N}\), NFA (или PFA) \(\mathcal {A}\), имеющий свойство \(\text{IDA}_d\), эквивалентен \(\textrm {deg}(\mathcal {A}) \ge d\). |
We also mention the related work by Guha et al. [1]}, which proposes a one-shot distillation method for convex models, where the server distills the locally optimized client models in a single round as well as the work of [2]} which addresses privacy issues in Federated Distillation. Federated one-shot distillation is also addressed in [3]}. Federated Distillation for edge-learning was proposed in [4]}.
| Мы также упоминаем связанную работу Guha et al. [1], которая предлагает одношаговый метод дистилляции для выпуклых моделей, где сервер дистиллирует локально оптимизированные клиентские модели за один раунд, а также работу [2], которая решает проблемы конфиденциальности в Федеративной дистилляции. Федеративная одношаговая дистилляция также рассматривается в [3]. Федеративная дистилляция для краевого обучения была предложена в [4]. |
Our first contribution is a simple Las Vegas randomized algorithm
computing a pointwise maximal solution of a monotone 2VPI system in \(O(mn^2\log {m})\) time and linear space.
Note that this matches the best known deterministic time bound [1]} which is
achieved using \(\Theta (n^2+m)\) space.
| Наш первый вклад - это простой случайный алгоритм Лас-Вегаса, вычисляющий точковое максимальное решение монотонной 2VPI-системы за время \(O(mn^2\log {m})\) и линейное пространство.
Обратите внимание, что это соответствует лучшей известной детерминированной оценке времени [1], которая достигается при использовании пространства \(\Theta (n^2+m)\). |
We set the elemental abundances to the proto-solar values of [1]}. We also tried the default abundances of Cloudy [2]}. The results from these two sets of abundances are similar.
<FIGURE> | Мы установили элементные изобилия в соответствии с протосолнечными значениями [1]. Мы также использовали значений Cloudy по умолчанию [2]. Результаты, полученные с использованием этих двух наборов изобилий, схожи.
<РИСУНОК> |
Proposition 2.3 ([1]}, Theorem 74.3)
Every finitely generated \(\mathbb {Z}G\) -lattice \(M\) is isomorphic to a direct sum
\(M=\bigoplus _{i=1}^{c}(A_i,a_i)\oplus \bigoplus _{j=1}^{b}A_{j}\oplus \mathbb {Z}^{a}\)
| Предложение 2.3 ([1], Теорема 74.3)
Каждая конечно порожденная латтисом \(\mathbb {Z} G\) \((M)\) изоморфна прямой сумме
\(M = \bigoplus _{i=1}^{c}(A_i,a_i) \oplus \bigoplus _{j=1}^{b} A_{j} \oplus \mathbb {Z}^{a}\) |
The cosmological evolution of PBHs, such as accretion, evaporation, and merging, can significantly impact PBHs mass and release radiation, injecting energy into the surrounding medium, strongly affecting its thermal state, and leaving influential observable signatures [1]}.
| Космологическая эволюция черных дыр с примарной массой может значительно влиять на их массу в результате аккреции, испарения и слияния и освобождать излучение, вводя энергию в окружающую среду, сильно влияя на ее термическое состояние и оставляя заметные наблюдаемые сигнатуры [1]. |
where \(fg\in T\left( V^{\ast }\right) \) denotes the shuffle product
of the linear functionals \(f\) and \(g,\) see [1]}. The second property is
that signatures are characteristic in the sense that the expected signature
of a path-valued random variable will, under certain conditions,
characterise the law of that random variable, see [2]}, [3]} for
more details.
| где \(fg \in T(V^*)\) обозначает перемножение перемешанных линейных функционалов \(f\) и \(g\), см. [1]. Второе свойство заключается в том, что сигнатуры являются характеристическими в том смысле, что ожидаемая сигнатура случайной величины, принимающей значения в пространстве путей, будет, при определенных условиях, характеризовать закон этой случайной величины, см. [2], [3] для более подробной информации. |
Definition 1 [1]}
A stochastic processes \(\lbrace u(x,\omega )\rbrace _{x \in D}\) is called a second order processes if for almost everywhere \( x \in D \) ,
\(\mathbb {E}|u(x,\cdot )|^2=\int _{\Omega }|u(x,\omega )|^2 d\mathbb {P}(\omega )< \infty .\)
| Определение 1 [1]
Стохастический процесс \(\lbrace u(x,\omega )\rbrace _{x \in D}\) называется процессом второго порядка, если для почти всех \( x \in D \),
\(\mathbb {E}|u(x,\cdot )|^2=\int _{\Omega }|u(x,\omega )|^2 d\mathbb {P}(\omega )< \infty.\) |
Motivated by the recent breakthrough of transformers in document analysis and understanding systems, we propose the first end-to-end document image segmentation transformer, that achieves superior performance on standard instance-level segmentation benchmark [1]}. A fair comparative study has also been provided in this work with our previous baseline approach [2]}.
| Вдохновленные последними достижениями трансформеров в системах анализа и понимания документов, мы предлагаем первый полностью автоматизированный трансформер для сегментации изображений документов, достигающий высокой производительности на стандартных бенчмарках сегментации на уровне экземпляра [1]. В этой работе также представлено честное сравнительное исследование с нашим предыдущим базовым подходом [2]. |
There are also more processes in the electron-photon system that change the occupation number. Beyond Compton scattering we should consider contributions due to (for example) Bremsstrahlung and radiative (or double) Compton scattering [1]}, [2]}, [3]}, [4]}. Due to the radiative nature of such processes it is not true any longer that the photon number is conserved and we cannot describe them by a Master-Boltzmann equation.
| Также существует больше процессов в системе электрон-фотон, которые изменяют числа занятых состояний. Помимо комптоновского рассеяния, мы должны учитывать вклады, связанные, например, с излучением тормозного излучения и излучательного (или двойного) комптоновского рассеяния [1], [2], [3], [4]. Из-за излучательной природы таких процессов уже не справедливо, что число фотонов сохраняется, и мы не можем описать их с помощью уравнения Мастер-Больцмана. |
With the increasing popularity of video capturing devices, a tremendous amount of high-resolution (HR) videos are shot every day. These HR videos are often downscaled to save storage space and streaming bandwidth, or to fit screens with lower resolutions. It is also common that the downscaled videos need to be upscaled for display on HR monitors [1]}, [2]}, [3]}, [4]}, [5]}.
<FIGURE> | С растущей популярностью устройств для видеозаписи каждый день снимается огромное количество видео высокого разрешения (VR). Часто эти VR-видео уменьшаются в размере для экономии места на хранение и пропускной способности потоков передачи данных или для использования на экранах с более низким разрешением. Часто требуется также увеличить размер уменьшенных видео для отображения на мониторах высокого разрешения [1], [2], [3], [4], [5].
<FIGURE> |
For the two-dimensional case results have been obtained for discrete models of Holling type,
as, e.g., those of Agiza et al. [1]}, which are in line with the classical
works of May [2]} and Li and Yorke [3]},
when proving chaos for discrete single species logistic-type equations.
Other examples of chaos for two-dimensional systems have been numerically produced by adding some
delay effects in the equations, as in Nakaoka, Saito and Takeuchi [4]}.
| Для двумерного случая были получены результаты для дискретных моделей типа Холлинга,
как, например, те, которые были представлены Агизой и соавторами [1]}, их результаты соответствуют
классическим работам Мэя [2]} и Ли и Йорке [3]},
когда доказывался хаос для дискретных уравнений с логистическим типом для единственного вида.
Другие примеры хаоса в двумерных системах были численно получены путем добавления задержки в уравнения, как в работах Накаоки, Сайто и Такеучи [4]}. |
Now we add an auxiliary interaction \( {H}_{\sf CD}(t) \) (counter-driving-field) [1]}, [2]} to the reference Hamiltonian \( {H}^{(1)}(t) \) (REF ) in order to suppress the non-adiabatic transitions and reduce the gate time. As a result, the Hamiltonian will take the form
\({H}_{\sf T}(t)={H}^{(1 )}(t)+{H}_{\sf CD}(t) \)
| Теперь мы добавляем вспомогательное взаимодействие \( {H}_{\sf CD}(t) \) (противодействующее поле) [1], [2] к исходному гамильтониану \( {H}^{(1)}(t) \) (REF) для подавления неадиабатических переходов и сокращения времени операции. В результате гамильтониан примет вид
\({H}_{\sf T}(t)={H}^{(1)}(t)+{H}_{\sf CD}(t)\) |
There is an increasing interest in the interplay between image/video compression and computer vision [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}, [12]}. In order to study their relationship, one must have task-relevant labels on raw (uncompressed) images and video. Currently, there is a lack of such datasets, especially for video.
| Существует все больший интерес к взаимодействию между сжатием изображений/видео и компьютерным зрением [1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}, [12]}. Для изучения их взаимосвязи необходимо иметь задачно-ориентированные метки на необработанных (несжатых) изображениях и видео. В настоящее время существует недостаток таких наборов данных, особенно для видео. |
Now, a new angle [1]} is to view a baryon as
a quantum information storing device. The quantum information is
stored in the flavor content of the baryon and can be quantified in terms of quarks or in terms of pions. The number of microstates
\(n_{st}\) is given by the dimensionality of the representation of the flavor group under which the
baryon transforms. We can bring the information capacity
to its maximum, by
increasing the number of massless quark flavors to \(N_f \sim N\) .
| Теперь новый подход [1]} заключается в рассмотрении бариона как квантового устройства для хранения информации. Квантовая информация хранится во вкусовом содержимом бариона и может быть количественно охарактеризована с помощью кварков или пионов. Число микроструктур \(n_{st}\) определяется размерностью представления группы вкуса, под действием которой преобразуется барион. Мы можем максимизировать емкость информации, увеличивая число бесмассовых вкусовых кварков до \(N_f \sim N\). |
By Huisken's monotonicity formula, any singularity of the flow must have entropy less than \(\lambda [\mathbb {S} \times \mathbb {R}]\) . By [1]}, it must be a round sphere \(\mathbb {S}^2\) . However, as any tame ancient RMCF is asymptotically conical (as \(\Sigma \) is asymptotically conical), it cannot encounter a compact singularity at the first singular time. Thus, any such flow must remain smooth for all time. The second conclusion follows in view of main-theorem.
| Согласно формуле монотонности Хуискена, любая особенность потока должна иметь энтропию, меньшую, чем \(\lambda [\mathbb {S} \times \mathbb {R}]\). По[1] она должна быть сферой \(\mathbb {S}^2\). Однако, так как любой умеренно старый слабо сжимающий поток является асимптотически коническим (так как \(\Sigma\) является асимптотически конической), он не может столкнуться с компактной особенностью в первый момент появления особенности. Таким образом, любой такой поток должен оставаться гладким на всем протяжении времени. Второе утверждение следует из основной теоремы. |
Therefore \((\sigma _n)_{n\ge 0}\)
can be boundedly telescoped to a straight sequence. See Figure REF for an illustration. Note that this directive sequence cannot be telescoped to a directive sequence with a unique limit word. In other words, although \((X_{\sigma },T)\) is guaranteed a proper Bratteli-Vershik representation, by the model theorem of (Thm 4.7, [1]}) for minimal systems, we cannot obtain such a representation by simple manipulations of the data we are given.
| Значит \((\sigma _n)_{n\ge 0}\) может быть ограничено телескопической последовательностью. См. рисунок REF для иллюстрации. Обратите внимание, что эту директивную последовательность нельзя свернуть в директивную последовательность с однозначным предельным словом. Другими словами, хотя \((X_{\sigma },T)\) имеет правильное представление Браттелли-Вершика в соответствии с модельной теоремой (Теорема 4.7, [1]), для минимальных систем мы не можем получить такое представление простыми манипуляциями с имеющимися данными. |
In Section , we recall some facts about slowly varying functions, local times and generalize some results on stable processes found in [1]}, [2]} and [3]}. Section is dedicated to the proof of Theorem REF and Theorem REF . Finally, we apply our result to several models in Section , illustrating some remarks made in the previous section.
| В разделе мы напоминаем некоторые факты о медленно меняющихся функциях, локальных временах и обобщаем некоторые результаты по стабильным процессам, найденные в [1], [2] и [3]. Раздел посвящен доказательству Теоремы REF и Теоремы REF. Наконец, мы применяем наш результат к нескольким моделям в разделе , иллюстрируя некоторые замечания, сделанные в предыдущем разделе. |
Almost Kenmotsu manifolds have been studied by several authors
such as Dileo and Pastore ([1]}, [2]}, [3]}), Wang
and Liu ([4]}, [5]}, [6]}), De and Mandal ([7]}, [8]}) and many others.
| Несколько авторов изучали почти Кенмотсу многообразия, такие как Дилео и Пасторе [1, 2, 3], Ванг и Лю [4, 5, 6], Де и Мандал [7, 8] и многие другие. |
Our method is independent of the network architecture and maintains a simplistic distillation loss while it does not use any extra data as in [1]}. However, expanding our method with these components would be straightforward.
| Наш метод не зависит от архитектуры сети и поддерживает упрощенную функцию уплотнения, в то время как он не использует дополнительные данные, такие как в [1]. Однако расширение нашего метода с помощью этих компонентов будет простым. |
Point annotations are noisier than bounding boxes [1]}; annotating a point at the exact center of the object is a cumbersome task. Therefore, the box regression loss function, denoted by \(L\) , downweight the contribution from point annotations by a factor of \((1 + \beta )\) , \(\beta \ge 0\) ;
\(L = \frac{1}{N_g} \sum _{i=1}^{N_g} \Vert \hat{t}_i - (t_g)_i\Vert _1 + \frac{1}{N_p} \sum _{j=1}^{N_p} \frac{\Vert \hat{t}_j - (t_p)_j\Vert _1}{1 + \beta }\)
| Аннотации точек шумнее, чем ограничивающие рамки [1]. Аннотирование точки в точном центре объекта – задача неудобная. Поэтому функция потерь для регрессии рамки, обозначенная как \(L\), снижает вклад от аннотаций точек на фактор \((1 + \beta)\), где \(\beta \ge 0\):
\(L = \frac{1}{N_g} \sum _{i=1}^{N_g} \Vert \hat{t}_i - (t_g)_i\Vert _1 + \frac{1}{N_p} \sum _{j=1}^{N_p} \frac{\Vert \hat{t}_j - (t_p)_j\Vert _1}{1 + \beta}\) |
From [1]} and [2]}, the corresponding pdf of the copula \(C_{B}\) is given by
\(c_{B}(u_1,\cdots ,u_n)&=&\displaystyle \sum \limits _{\nu _1=0}^{m_1-1}\cdots \displaystyle \sum \limits _{\nu _n=0}^{m_n-1}\gamma \left(\frac{\nu _1}{m_1},\cdots ,\frac{\nu _n}{m_n}\right)\left(\prod \limits _{i=1}^{n}m_iG_{\nu _i:m_i-1}(u_i)\right),\)
| Из [1] и [2] соответствующая плотность вероятности функции зависимости \(C_{B}\) задается следующим образом:
\(c_{B}(u_1,\cdots ,u_n)&=&\displaystyle \sum \limits _{\nu _1=0}^{m_1-1}\cdots \displaystyle \sum \limits _{\nu _n=0}^{m_n-1}\gamma \left(\frac{\nu _1}{m_1},\cdots ,\frac{\nu _n}{m_n}\right)\left(\prod \limits _{i=1}^{n}m_iG_{\nu _i:m_i-1}(u_i)\right),\) |
One can look at [1]}, for necessary and sufficient conditions on a monoid with complimented presentations to be a Gaussian monoid (or, a right Gaussian monoid, or a left Gaussian monoid). Also, see [2]}, [3]} and [1]}, for necessary and sufficient conditions on a monoid with complimented presentations to be a Garside monoid.
| Можно обратиться к [1], чтобы узнать необходимые и достаточные условия для моноида с дополненными представлениями, чтобы он был гауссовым моноидом (или моноидом справа гауссовым, или моноидом слева гауссовым). Также обратите внимание на [2], [3] и [1], чтобы узнать необходимые и достаточные условия для моноида с дополненными представлениями, чтобы он был моноидом Гарсайда. |
The datasets module provides interfaces to eight commonly used datasets in HDC. Shown in Table REF , these datasets include several classification and regression tasks. The interface of each dataset inherits from PyTorch's dataset class, ensuring interoperability with other datasets in the PyTorch ecosystem, such as those in Torchvision, Torchaudio, Torchtext, and Torch Geometric [1]}. The following is an example of using the ISOLET dataset:
python
from torchhd import datasets
| Модуль datasets предоставляет интерфейсы для восьми часто используемых наборов данных в HDC. Показанные в таблице REF эти наборы данных включают несколько задач классификации и регрессии. Интерфейс каждого набора данных наследуется от класса данных PyTorch, обеспечивая совместимость с другими наборами данных в экосистеме PyTorch, такими как наборы данных в Torchvision, Torchaudio, Torchtext и Torch Geometric [1]}. Ниже приведен пример использования набора данных ISOLET:
python
from torchhd import datasets |
This standard derivation of the belief propagation equations follows Yedida et al [1]} in showing that the BP update rules follow from constrained minimization of an approximate free energy known as the Bethe free energy.
| Это стандартное приведение уравнений распространения убеждений следует за Yedida et al [1], показывая, что правила обновления БП следуют из ограниченной минимизации приближенной свободной энергии, известной как энергия Бете. |
Extending this so called skeleton model of the Min system to include the switching of MinE between two cytosolic states gives [1]}
\(R_\mathrm {de}^+\rightarrow R_\mathrm {recruit, El}^+ + R_\mathrm {recruit, Er}^+=\big (k_\mathrm {dE}^\mathrm {l} \, c_\mathrm {El}^{}|_\mathcal {S}^{}+k_\mathrm {dE}^\mathrm {r} \, c_\mathrm {Er}^{}|_\mathcal {S}^{}\big ) \, m_\mathrm {d}^{}\, ,\)
| Расширение модели Мин-системы, включающей переключение MinE между двумя цитозольными состояниями, дает [1]:
\(R_\mathrm {de}^+\rightarrow R_\mathrm {recruit, El}^+ + R_\mathrm {recruit, Er}^+=\big (k_\mathrm {dE}^\mathrm {l} \, c_\mathrm {El}^{}|_\mathcal {S}^{}+k_\mathrm {dE}^\mathrm {r} \, c_\mathrm {Er}^{}|_\mathcal {S}^{}\big ) \, m_\mathrm {d}^{}\, ,\) |
The notion of EF1 was first studied for the allocation of goods by [1]}, which allows an agent to envy another agent but requires that the envy can be eliminated by removing an item from the envied agent's bundle.
This notion naturally extends to chores by removing an item from the envious agent's bundle.
For both goods and chores, EF1 allocations always exist and can be efficiently computed by the Round Robin algorithm; see Section .
| Понятие EF1 было впервые изучено для распределения товаров [1], которое позволяет агенту позавидовать другому агенту, но требует, чтобы зависть можно было устранить, удалив товар из пакета завистливого агента.
Это понятие естественным образом распространяется на обязанности путем удаления товара из пакета завистливого агента.
Для товаров и обязанностей всегда существуют EF1-распределения, и их можно эффективно вычислить с помощью алгоритма Round Robin; см. раздел . |
The function class \(\mathcal {F}_\phi \) in this paper is constructed by the feedforward neural networks with the ReLU activation function.
Some recent results on the approximation theory of deep neural networks can be found in
[1]}, [2]}, [3]}, [4]}, [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, [11]}.
| Класс функций \(\mathcal {F}_\phi\) в данной статье строится с помощью нейронных сетей прямого распространения с активационной функцией ReLU.
Недавние результаты теории аппроксимации глубоких нейронных сетей можно найти в [1], [2], [3], [4], [5], [6], [7], [8], [9], [10], [11]. |
As noted in Remark REF , a fast algorithm for Lewis weights could yield faster algorithms for computing John ellipsoid, a problem with a long history of work [1]}, [2]}, [3]}, [4]}, [5]}, [6]}. It is known [7]} that the John ellipsoid problem is dual to the (relaxed) D-optimal experiment design problem [8]}. D-optimal design seeks to select a set of linear experiments with the largest confidence ellipsoid for its least-square estimator [9]}, [10]}, [11]}.
| Как указано в Замечании REF, быстрый алгоритм для весов Льюиса может привести к более быстрым алгоритмам для вычисления эллипсоида Джона, задача, имеющая долгую историю исследований [1], [2], [3], [4], [5], [6]. Известно [7], что задача эллипсоида Джона является двойственной к (расслабленной) задаче оптимального экспериментального проектирования D-оптимального типа [8]. D-оптимальное проектирование стремится выбрать набор линейных экспериментов с наибольшим эллипсоидом доверительности для его оценки методом наименьших квадратов [9], [10], [11]. |
We use stochastic optimizer AdamW [1]} with batch size 200. We set learning rate using a cyclical learning rate policy (CLR) [2]}, with each round learning rate increasing from 0 to \(10^{-3}\) in 2000 iterations then decreasing back to 0 in another 2000 iterations. Weight decay is set to be \(10^{-3}\) . Validation set is used to early stop training if no improvement is observed in 5 rounds. We conduct experiments on a cluster of NVIDIA A100 GPUs.
| Мы используем стохастический оптимизатор AdamW [1] с размером пакета 200. Мы устанавливаем скорость обучения с помощью политики циклической скорости обучения (CLR) [2], при которой скорость обучения в каждом раунде увеличивается от 0 до \(10^{-3}\) в течение 2000 итераций, а затем уменьшается обратно до 0 в следующих 2000 итераций. Весовое уменьшение установлено равным \(10^{-3}\). Валидационный набор данных используется для досрочной остановки обучения, если не наблюдается улучшения в течение 5 раундов. Мы проводим эксперименты на кластере графических процессоров NVIDIA A100. |
We have choose to evaluate our approach using the dataset presented by Bukhari et al. [1]}. The dataset consists of 38 handwritten document images from 7 different historical Arabic Books. It is split as follows: 28 documents for training and the remaining 10 images are used for testing. The main-text and the side-text are labeled in each document in the dataset. To train the Siamese network we use 24 documents from the training set and the remaining 6 documents are used for validation.
| Мы решили оценить наш подход, используя набор данных, представленный Бухари [1]. Датасет состоит из 38 изображений рукописных документов из 7 разных исторических арабских книг. Он разделен следующим образом: 28 документов для обучения и оставшиеся 10 изображений используются для тестирования. Основной текст и боковой текст помечены в каждом документе набора данных. Для обучения Siamese-сети мы используем 24 документа из набора обучения, а оставшиеся 6 документов используются для валидации. |
Let us illustrate these notions by an example. The following context \((G,M,I)\) is a subcontext of a context given by Wille [1]} with some modifications. \(G:=\lbrace Leech, Bream,Frog,Dog, Cat\rbrace \) and \(M:=\lbrace a,b,c,g\rbrace \) , where a:= needs water to live, b:= lives in water, c:= lives on land, g:=can move around.
\(I\) is given by Table REF , where * as an entry corresponding to object \(x\) and property \(y\) means \(xIy\) holds.
<TABLE> | Давайте проиллюстрируем эти понятия на примере. Следующий контекст \((G,M,I)\) является подконтекстом контекста, представленного Вилле [1], с некоторыми модификациями. \(G:=\lbrace Личина, Лещ, Лягушка, Собака, Кошка\rbrace \) и \(M:=\lbrace a,b,c,g\rbrace \), где a:= нуждается в воде для жизни, b:= живет в воде, c:= живет на суше, g:= может передвигаться.
\(I\) задается таблицей REF, где * в качестве элемента, соответствующего объекту \(x\) и свойству \(y\), означает, что \(xIy\) выполняется.
<TABLE> |
Note that \({\rmfamily var}(X/Z, B)\) is invariant by
crepant birational transformations of \((X, B)\) .
If \(X\) has canonical singularities and \(B = 0\) this agrees with the definition
of variation found in [1]}.
A family of terminal minimal models with \(B = 0\) and
\({\rmfamily var} = 0\) is always (up to base change)
crepant birational to a product, and so by Lemma REF
is in fact a product.
| Обратите внимание, что \(\operatorname{var}(X/Z, B)\) инвариантно относительно крепантных бирациональных преобразований \((X, B)\).
Если \(X\) имеет канонические особенности и \(B = 0\), то это согласуется с определением вариации, представленным в [1].
Семейство терминальных минимальных моделей с \(B = 0\) и \(\operatorname{var} = 0\) всегда (с возможными изменениями базы) является крепантно бирациональным с произведением и, таким образом, по лемме REF, на самом деле является произведением. |
Having defined noncommutative subobject classifiers \(\mathbf {H}\) , we approach defining noncommutative Grothendieck topologies via generalizing Lawvere-Tierney topologies on \(\widehat{\mathbf {C}}\) , see for example [1]}. A noncommutative Lawvere topology will then be a natural transformation \(j_{\mathbf {H}} : \mathbf {H} \mathbf {H}\) satisfying
| Определение некоммутативных классификаторов подобъектов \(\mathbf {H}\) позволяет нам подойти к определению некоммутативных топологий Гротендика путем обобщения законов Тирни Ловера на \(\widehat{\mathbf {C}}\), смотри, например, [1]. Некоммутативная топология Ловера будет являться естественным преобразованием \(j_{\mathbf {H}} : \mathbf {H} \mathbf {H}\), удовлетворяющим следующему условию: |
The special case of NPI when \(n=2\) is the bipartite (or mutual) information, which quantifies the amount of correlations present between two subsets of some proposition space \(\tilde{\mathcal {A}}\) . Mutual information (MI) as a measure of correlation has a long history, beginning with Shannon's seminal work on communication theory [1]} in which he first defines it. While Shannon provided arguments for the functional form of his entropy [1]}, he did not provide an axiomatization of MI.
| Особый случай НПИ, когда \(n=2\), является взаимной информацией (или двусторонней информацией), которая количественно оценивает количество корреляций между двумя подмножествами некоторого пространства предложений \(\tilde{\mathcal {A}}\). Взаимная информация (MI) как мера корреляции имеет долгую историю, начиная с первоначальных работ Шеннона по теории коммуникации [1], в которых он впервые определен. Хотя Шеннон предоставил аргументы в пользу функциональной формы его энтропии [1], он не представил аксиоматизацию MI. |
Consensus algorithms are decentralized methods for a team of agents to
agree on specific consensus states. In a
consensus filter, each agent exchanges information with neighboring
agents and not the entire team. Over time the agents reach an
agreement (or consensus) concerning the consensus state
[1]}, [2]}. Furthermore, average
consensus occurs when the final consensus state is the average of
the initial values [3]}, [4]}.
| Алгоритмы консенсуса - это децентрализованные методы для команды агентов достижения согласия относительно определенного состояния консенсуса. В консенсусном фильтре каждый агент обменивается информацией только с соседними агентами, а не с всей командой. Со временем агенты достигают соглашения (или консенсуса) относительно состояния консенсуса [1]}, [2]}. Кроме того, средний консенсус происходит, когда конечное состояние консенсуса равно среднему значению начальных значений [3]}, [4]}. |
Since \(\mu \) is radially symmetric, then its Fourier transform is radially symmetric, i.e. \(\widehat{\mu }(q)=h(|q|)\) for some function \(h:\mathbb {R}_+\rightarrow \mathbb {R}\) . Now, the same argument can be used as in [1]}, [2]}, [3]} to conclude that the first layer of \(L^*\) must be strongly eutactic. Indeed, (REF ) implies that, for all \(t>0\) (which could be written \(t=\lambda ^2 \alpha \) ),
\(\nabla _{L^*} \theta _{L^*}\left( \frac{1}{t}\right)=0,\)
| Поскольку \(\mu\) радиально симметрична, то ее преобразование Фурье также радиально симметрично, то есть \(\widehat{\mu}(q)=h(|q|)\) для некоторой функции \(h:\mathbb {R}_+\rightarrow \mathbb{R}\) . Теперь можно использовать тот же аргумент, что и в [1], [2], [3], чтобы заключить, что первый слой \(L^*\) должен быть сильно эвтактичным. Действительно, (REF) означает, что для всех \(t>0\) (что можно записать как \(t=\lambda ^2 \alpha\)),
\(\nabla _{L^*} \theta _{L^*}\left( \frac{1}{t}\right)=0,\) |
Finally, we evaluate our speaker verification system on dataset VoxCeleb[1]} to investigate the performance.
In the best case (\(\alpha \) = 1) of ResNet + L-GM loss system performs better than DNN-based i-vector system, which improves the accuracy of verification by more than 10%.
| Наконец, мы оцениваем нашу систему верификации говорящего на наборе данных VoxCeleb[1] для изучения ее производительности.
В лучшем случае (\(\alpha \) = 1) система ResNet + L-GM loss показывает лучшие результаты по сравнению с системой на основе DNN и векторами i-vector, что улучшает точность верификации более чем на 10%. |
Interpolation estimates for Stokes-type virtual element functions are well-known;
see [1]} for the standard 2D case
and [2]} for the enhanced 2D case.
To the best of our knowledge, no explicit interpolation estimates are available for 3D Stokes-type virtual element functions.
| Интерполяционные оценки для виртуальных элементных функций типа Стокса хорошо известны.
См. [1] для стандартного двумерного случая.
и [2] для улучшенного двумерного случая.
На нашей лучшей информации, нет явных интерполяционных оценок для трехмерных виртуальных элементных функций типа Стокса. |
In fact, the linking invariant can be considered as an example of virtual knot invariants called index polynomials [1]}, [2]}, [3]}.
An index polynomial can be defined whenever one has a chord index [4]} on the diagrams. For any oriented parity \(p\) the value \(p_D(v)^{sgn(v)}\) , \(v\in D), D\in \mathfrak {K}\) , is an example of such a chord index.
| Фактически, инвариант связности можно рассматривать как пример инвариантов виртуальных узлов, называемых индексными полиномами [1] [2] [3].
Индексный полином может быть определен, когда имеется индекс перекреста на диаграммах [4]. Для любого ориентированного паритета \(p\), значение \(p_D(v)^{sgn(v)}\), где \(v\in D\) и \(D\in \mathfrak {K}\), является примером такого индекса перекреста. |
In Euclidean setting, there are two important estimations for analysis of the Newton and quasi-Newton method, respectively. See [1]}.
We describe them as follows.
Let \(F: \mathbb {R}^{n} \longrightarrow \mathbb {R}^{n}\) be \( C^1 \) in the open convex set \(D \subset \mathbb {R}^{n}\) containing \( x \) , and let Jacobian \(x \mapsto J(x)\) be Lipschitz continuous with the constant \(\gamma \) . Then, for any \(x+p=:y\in D\) ,
\(\Vert F(y)-F(x)-J(x) p\Vert \le \frac{\gamma }{2}\Vert p\Vert ^{2}.\)
| В евклидовом пространстве имеются две важные оценки для анализа метода Ньютона и квази-метода Ньютона соответственно. См. [1].
Мы описываем их следующим образом.
Пусть \(F: \mathbb {R}^{n} \longrightarrow \mathbb {R}^{n}\) является \( C^1 \) на открытом выпуклом множестве \(D \subset \mathbb {R}^{n}\), содержащем \( x \), и пусть Якобиан \(x \mapsto J(x)\) является Липшиц-непрерывной с константой \(\gamma\). Тогда, для любого \(x+p=:y\in D\),
\(\Vert F(y)-F(x)-J(x) p\Vert \le \frac{\gamma }{2}\Vert p\Vert ^{2}.\) |
About 25 years later, cluster-tilting theory, introduced in [1]} (and [2]} in type \(\mathbb {A}\) ), brought a new perspective to the subject by replacing the hereditary algebra by its cluster category, and a direct relation between tilted and cluster-tilted algebras was then established in [3]}.
| Примерно через 25 лет, введение в [1] (и [2] в случае типа \(\mathbb{A}\)), теории кластерного наклонения привнесло новую перспективу в данную область путем замены наследственной алгебры ее категорией кластеров, и прямая связь между наклоненными и кластерно-наклоненными алгебрами была установлена в [3]. |
There are two common methods to solve the perturbation equation (REF ) numerically, namely WKB approximations and the Finite difference method. In this work, we follow the last one, it also named time-domain integration.
The method we used here could be found in Ref.[1]}
| Существуют два распространенных численных метода для решения уравнения возмущения (ссылка), а именно WKB-приближение и метод конечных разностей. В данной работе мы используем последний, он также называется методом интегрирования во временной области.
Метод, который мы используем здесь, можно найти в работе Ref.[1]. |
The search for the minimal aperiodic set was concluded by Jeandel and Rao [1]}, who used an enumeration approach to find aperiodic sets of 11 tiles over 4 and 5 colors and proved non-existence of an aperiodic set either containing 10 or fewer tiles or labeled by less than 4 colors.
| Поиск минимального апериодического набора был завершен Жанделем и Рао [1], которые использовали перечислительный подход для поиска апериодических наборов из 11 плиток по 4 и 5 цветам и доказали отсутствие апериодического набора, содержащего 10 или менее плиток или помеченного менее чем 4 цветами. |
[1]} introduced this idea, commonly called the ODE Method for stochastic approximations, ever since it has been extensively studied (e.g., [2]}, [3]}).
In a recent publication [4]} proved that a dynamic like (REF ) has only one equilibrium with all its coordinates positive, and that under some conditions over the parameters (that are satisfied in our setting), a related Robbins-Monro Algorithm converges almost surely to that equilibrium. Using that result we can establish Lemma .
| [1] Впервые [1] была предложена данная идея, обычно называемая методом ОДУ для стохастических приближений, и с тех пор она была широко изучена (например, [2], [3]).
В недавней публикации [4] было доказано, что динамика вида (ССЫЛКА) имеет только одно равновесие со всеми положительными координатами и что при некоторых условиях на параметры (которые выполняются в нашей постановке) связанный алгоритм Роббинса-Монро сходится практически наверняка к этому равновесию. Используя это результат, мы можем установить Лемму. |
Since knowledge distillation was first introduced in [1]}, the initial application was the fundamental computer vision task of image classification [2]}, [3]} and demonstrated excellent improvements. The pioneering study on knowledge distillation [3]} showed that a shallow or compressed model trained to mimic the behavior of a deeper or more complex model can recover some or all of the accuracy drop
| С тех пор, как впервые была представлена концепция кристаллизации знаний [1], ее первым применением стало основное задание компьютерного зрения — классификация изображений [2, 3], на котором были показаны отличные улучшения. Пионерское исследование по кристаллизации знаний [3] показало, что поверхностная или сжатая модель, обученная имитировать поведение более глубокой или сложной модели, может восстановить часть или все снижение точности. |
The proof follows exactly the same argument of the proof of [1]}, replacing the averaging operator \(\mathcal {S}_q\) by \(\mathbb {S}_{x}\) , the Askey–Wilson operator \(\mathcal {D}_q\) by \(\mathbb {D}_{x}\) and where the polynomials \(U_1\) and \(U_2\) are those appearing in () and ().
| Доказательство следует точно тому же рассуждению, что и в доказательстве [1]}, заменяя оператор усреднения \(\mathcal {S}_q\) на \(\mathbb {S}_{x}\), оператор Аски-Вильсона \(\mathcal {D}_q\) на \(\mathbb {D}_{x}\), а полиномы \(U_1\) и \(U_2\) те же, что и в () и (). |
To make efficient use of the communication channel in CI, the features produced by the edge sub-model should be compressed. The topic of intermediate feature compression has attracted considerable interest in recent years [1]}, [2]}, [3]}, [4]}, [5]}, and is being explored in the standardization community under the title “Video Coding for Machines” (VCM) [6]}, as well as JPEG-AI [7]}.
| Для эффективного использования канала связи в CI, особенности, полученные от краевых подмоделей, должны быть сжаты.Тема сжатия промежуточных особенностей привлекает значительный интерес в последние годы [1] ,[2],[3],[4],[5] и изучается в стандартизационном сообществе под названием «Кодирование видео для машин» (VCM) [6] и также JPEG-AI [7]. |
We see exciting directions for future work both on a
theoretical and an application level.
Various additional processors can be conceived
for our complexity framework, for instance forms of dependency pairs for
non-innermost rewriting [1]}, [2]}, knowledge propagation and
narrowing [1]}.
| Мы видим захватывающие перспективы для будущей работы как на теоретическом, так и на прикладном уровне.
Можно представить различные дополнительные процессоры для нашей структуры сложности, например, формы пар зависимостей для не-самой внутренней переписывания [1] [2], распространение знаний и сужение [1]. |
\(v_p^{(\lambda )}\) are mode functions for three polarizations (\(\lambda \) =\(\pm \) or \(\parallel \) ), which can be solved from (REF ). \(Z^0\) has no dynamic in unitary gauge[1]}. Then the equation of motion for vector fluctuations \(Z_\mu \) becomes
\((\partial _\tau ^2+p^2+m^2_Z a^2)\mathbf {Z}=2ic_0a\dot{\theta }_0\mathbf {p\times Z} ~,\)
| \(v_p^{(\lambda )}\) - это модовые функции для трех поляризаций (\(\lambda \) =\(\pm \) или \(\parallel \) ), которые могут быть решены из (REF). \(Z^0\) не имеет динамики в юнитарной калибровке[1]. Тогда уравнение движения для векторных флуктуаций \(Z_\mu \) становится \((\partial _\tau ^2+p^2+m^2_Z a^2)\mathbf {Z}=2ic_0a\dot{\theta }_0\mathbf {p\times Z} ~,\) |
Aigner and Fromme [1]} proved that for any natural number \(k\) , there exists a \(C_3\) -free graph with the cop number at least \(k\) . Therefore, the class of \(K_3\cup K_1\) -free graphs also has unbounded cop number. However, the cop number of a connected \(K_3\cup K_1\) -free graph that contains a \(C_3\) , is at most 3 since every \(C_3\) dominates the graph. In the following theorem, we show that if a connected \(K_3\cup K_1\) -free graph \(G\) is also \(P_5\) -free, then \(cop(G)\le 2\) .
| Aigner и Fromme [1] доказали, что для любого натурального числа \(k\), существует \(C_3\)-свободный граф с коп-числом не менее \(k\). Следовательно, класс \(K_3\cup K_1\)-свободных графов также имеет неограниченное коп-число. Однако, коп-число для связного \(K_3\cup K_1\)-свободного графа, содержащего \(C_3\), не превышает 3, поскольку каждый \(C_3\) доминирует граф. В следующей теореме мы показываем, что если связный \(K_3\cup K_1\)-свободный граф \(G\) также является \(P_5\)-свободным, то \(cop(G) \le 2\). |
in terms of multiple application of Darboux transformations [1]}, [2]}. In this note we discuss two systems which have the Laguerre and Jacobi polynomials as the main parts of the eigenfunctions. We follow the notation of [2]} with slight modifications for simplification sake.
| с точки зрения множественного применения преобразований Дарбу [1], [2]. В этой заметке мы обсуждаем две системы, в которых лагерровы и якобиевы полиномы являются основными частями собственных функций. Мы следуем обозначениям [2] с некоторыми небольшими модификациями для упрощения. |
We get the next result by combining the definition of “inverse limit” with the fact that for every ergodic nilsystem \((Y,\mathcal {D},\nu ,S)\) there is an \(\ell \in \mathbb {N}\) such that the ergodic components of \((Y,\mathcal {D},\nu ,S^\ell )\) are totally ergodic; see [1]} for justification.
| Мы получаем следующий результат, объединяя определение "инверсной предельной точки" с фактом, что для каждой эргодической нильсистемы \((Y,\mathcal {D},\nu ,S)\) существует \(\ell \in \mathbb {N}\), такое что эргодические компоненты \((Y,\mathcal {D},\nu ,S^\ell )\) являются полностью эргодическими; см. [1] для обоснования. |
The first strategy is somewhat commonplace and has been used and detailed for example in [1]} and [2]}, for example. We have not seen the second strategy described in the literature.
| Первая стратегия довольно распространена и была использована и подробно описана, например, в [1] и [2]. Вторая стратегия, по нашим данным, не описана в литературе. |
where \(\phi _k = [y_{k-1}, \ldots , y_{k-n}, u_{k-1-d}, \ldots , u_{k-m-d}]^\top \) . The parameter \(\theta _c^*\) is a transformation of the parameters of \(A\) and \(B\) , by virtue of the relation in (REF ). It can also be shown that [1]} that the control input in (REF ) minimizes the variance \(E((1/N)\sum _1^N(y_k^2))\) , and is often referred to as a minimum variance control [2]}, [3]}, [4]}.
| где \(\phi _k = [y_{k-1}, \ldots , y_{k-n}, u_{k-1-d}, \ldots , u_{k-m-d}]^\top \) . Параметр \(\theta _c^*\) является преобразованием параметров \(A\) и \(B\), по силе соотношения в (REF ). Также можно показать [1]}, что управляющий вход в (REF ) минимизирует дисперсию \(E((1/N)\sum _1^N(y_k^2))\) и часто называется управлением с минимальной дисперсией [2]}, [3]}, [4]}. |
These formulas can be proved by an argument which is customary to variational treatments of homogenization problems (see e.g. [1]}).
In proving formulas (REF ) and (REF ), it is necessary to use the growth hypothesis (REF ).
In case it does not hold, the limits in formulas
(REF ) and (REF ) may be different from the limit in the definition
of \(\widehat{Q}_{\bf m}f\) .
| Эти формулы могут быть доказаны с помощью аргумента, который обычно используется в вариационных методах решения проблем гомогенизации (см., например, [1]).
При доказательстве формул (ССЫЛКА) и (ССЫЛКА), необходимо использовать предположение о росте (ССЫЛКА).
Если это предположение не выполняется, пределы в формулах (ССЫЛКА) и (ССЫЛКА) могут отличаться от предела в определении \(\widehat{Q}_{\bf m}f\). |
and \(\mathbf {V}\) is the velocity field of the congruence. If the angular velocity is spatially uniform such that \(\mathbf {V} = \Omega \times \mathbf {r}\) , then \(\omega = 2 \,\Omega \) and \(\mathcal {H}_{SV}\) reduces to \(\mathcal {H}_{SR}\) . For a description of moving macroscopic matter in continuum mechanics, see section E.4.1 of Ref. [1]}. For recent work on spin-vorticity coupling, see [2]}, [3]}.
| и \(\mathbf {V}\) - поле скорости согласования. Если угловая скорость пространственно однородна, так что \(\mathbf {V} = \Omega \times \mathbf {r}\), тогда \(\omega = 2 \,\Omega\) и \(\mathcal {H}_{SV}\) сводится к \(\mathcal {H}_{SR}\). Для описания движущегося макроскопического вещества в непрерывной механике см. раздел E.4.1 в Ref. [1]. Для недавних исследований по связи спина и вихря см. [2], [3]. |
The conditional mark distribution in the M\(\beta \) and M\(\beta \) A models
involves a large number of parameters. There are \(M^2 Z\) decay rate
parameters and \(M(M - 1)Z\) baseline conversion rate parameters
which makes posterior sampling a computationally challenging task.
We have developed a screening procedure based on association rule
learning [1]} that operates
on the data involved in the likelihood and eliminates parameters prior
to posterior sampling.
| Распределение условных отметок в моделях M\(\beta \) и M\(\beta \) A связано с большим количеством параметров. Есть \(M^2 Z\) параметров скорости распада и \(M(M - 1)Z\) параметров базовой скорости конверсии, что делает выборку постериорных значений вычислительно сложной задачей. Мы разработали процедуру скрининга на основе обучения правил ассоциации [1], которая оперирует данными, используемыми в функции правдоподобия, и удаляет параметры перед выборкой постериорных значений. |
Remark 1.1 Recall that we have the product formula (see [1]} the equation following Remark 2.4.4):
\(H^*(M_{\mathrm {Dol}}(n,d), {\mathbb {C}}) = H^*(\mathrm {Jac}(C), {\mathbb {C}}) \otimes H^*(\hat{M}_{\mathrm {Dol}}(n,d), {\mathbb {C}})\)
| Замечание 1.1. Напомним, что у нас есть производная формула (см. [1] уравнение после Замечания 2.4.4):
\(H^*(M_{\mathrm {Dol}}(n,d), {\mathbb {C}}) = H^*(\mathrm {Jac}(C), {\mathbb {C}}) \otimes H^*(\hat{M}_{\mathrm {Dol}}(n,d), {\mathbb {C}})\) |
[T]he wave function, and more in general the quantum state \(\psi \) , are interpreted realistically in several presentations of quantum theory. From the perspective of RQM, this is precisely what generates the confusion about quantum theory [1]}. RQM circumvents the theorems for the reality of the wave function ([2]}; [3]}) because it is not a strongly realist theory [...] which is an implicit assumption of these theorems.
| Волновая функция, и в более общем случае квантовое состояние \(\psi\), интерпретируются реалистически в нескольких представлениях квантовой теории. С точки зрения RQM, именно это вызывает путаницу в квантовой теории [1]}. RQM обходит теоремы о реальности волновой функции ([2]}; [3]}) потому, что она не является сильно реалистической теорией [...], которая является неявным предположением этих теорем. |
Training Datasets. Unlike prior object detection work that requires training datasets with human-provided bounding boxs for objects, our method only needs datasets with annotations of image-caption pairs.
Therefore, we use a combination of existing image-caption datasets including COCO Caption [1]}, Visual-Genome [2]}, and SBU Caption [3]}.
Our final dataset for pseudo label generation and detector training contains about 1M images.
| Обучающие наборы данных. В отличие от предыдущих работ по обнаружению объектов, требующих обучающих наборов данных с людскими прямоугольниками охвата объектов, наш метод требует только наборов данных с аннотациями пары изображение-подпись.
Поэтому мы используем комбинацию существующих наборов данных изображений и подписей, включая COCO Caption [1], Visual-Genome [2] и SBU Caption [3].
Наш окончательный набор данных для генерации псевдометок и обучения детектора содержит около 1 миллиона изображений. |
We repeat the state-of-the-art experiments in [1]} for a two-dimensional scalar lattice field theory with a quartic interaction.
| Мы повторяем эксперименты новейших исследований в [1] для двумерной скалярной теории поля на решетке с квартичным взаимодействием. |
In this paper this generalization of the equation system is presented. Section is dedicated to an accurate application of Grad's closure discussed in [1]} for the Braginskii system of equations used in transport codes, for instance SOLPS-ITER [2]}, [3]}. In addition, the heat flux dependent part of the viscosity is considered in section .
| В этой статье представлена эта обобщенная система уравнений. Секция посвящена точному применению замыкания Града, обсуждаемого в [1], для системы уравнений Брагинского, используемой в транспортных кодах, например, SOLPS-ITER [2], [3]. Кроме того, в разделе рассматривается зависимая от потока тепла часть вязкости. |
Nonclassicality in phase space is represented by the negative values
of quasiprobability distributions [1]}, [2]},
such as Glauber-Sudarshan \(P\) function [3]}, [4]},
Wigner function [5]}. Here, we discuss the Wigner
function to show the nonclassicality in PAHS qualitatively and subsequently quantify
the negative volume of Wigner function as a measure of nonclassicality
[6]}.
| Неклассичность в фазовом пространстве представлена отрицательными значениями квазивероятностных распределений [1], [2], таких как функция Глаубера-Сударшана \(P\) [3], [4] и функция Вигнера [5]. Здесь мы обсуждаем функцию Вигнера для качественного показа неклассичности в ПАУА и последующего количественного измерения отрицательного объема функции Вигнера как меры неклассичности [6]. |
Stationarity is a powerful property, because it enables the development of an ergodic theory of random rooted graphs. See the inspiring works [1]} on Galton-Watson trees, [2]} on random rooted graphs, and [3]} on general random environments. In particular, a classical application of Kingman's sub-additive ergodic theorem allows one to define the (quenched) asymptotic entropy of random walks on stationary random graphs, as recalled in the following lemma.
| Стационарность - это мощное свойство, поскольку она позволяет развить эргодическую теорию случайных корневых графов. Смотри вдохновляющие работы [1] по деревьям Гальтона-Уотсона, [2] по случайным корневым графам и [3] по общим случайным средам. В частности, классическое применение субаддитивной эргодической теоремы Кингмана позволяет определить (квенчедную) асимптотическую энтропию случайных блужданий на стационарных случайных графах, как напоминается в следующей лемме. |
This characterization of barycenters can be much easier to work with and the assumptions required are mild in practice. To accompany the notion of a Karcher mean, the Fréchet derivative [1]} of the variance functional \(G_{\lambda }\) is given by
\( \nabla G_{\lambda }(\nu ) = -\sum _{i=1}^p \lambda _i \left( T_i - \operatornamewithlimits{Id}\right),\)
| Эта характеристика барицентров может быть гораздо проще для работы, и требуемые предположения в практике слабы. Для сопутствующего понятия среднего Карчера, производная Фреше [1] от функционала дисперсии \(G_{\lambda }\) задается следующим образом:
\( \nabla G_{\lambda }(\nu ) = -\sum _{i=1}^p \lambda _i \left( T_i - \operatornamewithlimits{Id}\right),\) |
We prove this theorem in section and section . We also provide some short overview of the methods of [1]} in the section .
When the vector \(k\) is sufficiently positive we can use Atyiah-Bott localization [2]} to compute the graded dimensions in the formula in the formula similar to the
one from [3]}.
| Мы доказываем эту теорему в разделе и . Мы также предоставляем краткий обзор методов [1] в разделе .
Когда вектор \(k\) достаточно положителен, мы можем использовать локализацию Атия-Ботта [2] для вычисления степенных размерностей в формуле, подобной
той из [3]. |
Since \({\mathsf {D}}_{\mathbf {\theta }}\) is a CNN, its differentiability is a standard assumption. The contractive \({\mathsf {D}}_{\mathbf {\theta }}\) and convex \(g\) , ensure that \({\mathsf {T}}_{\mathbf {\theta }}\) is a contraction, enabling provable convergence of the forward and backward passes. The design of contractive \({\mathsf {T}}_{\mathbf {\theta }}\) is a common PnP/RED strategy to ensure convergence [1]}, [2]}, [3]}.
| Поскольку \({\mathsf {D}}_{\mathbf {\theta }}\) является сверточной нейронной сетью (CNN), ее дифференцируемость является стандартным предположением. Сжатие \({\mathsf {D}}_{\mathbf {\theta }}\) и выпуклость \(g\) гарантируют, что \({\mathsf {T}}_{\mathbf {\theta }}\) является сжимающим оператором, обеспечивая доказуемую сходимость прямого и обратного проходов. Проектирование сжатого \({\mathsf {T}}_{\mathbf {\theta }}\) является общей стратегией PnP/RED для обеспечения сходимости [1], [2], [3]. |