Abstract
Identification of the quasilinear difference equation is reduced to the problem of regression analysis with mutually dependent observable variables. This makes the classical solution schemes, based on the least squares method and its variations, ineffective. Finding estimates of the autoregressive equation coefficients is significantly complicated by poor conditionality of the system of equations, which represent necessary conditions for the minimum sum of squared deviations. In this case, estimates of the problem parameters are untenable. For solving such problems, it is possible to use the generalized least absolute deviations (GLAD) method, reduced to problems sequence of estimates of the autoregressive equation coefficients with the weighted least absolute deviations (WLAD) method. The article proposes an algorithm for solving the problem of WLAD-estimation, based on its conversion to the problem of linear programming (LP) of simple structure. The simplicity of the admissible set of the LP problem structure lies in the intersection of a linear subspace with a parallelepiped. It allows to propose an effective algorithm for its solution based on the gradient projection method. The algebraic computational complexity of the proposed algorithm does not exceed the value O ( N 2 M 2 ), where N is the number of coefficients in the equation under study, and M is the number of the observed values. This WLAD computational complexity estimate is considered the best among the known ones.
Highlights
ПАРАМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ КВАЗИЛИНЕЙНОГО РАЗНОСТНОГО УРАВНЕНИЯИдентификация квазилинейного разностного уравнения сводится к задаче регрессионного анализа с взаимно зависимыми наблюдаемыми переменными
Введение Проблема идентификации является в настоящее время одной из основных проблем системного анализа и его приложений в различных областях [1]
Identification of the quasilinear difference equation is reduced to the problem of regression analysis with mutually dependent observable variables
Summary
Идентификация квазилинейного разностного уравнения сводится к задаче регрессионного анализа с взаимно зависимыми наблюдаемыми переменными. Это делает неэффективными классические схемы решения, основанные на методе наименьших квадратов и его вариациях. Нахождение оценок коэффициентов уравнения авторегрессии существенно осложняется плохой обусловленностью системы уравнений, представляющих собой необходимые условия минимума суммы квадратов отклонений. Для решения подобных задач возможно применение обобщённого метода наименьших модулей (ОМНМ), сводимого к решению последовательности задач оценки коэффициентов уравнения регрессии по взвешенному методу наименьших модулей (ВМНМ). В статье предложен алгоритм решения задачи ВМНМоценивания, на основе ее сведения к задаче линейного программирования (ЛП) простой структуры. Простота структуры допустимого множества используемой задачи ЛП: пересечение линейного подпространства с параллелепипедом, – позволяет предложить эффективный алгоритм ее решения, основанный на методе проекции градиента. Алгебраическая вычислительная сложность предложенного алгоритма не превосходит величины O(N2M2), где N – количество коэффициентов в исследуемом уравнении, M – количество наблюдаемых значений. Ключевые слова: метод наименьших модулей; модель авторегрессии; линейное программирование; метод проекции градиента; вычислительная сложность.
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
More From: Bulletin of the South Ural State University series "Mathematics. Mechanics. Physics"
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.