10.26102/2310-6018/2020.28.1.015
Базилевский, М.П.
0000-0002-3253-5697
Иркутский государственный университет путей сообщения
Власенко, Л.Н.
Иркутский государственный университет путей сообщения
Оценивание моделей парной линейной регрессии с параметрами в виде матриц линейных операторов двумерного векторного пространства
Estimation of pair linear regression models with parameters in the form of linear operator matrices of two-dimensional vector space
МОДЕЛИРОВАНИЕ, ОПТИМИЗАЦИЯ И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ
2020
регрессионная модель
линейный оператор
векторное пространство
прогнозирование
метод наименьших квадратов
метод множителей Лагранжа
regression model
linear operator
vector space
forecasting
ordinary least squares
method of Lagrange multipliers
ru
2020-02-02
Journal Article
https://moit.vivt.ru/wp-content/uploads/2020/02/BazilevskiySoavtori_1_20_1.pdf
2310-6018
Ключевой проблемой при построении регрессионной модели является выбор её структурной спецификации, т.е. состава переменных и математической формы связи между ними. Все известные на сегодняшний день спецификации регрессий основаны на том, что их неизвестные параметры представляют собой матрицы линейных операторов одномерного векторного пространства. В данной работе впервые рассмотрены модели парной линейной регрессии с параметрами в виде матриц линейных операторов двумерного векторного пространства. Показано, что такие модели можно использовать для прогнозирования значений объясняемой переменной, причем, для этого исследователю не нужно задавать прогнозные значения объясняющей переменной, поскольку они последовательно определяются по модели. Для оценивания предложенных моделей сформулирована оптимизационная задача, основанная на методе наименьших квадратов с ограничениями. С помощью метода множителей Лагранжа доказано, что решение сформулированной задачи сводится к решению системы линейных алгебраических уравнений. Рассмотрен пример оценивания предложенных моделей по конкретным данным. В результате сумма квадратов ошибок по разработанной модели оказалась в пять раз меньше, чем сумма квадратов ошибок по классической модели парной линейной регрессии.
The key problem in constructing a regression model is the choice of its structural specification, i.e. the composition of the variables and the mathematical form of the relationship between them. All currently known regression specifications are based on the fact that their unknown parameters are matrices of linear operators of a one-dimensional vector space. In this paper, for the first time, linear regression models with parameters in the form of matrices of linear operators of a two-dimensional vector space are considered. It is shown that such models can be used to predict the values of the explained variable, and for this, the researcher does not need to set the predicted values of the explanatory variable, since they are sequentially determined by the model. To estimate the proposed models, an optimization problem is formulated based on the least-squares method with restrictions. Using the method of Lagrange multipliers, it is proved that solving the formulated problem reduces to solving linear algebraic equations system. An example of estimating the proposed models for specific data is considered. As a result, the error sum of squares by the developed model turned out to be five times less than the error sum of squares by the classical pair linear regression model.
№1(28) (2020)