Оценивание параметров регрессии с зависимыми шумами
Рассматривается задача оценивания d-мерного вектора неизвестных параметров регрессии с нелинейными условно-гауссовскими шумами типа AR/ARCH. В качестве метода оценивания используется модификация процедуры Джеймса - Стейна. Предлагается улучшенная оценка в смысле сред-неквадратической точности. Приводятся результаты численного сравнения эмпирических рисков предлагаемой оценки и оценки МНК для модели с шумами AR(1)/ARCH(1).
Estimating parameters in a regression model with dependent noises.pdf 1. Введение. Постановка задачи Основной задачей при описании статистических данных является построение адекватной модели и оценка её коэффициентов [1, 2]. Когда речь идет о нахождении оценки, то классическими являются метод наименьших квадратов (МНК) и метод максимального правдоподобия. Эти методы позволяют построить оценки с хорошими свойствами, такими, как несмещенность, оптимальность и состоятельность, для схемы независимых наблюдений [3]. Применение классических методов к более общим моделям, в которых возмущения являются зависимыми и не-гауссовскими, не всегда приводит к наилучшим оценкам. В 60-х годаx 20 века Джеймс и Стейн предложили подход, позволяющий повысить точность оценки среднего многомерного нормального распределения, если не ограничиваться несмещенными оценками. Была построена процедура сжатия, которая открыла возможности для повышения качества оценивания [4]. Метод Джеймса - Стейна получил развитие для более общих моделей, в том числе с шумами, имеющими неизвестную ковариационную матрицу [5-8]. В [3, 9] были предложены процедуры улучшенного оценивания для регрессии со сферическими симметричными распределениями шумов. В данной работе рассмотрим задачу улучшенного (в смысле среднеквадрати-ческой точности) оценивания d-мерного вектора регрессии с нелинейным стохастическим условно-гауссовским шумом. Пусть на вероятностном пространстве (Q, F, P) наблюдения описываются уравнением Y = 0+v§, (1) где 0e®c Md - вектор неизвестных параметров, v - известное положительное число, = (^,...,|d) - вектор первых d значений процесса AR(p)/ARCH(q), который удовлетворяет уравнению It =Ро + E -1 + L + fajj 8,. (2) i=1 \ j=1 Предположим, что | имеет условно-гауссовское распределение относительно некоторой с-алгебры G с нулевым средним и условной ковариационной матрицей D(G), такой, что trD(G) -Хтах(D(G)) >K(d) > 0, а математическое ожидание максимального собственного значения ограниченно сверху, т.е. EXm3x(D(G)) do оценка 9 превосходит по среднеквадратической точности оценку МНК (3). Более того, разность рисков Д (9) = R (9*, 9) - R (9,9) < -с2. * Доказательство. Рассмотрим среднеквадратический риск оценки 9 : R (9*, 9) = Ee|9*-9|2 =Ee|9-9 + g (Y )Y-9|2 = = Ee 19 - 9 + E9 ((g(Y) -1)2 |Y|2 ) + 2 Z E9 (g(Y) -1) (Yj - 9), j=1 где g(x) = с/|X . Вычисляя второе и третье слагаемые, как показано, например, в [10], имеем R (9*, 9) = R (9,9) + с2 - E9W (Y) , W (x) = с2 + 2c ^^ X - 2trD(G) • с Д . |x| |x| Учитывая здесь, что шум | имеет условно-гауссовское распределение Law(l \G) = Nd (0,D(G)) и неравенство x'Ax < Xmax (A) ||x||2, получаем E9W(Y) p + vEe^|, 1 x'D-1f) x где ^ J,1^* = (2n)d '^A/det Df Rft'" 2 * Для вычисления интеграла сделаем замену переменной u = D~1/2f)x,. Тогда E0 II = TT-)d7r I D1/2 G)u|e4 du j\u\e-du. (2П) Rd (2П) Rd Переходя в последнем интеграле к сферическим координатам, получаем „2 2 d/2 _ E0||^^max(D(f))-ш | rde 2 dr < (2n)d/2Г( |) 0 r d +1 I--2 d-1 i- < Л*-^^ I (2t)T e~{dt =v2X* - , (Wi)i () r(2 Таким образом, E0 |y| 1 >Sd и Д0 < c2-ov2k(2)5d. Минимизируя правую часть по с, находим с = v2k(2)5d. Следовательно, Д0 < -c2. Теорема доказана. Замечание. Теорема утверждает, что предложенная оценка (4) превосходит по среднеквадратической точности оценку МНК. При этом минимальное снижение риска равно -c2. Далее рассмотрим пример модели (1), в которой координаты вектора шумов задаются процессом AR(1)/ARCH(1) вида It = М-1 . (5) где |Р1 < в < 1 , 0
Ключевые слова
регрессия,
улучшенное оценивание,
среднеквадратиче-ский риск,
условно-гауссовский шум,
процесс типа AR/ARCH,
regression,
improved estimation,
mean square risk,
conditionally Gaussian noise,
AR/ARCH processАвторы
| Повзун Мария Анатольевна | Томский государственный университет | магистрантка механико-математического факультета | povzunyasha@gmail.com |
| Пчелинцев Евгений Анатольевич | Томский государственный университет | кандидат физико-математических наук, доцент кафедры математического анализа и теории функций механико-математического факультета | evgen-pch@yandex.ru |
Всего: 2
Ссылки
Ибрагимов И.А.,Хасьминский Р.З. Асимптотическая теория оценивания. М.: Наука, 1979.
Ширяев А.Н. Основы стохастической финансовой математики. Т. 1. Факты. Модели. М.: ФАЗИС, 1998. 512 с.
FourdrinierD. Statistique inferentielle. Paris: Dunod, 2002. P. 336.
James W., Stein C. Estimation with quadratic loss // Proc. Fourth Berkeley Symposium on Mathematics Statistics and Probability, University of California Press, Berkeley. 1961. V. 1. P. 361-380.
Berger J.O., Haff L.R. A class of minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Statist. Decisions. 1983. No. 1. P. 105-129.
Efron B., Morris C. Families of minimax estimators of the mean of a multivariate normal distribution // Ann. Statist. 1976. No. 4. P. 11-21.
Gleser L.J. Minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Ann. Statist. 1986. V. 14. No. 4. P. 1625-1633.
Stein C. Estimation of the mean of a multivariate normal distribution // Ann. Statist. 1981. V. 9(6). P. 1135-1151.
Fourdrinier D., Strawderman W.E., William E. A unified and generalized set of shrinkage bounds on minimax Stein estimates // J. Multivariate Anal. 2008. V. 99. P. 2221-2233.
Пчелинцев Е.А. Процедура Джеймса - Стейна для условно-гауссовской регрессии // Вестник Томского государственного университета. Математика и механика. 2011. № 4(16). C. 6-17. Поведение эмпирических среднеквадратических рисков оценок при изменении параметра d при Р1 = 0.7; a1 = 0.2; s2 = 1; ст2 = 1.5; v = 2
Конев В.В., Пчелинцев Е.А. Оценивание параметрической регрессии с импульсными шумами по дискретным наблюдениям // Вестник Томского государственного университета. Математика и механика. 2012. № 1(17). C. 20-35.
Конев В.В., Пергаменщиков С.М., Пчелинцев Е.А. Оценивание параметрической регрессии с импульсными шумами по дискретным наблюдениям // Теория вероятностей и ее применения. 2013. Т. 58. № 3. C. 454-471.
Pchelintsev E. Improved estimation in a non-Gaussian parametric regression // Statistical Inference for Stochastic Processes. 2013. V. 1. P. 16-28.
Пчелинцев Е.А., Пчелинцев В.А. Минимаксное оценивание гауссовской параметрической регрессии // Вестник Томского государственного университета. Математика и механика. 2014. № 5(31). C. 40-47.