Процедура Джеймса – Стейна для условно-гауссовской регрессии | Вестник Томского государственного университета. Математика и механика. 2011. № 4(16).

Процедура Джеймса – Стейна для условно-гауссовской регрессии

В статье рассматривается задача оценивания р-мерного (p≥2) вектора среднего многомерного условно-гауссовского распределения при квадратической функции потерь. Задача такого типа возникает, например, при оценивании параметров непрерывной регрессионной модели с негауссовским процессом Орнштейна - Уленбека. Предлагается модификация процедуры Джеймса - Стейна вида θ*(Y) = (1-c/||Y||)Y, где Y - наблюдение и с > 0 - специальная константа. Для этой оценки найдена явная верхняя граница для квадратического риска и показано, что ее риск строго меньше риска обычной оценки максимального правдоподобия для размерности p≥2. Эта процедура применяется к проблеме параметрического оценивания непрерывной условно-гауссовской регрессии и к оцениванию вектора среднего многомерного нормального распределения, когда ковариационная матрица неизвестна и зависит от некоторых мешающих параметров.

?.pdf ВведениеВ 1961 г. Джеймс и Стейн, рассматривая задачу оценивания вектора среднего θp-мерного нормального распределения случайного вектора Y c единичной кова-риационной матрицей Ip, ввели оценку2ˆ JS 1 2p YYƒ =⎛⎜ − − ⎞⎟⎝ ⎠, (1)которая для p≥3 превосходит оценку максимального правдоподобияˆ ƒML =Y (2)при квадратическом рискеR(ƒ,ƒˆ) = Eƒ ƒ − ƒˆ2, (3)т.е. для всех значений параметра θR(ƒ,ƒˆJS)

Ключевые слова

non-Gaussian Ornstein - Uhlenbeck process, James - Stein procedure, improved estimation, conditionally Gaussian regression model, негауссовский процесс Орнштейна - Уленбека, процедура Джеймса - Стейна, улучшенное оценивание, условно-гауссовская регрессия

Авторы

ФИООрганизацияДополнительноE-mail
Пчелинцев Евгений АнатольевичНациональный исследовательский Томский государственный университет, Руанский университетаспирант совместной русско-французской аспирантуры между Томским государственным университетом (механико-математический факультет) и Руанским университетом (лаборатория математики Рафаэля Салема)evgen-pch@yandex.ru
Всего: 1

Ссылки

Stein C. Estimation of the mean of a multivariate normal distribution // Ann. Statist. 1981. V. 9(6). P. 1135−1151.
Fourdrinier D., Strawderman W.E., William E. A unified and generalized set of shrinkage bounds on minimax Stein estimates // J. Multivariate Anal. 2008. V. 99. P. 2221−2233.
Gleser L.J. Minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Ann. Statist. 1986. V. 14. No. 1625−1633.
James W., Stein C. Estimation with quadratic loss // Proceedings of the Fourth Berkeley Symposium on Mathematics Statistics and Probability. V. 1. Berkeley: University of California Press, 1961. P. 361−380.
Konev V., Pergamenchtchikov S. Efficient robust nonparametric estimation in a semimartingale regression model. URL: http://hal.archives-ouvertes.fr/hal-00526915/fr/ (2010).
Fourdrinier D. Statistique inferentielle // D. Fourdrinier. Dunod. 2002. P. 336.
Fourdrinier D., Pergamenshchikov S. Improved selection model method for the regression with dependent noise // Ann. Inst. Statist. Math. 2007. V. 59 (3). P. 435−464.
Berger J.O., Haff L.R. A class of minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Statist. Decisions. 1983. No. 1. P. 105−129.
Efron B., Morris C. Families of minimax estimators of the mean of a multivariate normal distribution // Ann. Statist. 1976. No. 4. P. 11−21.
 Процедура Джеймса – Стейна для условно-гауссовской регрессии | Вестник Томского государственного университета. Математика и механика. 2011. № 4(16).

Процедура Джеймса – Стейна для условно-гауссовской регрессии | Вестник Томского государственного университета. Математика и механика. 2011. № 4(16).

Полнотекстовая версия