Процедура Джеймса – Стейна для условно-гауссовской регрессии
В статье рассматривается задача оценивания р-мерного (p≥2) вектора среднего многомерного условно-гауссовского распределения при квадратической функции потерь. Задача такого типа возникает, например, при оценивании параметров непрерывной регрессионной модели с негауссовским процессом Орнштейна - Уленбека. Предлагается модификация процедуры Джеймса - Стейна вида θ*(Y) = (1-c/||Y||)Y, где Y - наблюдение и с > 0 - специальная константа. Для этой оценки найдена явная верхняя граница для квадратического риска и показано, что ее риск строго меньше риска обычной оценки максимального правдоподобия для размерности p≥2. Эта процедура применяется к проблеме параметрического оценивания непрерывной условно-гауссовской регрессии и к оцениванию вектора среднего многомерного нормального распределения, когда ковариационная матрица неизвестна и зависит от некоторых мешающих параметров.
?.pdf ВведениеВ 1961 г. Джеймс и Стейн, рассматривая задачу оценивания вектора среднего θp-мерного нормального распределения случайного вектора Y c единичной кова-риационной матрицей Ip, ввели оценку2ˆ JS 1 2p YY =⎛⎜ − − ⎞⎟⎝ ⎠, (1)которая для p≥3 превосходит оценку максимального правдоподобияˆ ML =Y (2)при квадратическом рискеR(,ˆ) = E  − ˆ2, (3)т.е. для всех значений параметра θR(,ˆJS) 
 
                        
                        
                        Ключевые слова
non-Gaussian Ornstein - Uhlenbeck process, 
James - Stein procedure, 
improved estimation, 
conditionally Gaussian regression model, 
негауссовский процесс Орнштейна - Уленбека, 
процедура Джеймса - Стейна, 
улучшенное оценивание, 
условно-гауссовская регрессияАвторы
    			
                
    				 
    				| Пчелинцев Евгений Анатольевич | Национальный исследовательский Томский государственный университет, Руанский университет | аспирант совместной русско-французской аспирантуры между Томским государственным университетом (механико-математический факультет) и Руанским университетом (лаборатория математики Рафаэля Салема) | evgen-pch@yandex.ru |  
    			
                 Всего: 1
                Ссылки
Stein C. Estimation of the mean of a multivariate normal distribution // Ann. Statist. 1981. V. 9(6). P. 1135−1151.              
Fourdrinier D., Strawderman W.E., William E. A unified and generalized set of shrinkage bounds on minimax Stein estimates // J. Multivariate Anal. 2008. V. 99. P. 2221−2233.              
Gleser L.J. Minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Ann. Statist. 1986. V. 14. No. 1625−1633.              
James W., Stein C. Estimation with quadratic loss // Proceedings of the Fourth Berkeley Symposium on Mathematics Statistics and Probability. V. 1. Berkeley: University of California Press, 1961. P. 361−380.              
Konev V., Pergamenchtchikov S. Efficient robust nonparametric estimation in a semimartingale regression model. URL: http://hal.archives-ouvertes.fr/hal-00526915/fr/ (2010).              
Fourdrinier D. Statistique inferentielle // D. Fourdrinier. Dunod. 2002. P. 336.              
Fourdrinier D., Pergamenshchikov S. Improved selection model method for the regression with dependent noise // Ann. Inst. Statist. Math. 2007. V. 59 (3). P. 435−464.              
Berger J.O., Haff L.R. A class of minimax estimators of a normal mean vector for arbitrary quadratic loss and unknown covariance matrix // Statist. Decisions. 1983. No. 1. P. 105−129.              
Efron B., Morris C. Families of minimax estimators of the mean of a multivariate normal distribution // Ann. Statist. 1976. No. 4. P. 11−21.