Abstract
We consider data in which each observed subject belongs to one of different subpopulations (components). The true number of component which a subject belongs to is unknown, but the researcher knows the probabilities that a subject belongs to a given component (concentration of the component in the mixture). The concentrations are different for different observations. So the distribution of the observed data is a mixture of components’ distributions with varying concentrations. A set of variables is observed for each subject. Dependence between these variables is described by a nonlinear regression model. The coefficients of this model are different for different components. Normality of estimator for nonlinear regression parameters is demonstrated under general assumptions. A mixture of logistic regression models with continuous response is considered as an example. In the paper we construct confidence ellipsoids for the regression parameters based on the modified least squares estimators. The covariances of these estimators are estimated by the multiple modifications of jackknife technique. Performance of the obtained confidence ellipsoids is assessed by simulations.
Highlights
У роботi розглядається побудова довiрчих елiпсоїдiв для параметрiв нелiнiйної регресiї за спостереженнями з сумiшi кiлькох компонентiв
A set of variables is observed for each subject. Dependence between these variables is described by a nonlinear regression model
Normality of estimator for nonlinear regression parameters is demonstrated under general assumptions
Summary
У статтi [10] наведено доведення асимптотичної нормальностi оцiнок регресiї для моделi регресiйної сумiшi. Що для деяких функцi(й g(x, )b) (наприклад логiстичної, g(x, b) = σ ⟨x, b, ⟩ , вEаtsж(кξо(t), bп(оkр))аsх(уξв(tа)т, иb(k)м)TатiемEаtsт(иξч(tн)i, b(kс)п)о,д∀iвkа,нtн=я 1, ..., M. Iнша проблема полягає в тому, що справжнi значення параметрiв для розрахунку матрицi Vn невiдомi. Експерименти зi статтi [10] показали, що цi математичнi сподiвання можна рахувати наближено, i що замiсть справжнiх параметрiв регресiї можна брати оцiнкиb(nk). Наведенi двi проблеми можливо обiйти, використовуючи технiку СК для оцiнки матрицi Vn. Слiдуючи [11] п. Оцiнки розглядатимуться для кожного компонента окремо, тому над оцiнювальним виразом Si− також не будемо писати iндекс компонента k. У наступному роздiлi описано декiлька можливих модифiкацiй оцiнки для розв’язання цiєї проблеми. Iншi два способи є модифiкацiєю першого, якщо у однокроковiй процедурi Ньютона– Рафсона замiсть гессiана вiдображення записати його оцiнку
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
More From: Bulletin of Taras Shevchenko National University of Kyiv. Series: Physics and Mathematics
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.