Abstract
Se comparan los métodos Bootstrap y Jackknife en varios contextos estadísticos. Inicialmente usando estimaciones de coeficientes de variación obtenidos a partir de muestras de varios modelos de probabilidad (Normal, Gama, Binomial y Poisson) generadas por simulación de Monte Carlo. Con los resultados se evalúa sesgo y varianza los estimadores. También se estudia el desempeño de los dos procedimientos inferenciales considerados en problemas de una muestra, estimación de la densidad y regresión kernel. Los resultados muestran que en el caso del coeficiente de variación Jackknife tiene menor sesgo pero mayor error estándar. Bootstrap es más potente en este contexto. En lo referente a la estimación de la densidad (histograma y Kernel) y la estimación del ancho de banda en la estimación de la función de regresión Jackknife produce estimaciones más cercanas a las clásicas que las halladas con Bootstrap. Los correspondientes intervalos de confianza con Jackknife son más cortos que los establecidos con Bootstrap.
Talk to us
Join us for a 30 min session where you can share your feedback and ask us any queries you have
Similar Papers
Disclaimer: All third-party content on this website/platform is and will remain the property of their respective owners and is provided on "as is" basis without any warranties, express or implied. Use of third-party content does not indicate any affiliation, sponsorship with or endorsement by them. Any references to third-party content is to identify the corresponding services and shall be considered fair use under The CopyrightLaw.