Martínez Flórez, GuillermoArrieta Arrieta, ClarenaBarrera-Causil, Carlos Javier2024-12-182024-12-182024-12-18978-958-5104-94-5https://repositorio.unicordoba.edu.co/handle/ucordoba/8841Los modelos de regresión son una técnica estadística utilizada para estudiar la relación entre variables. Se adapta a una amplia variedad de situaciones, por ejemplo, en la investigación social, los modelos de regresión se utilizan para predecir un amplio rango de fenómenos, desde medidas económicas hasta diferentes aspectos del comportamiento humano, también en otros campos como la medicina, la ingeniería, la biología, la informática entre otros; en el caso de una sola variable independiente (regresión simple) y para más de una variable independiente (regresión múltiple).Índice general..................VÍndice de figuras.................XX Índice de cuadros..................XIIIntroducción.................141 Introducción al R........................161.1 Funciones especiales.................. 181.2 Creación de Vectores en........... R 191.3 Lectura de datos desde un archivo externo.................. 191.3.1 La Función read.table()..............201.4 Manejo de datos en R.............211.5 Estadística con R................. 251.6 Funciones relacionadas con regresión..............281.6.1 Otras funciones.............282 Análisis de Correlación..................302.1 Coeficiente de correlación lineal de Pearson.............. 302.2 Prueba de hipótesis para el coeficiente de correlación lineal de Pearson............342.3 Medidas de asociación no paramétricas...........382.3.1 Coeficiente de correlación de Spearman.................392.3.2 Coeficiente de correlación de Kendall.....................443 Análisis de Regresión Lineal Simple...............493.1 Estimación de parámetros.......................... 513.1.1 Estimación de parámetros por mínimos cuadrados......................513.1.2 Estimación de parámetros por el método de máxima verosimilitud................573.2 Propiedades de los estimadores...............583.2.2 Propiedades de σˆ 2 .......................653.2.1 Propiedades de ˆβ0 y ˆβ1.....................583.3 Inferencia sobre los parámetros del modelo.......673.4 Análisis de varianza en el modelo de regresión lineal simple......713.5 Estimación y predicción................773.6 Coeficiente de determinación.......813.7 Estadística de prueba para la hipótesis H0 : ρ = 0...........823.8 Pruebas de validación..........873.8.1 Prueba de Shapiro-Wilk para los residuos del modelo de regresión lineal simple................. 883.8.2 Prueba de independencia de los errores....................903.8.3 Prueba de Durbin-Watson .......................913.8.4 Prueba de rachas o corridas...................... 923.8.5 Prueba de White para homogeneidad de varianzas.....................934 Modelo de Regresión Lineal Múltiple.................964.1 Estimación de parámetros 98 4.1.1 Mínimos cuadrados ordinarios......................984.1.1 Mínimos cuadrados ordinarios ...............................984.1.2 Máxima verosimilitud......................994.1.3 Propiedades de ˆβ y S 2.............................1034.2 Análisis de Varianza (ANAVA)......174.3 Sumas de cuadrados...........1244.4 Distribuciones de sumas de cuadrados y estadísticas de prueba 1284.4.1 Distribución de formas cuádraticas ........................1284.4.2 Distribuciones de sumas de cuadrados.............................1304.4.3 Pruebas de hipótesis...........................1344.4.4 Coeficiente de determinación múltiple (R 2 ).........................1404.4.5 Coeficiente de determinación ajustado...........................1414.4.6 Análisis parcial......................1424.4.7 Intervalos de confianza ....................1454.5 Criterios para selección de modelos.......................1474.5.1 Coeficiente de determinación.............................1484.5.2 Coeficiente de determinación ajustado .......................1494.5.3 Criterio Cp de Mallows .....................1504.5.4 Criterio de información de Akaike o AIC....................1514.5.5 Criterio de información bayesiano de Schwarz o BIC.......................1524.5.6 Criterio de información de Akaike corregido o CAIC....................1534.5.7 Criterio de la suma de cuadrado de la regresión.................1534.6 Análisis secuencial...................... 1544.6.1 Sumas de cuadrados parciales.................1554.6.2 Selección hacia adelante (Stepwise).......................1574.6.3 Eliminación hacia atrás (Backward) .....................1604.7 Modelo reducido 168 4.7.1 Distribuciones...................1684.7.2 Valores medios estimados.......................1774.7.1 Distribuciones ...................1685 Análisis Diagnóstico y Validación de Supuestos....................1875.1 Técnicas diagnósticas para detectar observaciones atípicas...............1885.2 El análisis de residuos para detección de observaciones atípicas................1905.2.1 Medidas de Influencia....................1995.3 Pruebas de validación..................... 2075.3.1 Linealidad.....................2075.3.2 Prueba de normalidad de los errores............... 2075.4 Pruebas de homogeneidad de varianzas de los errores...............2135.5 Test para diagnosticar heteroscedasticidad.............2175.5.1 Test de ortogonalidad............... 2185.5.2 Prueba de Bartlett...................2185.5.3 Test de Glesjer................2195.5.4 Test de Goldfeld y Quandt.............2205.5.5 Test de Breusch-Pagan.............2215.5.6 Test de White..................2235.5.7 Test de correlación por rango múltiple de Spearman....................2245.5.8 Mínimos cuadrados generalizados o ponderados.................... 2255.5.9 Mínimos cuadrados generalizados factibles (MCGF)...................2275.6 Pruebas de independencia de los errores................... 2325.6.1 Test para autocorrelación........................2345.6.2 Prueba de las rachas......................2345.6.3 Prueba de Box-Pierce....................2355.6.4 Prueba de Ljung-Box......................2365.6.5 Prueba de multiplicadores de Lagrange................ 2385.6.6 Test de Durbin-Watson.....................2395.6.7 Test de Durbin-Watson modificado..................2415.6.8 Prueba asintótica o para grandes muestras...............2425.7 Procedimientos para solucionar el problema de autocorrelación.............2425.8 Diagnóstico y pruebas de validación...............2425.9 Multicolinealidad...................2465.9.1 Diagnóstico de multicolinealidad...............2476 Modelos polinomiales.......................2536.1 Modelos con interacción............. 2677 Modelo de regresión con variable explicativa nominal............2707.1 Análisis de interacción...............2747.2 Variables dicotómicas en R-project............2768 Modelos de regresión no lineal............2798.1 Modelos intrínsecamente lineales............2828.1.1 Modelo exponencial (semilogarítmico log-lin)..............2828.1.2 Modelo semi-logarítmicos lin-log.................2908.1.3 Modelos potenciales (log-log) ..................2998.1.4 Modelo inverso.................3068.1.5 Estimación en modelos intrínsecamente no lineales..........311Bibliografía................318326 páginasapplication/pdfspaCopyright Universidad de Córdoba, 2024Análisis de regresiónModelos lineales (Estadística)Modelos de regresión con aplicaciones en RLibroAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)info:eu-repo/semantics/openAccessAsociación lineal y no lineal,Regresión simple y múltipleAnálisis diagnóstico y pruebas de validaciónModelos polinómicos y con variables explicativas nominalesModelos de tipo no linealUniversidad de CórdobaRepositorio Universidad de Córdobahttps://repositorio.unicordoba.edu.co/http://purl.org/coar/access_right/c_abf2