Publicación:
Modelos de regresión con aplicaciones en R

dc.contributor.authorMartínez Flórez, Guillermo
dc.contributor.authorArrieta Arrieta, Clarena
dc.contributor.authorBarrera-Causil, Carlos Javier
dc.date.accessioned2024-12-18T21:13:00Z
dc.date.available2024-12-18T21:13:00Z
dc.date.issued2024-12-18
dc.description.abstractLos modelos de regresión son una técnica estadística utilizada para estudiar la relación entre variables. Se adapta a una amplia variedad de situaciones, por ejemplo, en la investigación social, los modelos de regresión se utilizan para predecir un amplio rango de fenómenos, desde medidas económicas hasta diferentes aspectos del comportamiento humano, también en otros campos como la medicina, la ingeniería, la biología, la informática entre otros; en el caso de una sola variable independiente (regresión simple) y para más de una variable independiente (regresión múltiple).spa
dc.description.editionPrimera edición
dc.description.tableofcontentsÍndice general..................V
dc.description.tableofcontentsÍndice de figuras.................X
dc.description.tableofcontentsX Índice de cuadros..................XII
dc.description.tableofcontentsIntroducción.................14
dc.description.tableofcontents1 Introducción al R........................16
dc.description.tableofcontents1.1 Funciones especiales.................. 18
dc.description.tableofcontents1.2 Creación de Vectores en........... R 19
dc.description.tableofcontents1.3 Lectura de datos desde un archivo externo.................. 19
dc.description.tableofcontents1.3.1 La Función read.table()..............20
dc.description.tableofcontents1.4 Manejo de datos en R.............21
dc.description.tableofcontents1.5 Estadística con R................. 25
dc.description.tableofcontents1.6 Funciones relacionadas con regresión..............28
dc.description.tableofcontents1.6.1 Otras funciones.............28
dc.description.tableofcontents2 Análisis de Correlación..................30
dc.description.tableofcontents2.1 Coeficiente de correlación lineal de Pearson.............. 30
dc.description.tableofcontents2.2 Prueba de hipótesis para el coeficiente de correlación lineal de Pearson............34
dc.description.tableofcontents2.3 Medidas de asociación no paramétricas...........38
dc.description.tableofcontents2.3.1 Coeficiente de correlación de Spearman.................39
dc.description.tableofcontents2.3.2 Coeficiente de correlación de Kendall.....................44
dc.description.tableofcontents3 Análisis de Regresión Lineal Simple...............49
dc.description.tableofcontents3.1 Estimación de parámetros.......................... 51
dc.description.tableofcontents3.1.1 Estimación de parámetros por mínimos cuadrados......................51
dc.description.tableofcontents3.1.2 Estimación de parámetros por el método de máxima verosimilitud................57
dc.description.tableofcontents3.2 Propiedades de los estimadores...............58
dc.description.tableofcontents3.2.2 Propiedades de σˆ 2 .......................65
dc.description.tableofcontents3.2.1 Propiedades de ˆβ0 y ˆβ1.....................58
dc.description.tableofcontents3.3 Inferencia sobre los parámetros del modelo.......67
dc.description.tableofcontents3.4 Análisis de varianza en el modelo de regresión lineal simple......71
dc.description.tableofcontents3.5 Estimación y predicción................77
dc.description.tableofcontents3.6 Coeficiente de determinación.......81
dc.description.tableofcontents3.7 Estadística de prueba para la hipótesis H0 : ρ = 0...........82
dc.description.tableofcontents3.8 Pruebas de validación..........87
dc.description.tableofcontents3.8.1 Prueba de Shapiro-Wilk para los residuos del modelo de regresión lineal simple................. 88
dc.description.tableofcontents3.8.2 Prueba de independencia de los errores....................90
dc.description.tableofcontents3.8.3 Prueba de Durbin-Watson .......................91
dc.description.tableofcontents3.8.4 Prueba de rachas o corridas...................... 92
dc.description.tableofcontents3.8.5 Prueba de White para homogeneidad de varianzas.....................93
dc.description.tableofcontents4 Modelo de Regresión Lineal Múltiple.................96
dc.description.tableofcontents4.1 Estimación de parámetros 98 4.1.1 Mínimos cuadrados ordinarios......................98
dc.description.tableofcontents4.1.1 Mínimos cuadrados ordinarios ...............................98
dc.description.tableofcontents4.1.2 Máxima verosimilitud......................99
dc.description.tableofcontents4.1.3 Propiedades de ˆβ y S 2.............................103
dc.description.tableofcontents4.2 Análisis de Varianza (ANAVA)......17
dc.description.tableofcontents4.3 Sumas de cuadrados...........124
dc.description.tableofcontents4.4 Distribuciones de sumas de cuadrados y estadísticas de prueba 128
dc.description.tableofcontents4.4.1 Distribución de formas cuádraticas ........................128
dc.description.tableofcontents4.4.2 Distribuciones de sumas de cuadrados.............................130
dc.description.tableofcontents4.4.3 Pruebas de hipótesis...........................134
dc.description.tableofcontents4.4.4 Coeficiente de determinación múltiple (R 2 ).........................140
dc.description.tableofcontents4.4.5 Coeficiente de determinación ajustado...........................141
dc.description.tableofcontents4.4.6 Análisis parcial......................142
dc.description.tableofcontents4.4.7 Intervalos de confianza ....................145
dc.description.tableofcontents4.5 Criterios para selección de modelos.......................147
dc.description.tableofcontents4.5.1 Coeficiente de determinación.............................148
dc.description.tableofcontents4.5.2 Coeficiente de determinación ajustado .......................149
dc.description.tableofcontents4.5.3 Criterio Cp de Mallows .....................150
dc.description.tableofcontents4.5.4 Criterio de información de Akaike o AIC....................151
dc.description.tableofcontents4.5.5 Criterio de información bayesiano de Schwarz o BIC.......................152
dc.description.tableofcontents4.5.6 Criterio de información de Akaike corregido o CAIC....................153
dc.description.tableofcontents4.5.7 Criterio de la suma de cuadrado de la regresión.................153
dc.description.tableofcontents4.6 Análisis secuencial...................... 154
dc.description.tableofcontents4.6.1 Sumas de cuadrados parciales.................155
dc.description.tableofcontents4.6.2 Selección hacia adelante (Stepwise).......................157
dc.description.tableofcontents4.6.3 Eliminación hacia atrás (Backward) .....................160
dc.description.tableofcontents4.7 Modelo reducido 168 4.7.1 Distribuciones...................168
dc.description.tableofcontents4.7.2 Valores medios estimados.......................177
dc.description.tableofcontents4.7.1 Distribuciones ...................168
dc.description.tableofcontents5 Análisis Diagnóstico y Validación de Supuestos....................187
dc.description.tableofcontents5.1 Técnicas diagnósticas para detectar observaciones atípicas...............188
dc.description.tableofcontents5.2 El análisis de residuos para detección de observaciones atípicas................190
dc.description.tableofcontents5.2.1 Medidas de Influencia....................199
dc.description.tableofcontents5.3 Pruebas de validación..................... 207
dc.description.tableofcontents5.3.1 Linealidad.....................207
dc.description.tableofcontents5.3.2 Prueba de normalidad de los errores............... 207
dc.description.tableofcontents5.4 Pruebas de homogeneidad de varianzas de los errores...............213
dc.description.tableofcontents5.5 Test para diagnosticar heteroscedasticidad.............217
dc.description.tableofcontents5.5.1 Test de ortogonalidad............... 218
dc.description.tableofcontents5.5.2 Prueba de Bartlett...................218
dc.description.tableofcontents5.5.3 Test de Glesjer................219
dc.description.tableofcontents5.5.4 Test de Goldfeld y Quandt.............220
dc.description.tableofcontents5.5.5 Test de Breusch-Pagan.............221
dc.description.tableofcontents5.5.6 Test de White..................223
dc.description.tableofcontents5.5.7 Test de correlación por rango múltiple de Spearman....................224
dc.description.tableofcontents5.5.8 Mínimos cuadrados generalizados o ponderados.................... 225
dc.description.tableofcontents5.5.9 Mínimos cuadrados generalizados factibles (MCGF)...................227
dc.description.tableofcontents5.6 Pruebas de independencia de los errores................... 232
dc.description.tableofcontents5.6.1 Test para autocorrelación........................234
dc.description.tableofcontents5.6.2 Prueba de las rachas......................234
dc.description.tableofcontents5.6.3 Prueba de Box-Pierce....................235
dc.description.tableofcontents5.6.4 Prueba de Ljung-Box......................236
dc.description.tableofcontents5.6.5 Prueba de multiplicadores de Lagrange................ 238
dc.description.tableofcontents5.6.6 Test de Durbin-Watson.....................239
dc.description.tableofcontents5.6.7 Test de Durbin-Watson modificado..................241
dc.description.tableofcontents5.6.8 Prueba asintótica o para grandes muestras...............242
dc.description.tableofcontents5.7 Procedimientos para solucionar el problema de autocorrelación.............242
dc.description.tableofcontents5.8 Diagnóstico y pruebas de validación...............242
dc.description.tableofcontents5.9 Multicolinealidad...................246
dc.description.tableofcontents5.9.1 Diagnóstico de multicolinealidad...............247
dc.description.tableofcontents6 Modelos polinomiales.......................253
dc.description.tableofcontents6.1 Modelos con interacción............. 267
dc.description.tableofcontents7 Modelo de regresión con variable explicativa nominal............270
dc.description.tableofcontents7.1 Análisis de interacción...............274
dc.description.tableofcontents7.2 Variables dicotómicas en R-project............276
dc.description.tableofcontents8 Modelos de regresión no lineal............279
dc.description.tableofcontents8.1 Modelos intrínsecamente lineales............282
dc.description.tableofcontents8.1.1 Modelo exponencial (semilogarítmico log-lin)..............282
dc.description.tableofcontents8.1.2 Modelo semi-logarítmicos lin-log.................290
dc.description.tableofcontents8.1.3 Modelos potenciales (log-log) ..................299
dc.description.tableofcontents8.1.4 Modelo inverso.................306
dc.description.tableofcontents8.1.5 Estimación en modelos intrínsecamente no lineales..........311
dc.description.tableofcontentsBibliografía................318
dc.format.extent326 páginas
dc.format.mimetypeapplication/pdf
dc.identifier.instnameUniversidad de Córdoba
dc.identifier.isbn978-958-5104-94-5
dc.identifier.reponameRepositorio Universidad de Córdoba
dc.identifier.repourlhttps://repositorio.unicordoba.edu.co/
dc.identifier.urihttps://repositorio.unicordoba.edu.co/handle/ucordoba/8841
dc.language.isospa
dc.publisherFondo Editorial - Universidad de Córdoba
dc.publisher.placeMontería, Córdoba, Colombia
dc.relation.references[1] Agresti, A. (1990). Categorical Data Analysis. John Wiley, New York.
dc.relation.references[2] Akaike, H. (1974). A new look at statistical model identification. IEEE Transactions on Automatic Control, 19(6), 716-722.
dc.relation.references[3] Arrieta, A.C. (2014). Modelos de regresión lineales y no lineales con apoyo computacional. Universidad de Córdoba, Montería, Colombia.
dc.relation.references[4] Bartoszynski, R., & Niewiadomsk-Bugaj, M. (1996). Probability and Statistical Inference. John Wiley & Sons, New York.
dc.relation.references[5] Belsley, D. A., Kuh, E., & Welsch, R. E. (1980). Regression Diagnostics - Identifying Influential Data and Sources of Collinearity. John Wiley & Sons, New York.
dc.relation.references[6] Billingsley, P. (1968). Convergence of Probability Measures. John Wiley, New York.
dc.relation.references[7] Billingsley, P. (1995). Probability and Measure. John Wiley & Sons, New York.
dc.relation.references[8] Box, G.E.P., & Pierce, D.A. (1970). Distribution of residual correlations in autoregressive- integrated moving average time series models. Journal of the American Statistical Association, 65, 1509-1526.
dc.relation.references[9] Box, G.P., & Cox, D.R. (1964). An analysis of transformations (with discussion). Journal of the Royal Statistical Society B, 26, 211-252.
dc.relation.references[10] Bozdogan, H. (1987). Model selection and Akaike’s information criterion (AIC): The general theory and its analytical extensions. Psychometrika, 52(3), 345-370.
dc.relation.references[11] Breusch, T. (1978). Testing for autocorrelation in dynamic linear models. Australian Economic Papers, 17, 334-355.
dc.relation.references[12] Breusch, T., & Pagan, A. (1979). A simple test for heteroskedasticity and random coefficient variation. Econometrica, 47, 1287-1294.
dc.relation.references[13] Cardona, C. (2003). Aplicación de dosis de calcio sobre la calidad o firmeza del fruto del tomate. PhD thesis, Tesis de Maestría, Universidad Nacional de Colombia, Bogotá, Colombia.
dc.relation.references[14] Casella, G., & Berger, R. (2002). Statistical Inference. Thompson Learning, USA, second edition.
dc.relation.references[15] Cochran, W., & Cox, G. (1997). Diseños Experimentales. John Wiley & Sons, México D.F.
dc.relation.references[16] Cochrane, D., & Orcutt, G.H. (1949). Application of least squares regression to relationships containing auto-correlated error terms. Journal of the American Statistical Association, 44(245), 32-61.
dc.relation.references[17] Combatt, E. (2004). Efecto del encalamiento y el lavado sobre algunas propiedades químicas de un suelo sulfatado ácido magnésico del valle del Río sinú. PhD thesis, Tesis de grado de Maestría, Universidad Nacional de Colombia, Bogotá, Colombia.
dc.relation.references[18] Conover, W.J. (1980). Practical Nonparametric Statistics. John Wiley & Sons, New York, 2nd edition.
dc.relation.references[19] Cook, R.D. (1977). Detection of influential observations in linear regression. Technometrics, 19, 15-18.
dc.relation.references[20] Cook, R.D., Peña, D., & Weisberg, S. (1988). The likelihood displacement: A unifying principle for influence measures. Communications in Statistics, Theory and Methods, 17, 623-640.
dc.relation.references[21] Cook, R.D., & Weisberg, S. (1982). A general definition of residuals.
dc.relation.references[22] Cook, R.D., & Weisberg, S. (1994). An Introduction to Regression Graphics. John Wiley & Sons, New York.
dc.relation.references[23] Dalgaard, P. (2002). Introductory Statistics with R. Springer-Verlag, New York, Berlin, Heidel- berg.
dc.relation.references[24] Díaz, A. (1999). Diseño estadístico de experimentos. Editorial Universidad de Antioquia, Medellín, Colombia.
dc.relation.references[25] Díaz, L.G., & Morales, M.A. (2012). Análisis estadístico de datos categóricos. Editorial Universidad Nacional de Colombia, Bogotá, Colombia.
dc.relation.references[26] Dobson, A., & Barnett, A. (2018). An Introduction to Generalized Linear Models. Chapman and Hall/CRC, Boca Raton, Fl., 4th edition.
dc.relation.references[27] Dobson, A.J. (2002). An introduction to generalized linear models. Chapman & Hall, New York.
dc.relation.references[28] Draper, N., & Smith, H. (1998). Applied Regression Analysis. John Wiley & Sons, USA, third edition.
dc.relation.references[29] Dunn, P., & Smyth, G. (2018). Generalized Linear Models With Examples in R. Springer, New York.
dc.relation.references[30] Durbin, J., & Watson, G. (1950). Residuals and influence in regression. Biometrika, 37, 409-428.
dc.relation.references[31] Durbin, J., & Watson, G. (1950). Testing for serial correlation in least squares regression iii. Biometrika, 37, 409-428.
dc.relation.references[32] Durbin, J., & Watson, G. (1951). Testing for serial correlation in least squares regression ii. Biometrika, 38, 159-177.
dc.relation.references[33] Durbin, J., & Watson, G. (1960). The fitting of time-series models. Review of the International Statistical Institute, 28(3), 233-244.
dc.relation.references[34] Eid, K.T., Black, C.A., Kempthorne, O., & Zoellner, J.A.S. (1954). Significance of soil organic phosphorus to plant growth. Fondo de Cultura Económica, Iowa Agri. Expt. Sta. Res. Bull., 406.
dc.relation.references[35] Faraway, J.J. (2015). Linear Models with R. Chapman and Hall/CRC, Boca Raton, Fl., 2nd edition.
dc.relation.references[36] García, M.A. (2008). Introducción a la teoría de la probabilidad. Fondo de Cultura Económica, México.
dc.relation.references[37] Gayen, A. (1951). The frequency distribution of the product moment correlation coefficient in random samples of any size draw from non-normal universes. Biometrika, 38, 219-247.
dc.relation.references[38] Gibbons, J.D., & Chakraborti, S. (1992). Nonparametric Statistical Inference. CRC Press, New York.
dc.relation.references[39] Glejser, H. (1969). A new test for heteroscedasticity. Journal of the American Statistical Association, 64, 316-323.
dc.relation.references[40] Godfrey, L. (1978). Testing for multiplicative heteroskedasticity. Econometrics, 8, 227-236.
dc.relation.references[41] Godfrey, L.G. (1978). Testing against general autoregressive and moving average error models when the regressors include lagged dependent variables. Econometrica, 46, 1293-1302.
dc.relation.references[42] Goldfeld, R., & Quandt, S. (1965). Testing for multiplicative heteroscedasticity. Journal of the American Statistical Association, 60, 539-547.
dc.relation.references[43] Gómez, H. (1997). Estadística Experimental Aplicada a las Ciencias Agrícolas. Universidad Nacional de Colombia Sede Medellín, Medellín, Colombia.
dc.relation.references[44] Gómez, K., & Gómez, A. (1984). Statistical Procedures for Agricultural Research. John Wiley & Sons, New York.
dc.relation.references[45] Gómez, M.A. (2005). Inferencia Estadística. Ediciones Díaz de Santos, España.
dc.relation.references[46] Graybill, F.A. (1976). Theory and applications in linear model. Duxbury Press, Boston, North Scituate.
dc.relation.references[47] Gujarati, D. N. (2003). Basic Econometrics (4th ed.). McGraw-Hill Higher Education. ISBN: 0-07-233542-4.
dc.relation.references[48] Gujarati, D. (2004). Econometría. McGraw Hill, México D.F., 5a edición.
dc.relation.references[49] Gujarati, D.N., & Porter, D.C. (2009). Basic Econometrics. McGraw Hill Inc., New York, 5a edición.
dc.relation.references[50] Gutiérrez, H., & De la Vara, S. (2012). Análisis y Diseño de Experimentos. McGraw Hill, México D.F.
dc.relation.references[51] Hammond, R., & McCullagh, P.S. (1974). Quantitative Techniques in Geography: An Intro- duction. Oxford University Press, London.
dc.relation.references[52] Harville, D.A. (1997). Matrix algebra from a statisticians perspective. Springer, New York.
dc.relation.references[53] Hocking, R.R. (2003). Methods and applications of Linear Models. Wiley, New Jersey.
dc.relation.references[54] Hogg, R.V., & Craig, A.T. (1970). Introducction to Mathematical Statistics. The elecmillon Co, New York, 3rd edition.
dc.relation.references[55] Hosmer, D.W., & Lemeshow, S. (1989). Applied Logistic regression analysis. John Wiley, New York.
dc.relation.references[56] Huber, P.J. (1981). Robust statistics. John Wiley & Sons, New York.
dc.relation.references[57] Jaller, C., & Vargas, M. (2001). Respuesta del cultivo del plátano (Musa AAB Simmonds) a la interacción de N y K aplicados en dosis en el municipio de San Juan de Urabá. PhD thesis, Tesis de grado, Universidad de Córdoba, Córdoba, Colombia.
dc.relation.references[58] James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An Introduction to Statistical Learning: with Applications in R. Springer, New York.
dc.relation.references[59] Jarque, C.M., & Bera, A.K. (1987). An analysis of transformations, (with discussion). Interna- tional Statistical Review, 55:163-172.
dc.relation.references[60] Jiménez, J.A. (2012). Álgebra matricial con aplicaciones en estadística. Universidad Nacional de Colombia, Bogotá, Colombia.
dc.relation.references[61] Judge, G. G., Griffiths, W. E., Hill, R. C., Lütkepohl, H., & Lee, T.-C. (1982). Introduction to the Theory and Practice of Econometrics. John Wiley & Sons, New York, p. 422.
dc.relation.references[62] Kreyszig, E. (1994). Introducción a la Estadística Matemática Principios y Métodos. Editorial Limusa, México, 13a edición.
dc.relation.references[63] Lehmann, E.L. (1959). Testing statistical hypotheses. Wiley, New York, 13a edición.
dc.relation.references[64] Ljung, G.M., & Box, G.E.P. (1978). On a measure of lack of fit in time series models. Biometrika, 65:297-303.
dc.relation.references[65] Mallows, C.L. (1973). Some comments on cp. Technometrics, 15:661-675.
dc.relation.references[66] Martínez, R., & Martínez, N. (1997). Diseño de experimentos análisis de datos estándar y no estándar. Fondo Nacional Universitario, Bogotá, Colombia.
dc.relation.references[67] Matloff, N. (2017). Statistical Regression and Classification: From Linear Models to Machine Learning. Chapman and Hall/CRC, Boca Raton, FL., 1a edición.
dc.relation.references[68] McCullag, P., & Nelder, J.A. (1959). Generalized linear models. Chapman and Hall, London, 2a edición.
dc.relation.references[69] Melo, O., López, L.A., & Melo, S.E. (2007). Diseño de Experimentos: Métodos y aplicaciones. Editorial Universidad Nacional de Colombia, Bogotá, Colombia.
dc.relation.references[70] Meyer, P. (1992). Probabilidad y Aplicaciones Estadísticas. ADDISON-WESLEY IBERO- AMERICANA, USA.
dc.relation.references[71] Montgomery, D. (1991). Diseño y Análisis de Experimentos. Grupo Editorial Iberoamérica, México.
dc.relation.references[72] Montgomery, D. (2002). Introducción al análisis de regresión lineal. Editorial Continental, México D.F.
dc.relation.references[73] Montgomery, D., Peck, E.A., & Vining, G.G. (2001). Introduction to linear regression analysis. John Wiley & Sons, New York, 3a edición.
dc.relation.references[74] Montgomery, D.C., & Runger, G.C. (2015). Probabilidad y estadística aplicadas a la ingenie- ría. 2a edición. Limusa Wiley.
dc.relation.references[75] Morettin, P. (2008). Econometria Financeira: Um curso em séries temporais financeiras. Editora Blucher, São Paulo, Brazil.
dc.relation.references[76] Motulsky, H., & Christopoulos, A. (2004). Fitting models to biological data using linear and nonlinear regression: a practical guide to curve fitting. Oxford University Press, Inc, New York.
dc.relation.references[77] Neter, J., Kutner, M., Nactsheim, C., & Wasserman, W. (1996). Applied linear statistical models. McGraw-Hill, USA, 4a edición.
dc.relation.references[78] Paren, E. (1971). Teoría de Probabilidades y sus Aplicaciones. LIMUSA-WILEY, S.A., México.
dc.relation.references[79] Paula, G. (2004). Modelos de Regressão: com apoio computacional. Edusp-Editora da Univer- sidade de São Paulo, Brazil.
dc.relation.references[80] Peña, S.D. (1995). Estadística Modelos y Métodos, modelos lineales y series temporales. Alianza Editorial S.A., Madrid, tomo ii edición.
dc.relation.references[81] R Core Team. (2018). R: A Language and Environment for Statistical Computing. R Foundation for Statistical Computing, Vienna, Austria.
dc.relation.references[82] Ravishanker, N., & Dey, D.K. (1995). A first course in linear model theory. Chapman & Hall/CRC, New York.
dc.relation.references[83] Rawlings, J., Pantula, S., & Dickey, D. (1998). Applied regression analysis; A research Tool. Springer-Verlag, New York, 2a edición.
dc.relation.references[84] Rincón, L.F. (2009). Curso básico de modelos lineales. Editorial Universidad Santo Tomas, Bogotá, Colombia.
dc.relation.references[85] Rohatgi, V.K. (1984). Statistical Inference. Dover Publications, New York, USA.
dc.relation.references[86] Schwarz, G. (1978). Estimating the dimension of a model. Annals of Statistics, 6(2), 461–464.
dc.relation.references[87] Searle, S.R. (1971). Linear Models. John Wiley & Sons, USA.
dc.relation.references[88] Searle, S.R. (1982). Matrix algebra useful for statistics. John Wiley & Sons, New York.
dc.relation.references[89] Shapiro, S.S., & Wilk, M.B. (1965). An analysis of variance test for normality (complete samples). Biometrika, 52:591-611.
dc.relation.references[90] Shoukri, M.M. (2018). Analysis of Correlated Data with SAS and R. Taylor and Francis, Boca Raton, 4ª edición.
dc.relation.references[91] Sirva, G.L. (1992). Modelos logísticos para datos binarios. PhD thesis, Tesis de Maestría, IME-USP.
dc.relation.references[92] Tellez, C., & Morales, M. (2016). Modelos estadísticos lineales: con aplicaciones en R. Ediciones de la U, Bogotá, Colombia.
dc.relation.references[93] Thisted, R.A. (1980). Comment: A critique of some ridge regression methods. Journal of the American Statistical Association, 75, 75-81.
dc.relation.references[94] Thurber, R. (1979). Semiconductor electron mobility modeling. NIST.Primeros pasos con regresión no lineal (nls) con R. Analisisydecision.es. Recuperado de https:// analisisydecision.es/primeros-pasos-con-regresion-no-lineal-nls-con-r
dc.relation.references[95] Wackerly, D., Mendenhall, W., & Scheaffer, R. (2002). Estadística Matemática con Aplicacio- nes. Thomson, México.
dc.relation.references[96] Wackerly, D., Mendenhall, W., & Scheaffer, R. (2002). Mathematical Statistics with Applica- tions. Duxbury Advanced Series (6th ed.).
dc.relation.references[97] Walpole, R., & Myers, R. (1982). Probabilidad y Estadística para Ingenieros (2nd ed.). Inter- americana, México D.F.
dc.relation.references[98] White, H. (1980). A heteroskedasticity-consistent covariance matrix estimator and a direct test for heteroskedasticity. Econometrica, 48(4), 817-838.
dc.relation.references[99] Williams, D.A. (1984). Residuals in generalized linear models. Proceedings of the 12th International Biometrics Conference, 59-68.
dc.rightsCopyright Universidad de Córdoba, 2024
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.coarhttp://purl.org/coar/access_right/c_abf2
dc.rights.licenseAtribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subject.lcshAnálisis de regresiónspa
dc.subject.lcshModelos lineales (Estadística)spa
dc.subject.proposalAsociación lineal y no lineal,spa
dc.subject.proposalRegresión simple y múltiplespa
dc.subject.proposalAnálisis diagnóstico y pruebas de validaciónspa
dc.subject.proposalModelos polinómicos y con variables explicativas nominalesspa
dc.subject.proposalModelos de tipo no linealspa
dc.titleModelos de regresión con aplicaciones en R
dc.typeLibro
dc.type.coarhttp://purl.org/coar/resource_type/c_2f33
dc.type.contentText
dc.type.driverinfo:eu-repo/semantics/book
dc.type.redcolhttp://purl.org/redcol/resource_type/LIB
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dspace.entity.typePublication
Archivos
Bloque original
Mostrando 1 - 2 de 2
Cargando...
Miniatura
Nombre:
MODELOS DE REGRESION CON APLICACIONES EN_R.pdf
Tamaño:
2.85 MB
Formato:
Adobe Portable Document Format
No hay miniatura disponible
Nombre:
Formato de autorización.pdf
Tamaño:
289.42 KB
Formato:
Adobe Portable Document Format
Bloque de licencias
Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
license.txt
Tamaño:
15.18 KB
Formato:
Item-specific license agreed upon to submission
Descripción:
Colecciones