B.F.B. Monografías

Navegar

Envíos recientes

Mostrando 1 - 5 de 5
  • PublicaciónAcceso abierto
    Análisis de datos funcionales: teoría y aplicaciones
    (Universidad de Córdoba, 2024-07-11) Callejas Bonolis, Karen Yulieth; Morales Ospina, Victor Hugo; Tovar Falon, Roger de Jesús; Meledez Surmay, Rafael
    El propósito de esta investigación fue presentar la teoría estadística empleada para el análisis de datos funcionales a través de una revisión exhaustiva de la literatura. Además, se demostró su aplicación en datos concretos relacionados con la calidad del aire en Santiago de Chile y los índices de precios al consumidor en Colombia. El análisis de datos funcionales permite capturar la dinámica y estructura de dependencia de los datos, a diferencia de los métodos tradicionales que se basan en observaciones discretas. Las bases de Fourier y Spline fueron los dos métodos utilizados para las bases de funciones. Para cada aplicación, se seleccionó la base que permitió un ajuste de datos más efectivo, teniendo en cuenta un menor error cuadrático medio (RMS). Además, para demostrar un posible complemento entre estas dos metodologías, se presenta una introducción de algunas técnicas de series temporales para modelar la dinámica de los datos junto con los procedimientos de análisis de datos funcionales. Los resultados de estos métodos muestran resultados significativos sobre los índices de precios al consumidor y la calidad del aire. En Santiago de Chile, las concentraciones de PM2.5 y PM10 superan los límites recomendados por la OMS debido a las fuentes locales de contaminantes y los cambios estacionales. Por otro lado, se puede observar en la base de datos de la inflación en Colombia que durante los años 2016 y 2017 el país experimentó su nivel más alto de inflación. El análisis de regresión funcional muestra patrones interesantes en la variación del PM10 a lo largo del tiempo. El análisis de series de tiempo muestra una disminución en los niveles de PM2.5 en Santiago de Chile para diciembre de 2016. El análisis estadístico mejora con la integración de estas dos técnicas en los datos.
  • PublicaciónAcceso abierto
    Análisis estadístico de diseños experimentales con apoyo computacional
    (23-07-13) Palencia Pretelt, Ana Maria; Martínez Flórez, Guillermo
    This work seeks to implement the statistical analysis of experimental designs with computational support through the R Statistical software. For the respective analysis of these designs we will use the libraries ExpDes, easyanova, among others, which contain a large number of packages that will help us with the main objective of this work. With this computational implementation, several examples will be made, which will be reflected in a free access blog, so that all the community that needs this information can access it and can use it for the respective analysis of an experimental design that is presented to them in a real situation.
  • PublicaciónAcceso abierto
    Generalidades de la regresión cuantil y aplicaciones en R
    (2023-06-08) Soto Garcés, Rafael Enrique; Bru Cordero, Osnamir Elías
    En este trabajo presentamos algunas aplicaciones y generalidades de la regresión cuantil. Se puntualizan los escenarios en los que es pertinente utilizar este tipo de herramientas en contextos donde la regresión clásica no es adecuada. Además, se evidencia la preeminencia y efectividad de la regresión cuantil sobre la regresión lineal clásica, especialmente cuando se busca conocer o evaluar un parámetro diferente a la respuesta media de la variable dependiente. Un ejemplo de su utilidad es en el análisis de supervivencia, donde se puede utilizar la regresión cuantil para estimar la mediana de la duración de una enfermedad o el tiempo hasta un evento de interés, como la muerte. Además, cabe destacar que la regresión cuantil no precisa de supuestos distribuciona les, lo que la diferencia de la regresión clásica cuyos supuestos son extremadamente restrictivos: homocedasticidad, ausencia de correlación y normalidad en los errores del modelo. Por último, se presentan dos aplicaciones en R, conteo de daño celular pa ra evaluar el riesgo de cáncer en cuatro departamentos de Colombia y otra aplicación del precio de viviendas bajo el software Python con el fin de resaltar la capacidad y la versatilidad de la regresión cuantil.
  • PublicaciónAcceso abierto
    Estructuras híbridas para el modelado y pronóstico de series temporales: metodologías y aplicaciones.
    (2023-02-21) Ballesteros López, Fabiana; Cogollo Flórez, Myladis
    Las estructuras híbridas han demostrado ser una buena alternativa para modelar y pronosticar algunas series temporales, en las cuales los modelos tradicionales no presentan un buen desempeño. En este trabajo se realiza una revisión bibliográfica de los estudios reportados en la literatura en el periodo 2000-2018, sobre las tres metodologías híbridas existentes: paralelo, serie, serie-paralelo. A partir de los resultados hallados, se establece la base conceptual de cada metodología, bajo un procedimiento estadístico matemático, y sus respectivos casos de aplicación. Adicionalmente, empleando datos reales se muestra la ganancia en términos de precisión del pronóstico que se obtiene con éstas metodologías, con respecto a los modelos tradicionales.
  • PublicaciónAcceso abierto
    Background sobre el estudio de potencia y sensibilidad para dieciséis pruebas de normalidad a diferentes niveles de No normalidad
    (5.2.1. Bajo el método de estimación de Fleishman . . . . . . . . . . . . . . . . . 69, 2021-06-25) Zumaqué Ballesteros, Antonio Elías; Bru Cordero, Osnamir Elias; Rojas Mora, Jessica María
    En estudios donde se requiere un rigor académico, las pruebas de normalidad son fundamentales puesto que de esto depende una decisión muy fuerte, el cual hace relación a usar métodos paramétricos, de lo contrario no sería posible. las pruebas de normalidad se puede clasificar según los siguientes aspectos: momento, distribución empírica, especificación y correlación. Este trabajo estudia y compara la sensibilidad y potencia de las dieciséis pruebas de normalidad; Agostino Pearson [DK], Jarque Bera [JB], Robusta de Jarque Bera [RJB], Bonett-Seier [BS], Bontemps-Meddahi [BM1BM2], Sesgo [SK], Curtosis [KU], Lilliefors[LL], Anderson Darling [AD], Snedecor Cochran [CS], Chen Ye [G], Brys-Hubert-Struyf MC-MR [BH], Shapiro-Wilk [SW], Shapiro-Francia[SF], Doornik-Hansen [DH] y Brys-Hubert-Struyf-Bonett-Seier [BHBS]. Las comparaciones de la sensibilidad y la potencia de estas dieciséis pruebas se obtuvieron mediante simulación de Monte Carlo de datos generados a partir del sistema de contaminación de Fleishman, el cual da vía a escenarios de no normalidad y la clasificación de diez distribuciones con un alejamiento de la normalidad medible. Los resultados de nuestro estudio muestran que las pruebas de normalidad basadas en correlación y regresión Shapiro-Wilk [SW] y Shapiro-Francia [SF] resultan ser mejores que el resto de las demás pruebas, su potencia es mayor, pero solo para muestras no normales grandes y alejamientos fuertes. Para alejamientos moderados las pruebas Agostino Pearson [DK] y la prueba del Sesgo [SK] sobresalen con mayor potencia y alejamientos bajos la prueba Robusta de Jarque Bera [RJB] y la prueba Jarque Bera [JB]. En el caso de las distribuciones simétricas mesocúrticas las pruebas Snedecor Cochran [CS] y Chen-Ye [G] tiene una baja potencia con respecto al resto con una distribución Logistica(9,3).