Publicación: Importancia de la selección de variables de entrada en un modelo de redes neuronales artificiales para la clasificación del estado de procesos industriales
dc.contributor.advisor | Cogollo Flórez, Myladis Rocio | spa |
dc.contributor.author | Negrete Charry, Luis Alfonso | |
dc.date.accessioned | 2023-06-28T15:23:14Z | |
dc.date.available | 2024-06-27 | |
dc.date.available | 2023-06-28T15:23:14Z | |
dc.date.issued | 2023-06-27 | |
dc.description.abstract | In statistical process control, Process Capability Indices (PCI) are a tool to quantify process diversity and analyze this diversity in relation to product requirements or specifications. The validity of the results of the PCI depends on the measures being taken from processes under control, and that the assumptions of normality and independence are fulfilled. In practice, it is difficult to satisfy these assumptions, and that is why several alternative methods have been proposed, such as the Clements percentile method, the Box-Cox potential transformation method, the Burr percentile method, and recently Machine Learning methods. Abbasi (2009) proposes to estimate the process capacity index using an artificial neural network (ANN) model, but does not consider the selection process of the input variables of the neural network, nor the optimal construction. of the network typology and, in addition, distributional assumptions are assumed. In this paper, an PCI estimation methodology is established using ANN classificationtype models, which allows categorizing the state of a process, considering different selection methods for the most relevant input variables, as well as the optimal configuration of the network. Using experimental data from non-normal distributions, the effect of different input variable selection methods on the performance of the ANN model is evaluated and compared. It is concluded that the Pearson selection method almost always provides simpler network structures than those provided by the Backward and Gedeon methods. | eng |
dc.description.degreelevel | Pregrado | spa |
dc.description.degreename | Estadístico(a) | spa |
dc.description.modality | Trabajos de Investigación y/o Extensión | spa |
dc.description.resumen | En el control estad´ıstico de procesos, los ´Indices de Capacidad del Proceso (ICP) constituyen una herramienta para cuantificar la variabilidad del proceso y analizar esta variabilidad en relaci´on con los requisitos o especificaciones del producto. La validez de los resultados de los ICP depende de que las mediciones se tomen de procesos bajo control, y que ´estas cumplan los supuestos de normalidad e independencia. En la pr´actica es dif´ıcil satisfacer estos supuestos, y es por ello que se han propuesto varios m´etodos alternativos, tales como son el m´etodo de percentiles de Clements, el m´etodo de transformaci´on potencial de Box-Cox, el m´etodo de percentiles de Burr, y recientemente m´etodos de Machine Learning. Abbasi (2009) propone estimar el ´ındice de capacidad de procesos usando un modelo de redes neuronales artificiales (ANN, por su sigla en ingl´es), pero no considera el proceso de selecci´on de las variables de entrada de la red neuronal, ni la construcci´on ´optima de la tipolog´ıa de la red y adem´as, asume supuestos distribucionales. En este trabajo se establece una metodolog´ıa de estimaci´on de ICP usando modelos ANN tipo clasificaci´on, que permite categorizar el estado de un proceso, considerando distintos m´etodos de selecci´on de las variables de entradas m´as relevantes, as´ı como la configuraci´on ´optima de la red. Usando datos experimentales, provenientes de distribuciones no normales, se eval´ua y compara el efecto que tienen diferentes m´etodos de selecci´on de variables de entrada en el desempe˜no del modelo ANN. Se concluye que el m´etodo de selecci´on de Pearson proporciona casi siempre estructuras de red m´as sencillas, que las proporcionadas por los m´etodos Backward y Gedeon. | spa |
dc.description.tableofcontents | 1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 | spa |
dc.description.tableofcontents | 2. Marco Teórico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14 | spa |
dc.description.tableofcontents | 2.1. Índices de capacidad de procesos (ICP) . . . . . . . . . . . . . . . . . . . . . . . 14 | spa |
dc.description.tableofcontents | 2.1.1. Índice de capacidad de procesos tradicionales . . . . . . . . . . . . . . . . 15 | spa |
dc.description.tableofcontents | 2.1.1.1. Índice de capacidad potencial Cp . . . . . . . . . . . . . . . . . 15 | spa |
dc.description.tableofcontents | 2.1.1.2. Índice de Capacidad de Proceso para un proceso no centrado Cpk. . . . 16 | spa |
dc.description.tableofcontents | 2.1.1.3. Índice de Capacidad de Proceso para un proceso centrado Cpm . . 16 | spa |
dc.description.tableofcontents | 2.1.2. ICP cuando los datos no son normales . . . . . . . . . . . . . . . . . . . 17 | spa |
dc.description.tableofcontents | 2.1.2.1. Método de percentiles de Clements . . . . . . . . . . . . . . . . 18 | spa |
dc.description.tableofcontents | 2.1.2.2. Método de la transformación potencial Box-Cox . . . . . . . . . 19 | spa |
dc.description.tableofcontents | 2.1.2.3. Método de Percentiles de Burr . . . . . . . . . . . . . . . . . . 19 | spa |
dc.description.tableofcontents | 2.2. Redes Neuronales Artificiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 | spa |
dc.description.tableofcontents | 2.2.1. Características de una Red Neuronal Artificial . . . . . . . . . . . . . . . 21 | spa |
dc.description.tableofcontents | 2.2.2. Función de activación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 | spa |
dc.description.tableofcontents | 2.2.3. Modelos de redes neuronales artificiales . . . . . . . . . . . . . . . . . . . 23 | spa |
dc.description.tableofcontents | 2.3. Métodos de selección de variables . . . . . . . . . . . . . . . . . . . . . . . . . . 23 | spa |
dc.description.tableofcontents | 3. Estado del Arte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 | spa |
dc.description.tableofcontents | 4. Propuesta metodológica . . . . . . . . . . . . . . . . . . . . . . . . . . 28 | spa |
dc.description.tableofcontents | 4.1. Etapa 1: Cálculo de las variables de entrada . . . . . . . . . . . . . . . . . . . . 28 | spa |
dc.description.tableofcontents | 4.2. Etapa 2: Selección de las variables de entrada . . . . . . . . . . . . . . . . . . . 29 | spa |
dc.description.tableofcontents | 4.3. Etapa 3: Selección de la configuración de la red . . . . . . . . . . . . . . . . . . 30 | spa |
dc.description.tableofcontents | 4.3.1. Selección de la función de activación . . . . . . . . . . . . . . . . . . . . 30 | spa |
dc.description.tableofcontents | 4.3.2. Selección del número de capas ocultas y el número de neuronas . . . . . 31 | spa |
dc.description.tableofcontents | 5. Estudio y resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 | spa |
dc.description.tableofcontents | 5.1. Construcción de las bases de datos . . . . . . . . . . . . . . . . . . . . . . . . . 34 | spa |
dc.description.tableofcontents | 5.2. Resultados de la aplicación de la metodología . . . . . . . . . . . . . . . . . . . 36 | spa |
dc.description.tableofcontents | 5.2.1. Etapa 1: Cálculo de las variables de entrada . . . . . . . . . . . . . . . . 36 | spa |
dc.description.tableofcontents | 5.2.2. Etapa 2: Selección de las variables de entrada . . . . . . . . . . . . . . . 37 | spa |
dc.description.tableofcontents | 5.2.2.1. Método de coeficiente de correlación de Pearson . . . . . . . . . 37 | spa |
dc.description.tableofcontents | 5.2.2.2. Método Backward . . . . . . . . . . . . . . . . . . . . . . . . . 38 | spa |
dc.description.tableofcontents | 5.2.2.3. Método Gedeon . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 | spa |
dc.description.tableofcontents | 5.2.3. Etapa 3.1: Selección de la función de activación . . . . . . . . . . . . . . 41 | spa |
dc.description.tableofcontents | 5.2.4. Etapa 3.2: Selección del número de capas ocultas y el número de neuronas. . . 43 | spa |
dc.description.tableofcontents | 6. Conclusiones y recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 46 | spa |
dc.description.tableofcontents | 6.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 | spa |
dc.description.tableofcontents | 6.2. Recomendaciones y trabajos futuros . . . . . . . . . . . . . . . . . . . . . . . . . 47 | spa |
dc.description.tableofcontents | A. Generalidades de las Redes Neuronales . . . . . . . . . . . . . . . . . . . . . 48 | spa |
dc.description.tableofcontents | A.1. Tipos de funciones de activación . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 | spa |
dc.description.tableofcontents | A.2. Clasificación de los modelos de redes neuronales artificiales . . . . . . . . . . . . 49 | spa |
dc.description.tableofcontents | A.3. Métodos de selección de variables . . . . . . . . . . . . . . . . . . . . . . . . . . 51 | spa |
dc.description.tableofcontents | B. Salidas Método Backward . . . . . . . . . . . . . . . . . . . . . . . 54 | spa |
dc.description.tableofcontents | C. Importancia relativa obtenida en con método Gedeon para cada configuración y distribución. . . . . . . . . . . . . . . . . . . 56 | spa |
dc.description.tableofcontents | D. Errores de clasificación de los datos de entrenamiento y datos de prueba en la primera y segunda capa oculta. . . . . . . . . . . . . . . . .64 | spa |
dc.format.mimetype | application/pdf | spa |
dc.identifier.uri | https://repositorio.unicordoba.edu.co/handle/ucordoba/7395 | |
dc.language.iso | spa | spa |
dc.publisher.faculty | Facultad de Ciencias Básicas | spa |
dc.publisher.place | Montería, Córdoba, Colombia | spa |
dc.publisher.program | Estadística | spa |
dc.rights | Copyright Universidad de Córdoba, 2023 | spa |
dc.rights.accessrights | info:eu-repo/semantics/embargoedAccess | spa |
dc.rights.creativecommons | Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0) | spa |
dc.rights.uri | https://creativecommons.org/licenses/by-nc-nd/4.0/ | spa |
dc.subject.keywords | Quality control | eng |
dc.subject.keywords | Process capability indices | eng |
dc.subject.keywords | Artificial neural networks | eng |
dc.subject.keywords | Variable selection methods | eng |
dc.subject.proposal | Control de calidad | spa |
dc.subject.proposal | Índice de capacidad de procesos | spa |
dc.subject.proposal | Redes neuronales artificiales | spa |
dc.subject.proposal | Métodos de selección de variables | spa |
dc.title | Importancia de la selección de variables de entrada en un modelo de redes neuronales artificiales para la clasificación del estado de procesos industriales | spa |
dc.type | Trabajo de grado - Pregrado | spa |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | spa |
dc.type.content | Text | spa |
dc.type.driver | info:eu-repo/semantics/bachelorThesis | spa |
dc.type.version | info:eu-repo/semantics/submittedVersion | spa |
dcterms.references | Abbasi, B. (2009). neural network applied to estimate process capability of non-normal processes, expert systems with applications. Expert Systems with Applications, 36. | spa |
dcterms.references | Ahmad, S., Abdollahian, M., and Zeephongsekul, P. (2008). Process capability estimation for non-normal quality characteristics: A comparison of clements, burr and box-cox methods. ANZIAM Journal, 49:642 – 665. | spa |
dcterms.references | Andrade, E. (2013). Estudio de los principales tipos de redes neuronales y las herramientas para su aplicación. PhD thesis, UNIVERSIDAD POLITÉCNICA SALESIANA. | spa |
dcterms.references | Calvo, D. (2018). Función de activación – redes neuronales. | spa |
dcterms.references | Chatterjee, S. and Hadi, A. (2006). Regression Analysis by Example, volume 4ed. | spa |
dcterms.references | Ciresan, D., Meier, U., Masci, J., Gambardella, L., and Schmidhuber, J. (2011). Flexible, high performance convolutional neural networks for image classification. Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence, 2:1237 – 1242. | spa |
dcterms.references | Clements, J. (1989). Process capability calculations for non-normal distributions. Quality Progress, 22:95 – 100. | spa |
dcterms.references | Cogollo, J., Cogollo, M., and Flórez, A. (2017a). Estimating process capability índices for inaccurate and non-normal data: A systematic literature review. QUALITY MANAGEMENT 161, 18. | spa |
dcterms.references | Cogollo, M., Cogollo, J., Flórez, A., and Arteaga, M. (2017b). Optimal estimation of process capability indices with non-normal data and inaccurate parameters using metaheuristics. QUALITY MANAGEMENT 158, 18. | spa |
dcterms.references | Curreri, F., Graziani, S., and Xibilia, M. (2020). Input selection methods for data-driven soft sensors design: Application to an industrial process. Information Sciences, pages 1 – 17. | spa |
dcterms.references | De Oña, J. and Garrido, C. (2014). Extracting the contribution of independent variables in neural network models: a newapproach to handle instability. Neural Comput Applic, 25:859 – 869. | spa |
dcterms.references | De Veaux, R. and Ungar, L. (1994). Multicollinearity: A tale of two nonparametric regressions. Lecture Notes in Statistics, pages 393 – 402. | spa |
dcterms.references | E. Sneider, R. S. and Khan, U. (2020). A comprehensive comparison of four input variable selection methods for artificial neural network flow forecasting models. Journal of Hydrology, pages 1 – 17. | spa |
dcterms.references | Gedeon, T. (1997). Data mining of inputs: Analysing magnitude and functional measures. International Journal of Neural Systems, 8:209 – 218. | spa |
dcterms.references | GTOCOMA. Conceptos básicos sobre redes neuronales. | spa |
dcterms.references | Gutiérrez, H. and la Vara, R. D. (2013). Statistical Quality Control and six sigma,3 ed. JMcGrawHill, México. | spa |
dcterms.references | Haykin, S. (1999). Neural networks: A comprehensive foundation, volume 2ed. | spa |
dcterms.references | Kane, V. (1986). Process capability indices. journal of quality technology. Journal of Quality Technology 20, 18:41–52. | spa |
dcterms.references | Kotz, S. and Johnson, N. (1993). Process Capability Indices. Chapman and Hall, New York. | spa |
dcterms.references | Köker, R. and Sari, Y. (2003). Neural network based automatic threshold selection for an industrial vision system. | spa |
dcterms.references | Liu, P.-H. and Chen, F.-L. (2005). Process capability analysis of non-normal process data using the burr xii distribution. The International Journal of Advanced Manufacturing Technology, 27:975 – 984. | spa |
dcterms.references | May, R., Dandy, G., and Maier, H. (2011). Review of input variable selection methods for artificial neural networks. Artificial Neural Networks - Methodological Advances and Biomedical Applications, pages 19 – 44. | spa |
dcterms.references | Montgomery, D. (2001). Introduction to Statistical Quality Control. John Wiley and Sons, New York. | spa |
dcterms.references | Morales, P. and Rodríguez, L. (2016). Aplicación de los coeficientes de correlación de kendall y spearman. pages 1–8. | spa |
dcterms.references | Pearn, W. and Kotz, S. (2006). Encyclopedia and Handbook of Process Capability Indices. Series on Quality, Reliability and Engineering Statistics. World Scientific. | spa |
dcterms.references | Safdar, S. and Ahmed, E. (2014). Process capability indices for shape parameter of weibull distribution. Scientific Research, pages 207 –209. | spa |
dcterms.references | Tang, L. and Than, S. (1999). Computing process capability indices for non-normal data: a review and comparative study. QUALITY AND RELIABILITY ENGINEERING INTERNATIONAL, pages 339 –353. | spa |
dspace.entity.type | Publication | |
oaire.accessrights | http://purl.org/coar/access_right/c_f1cf | spa |
oaire.version | http://purl.org/coar/version/c_ab4af688f83e57aa | spa |
Archivos
Bloque original
Bloque de licencias
1 - 1 de 1
No hay miniatura disponible
- Nombre:
- license.txt
- Tamaño:
- 14.48 KB
- Formato:
- Item-specific license agreed upon to submission
- Descripción: