Rojas, ElvisNicolae, BogdanMeneses, Esteban2023-10-212023-10-2120200379-3982http://hdl.handle.net/11056/26727Deep learning applications have become a valuable tool to solve complex problems in many critical areas. It is important to provide reliability on the outputs of those applications, even if failures occur during execution. In this paper, we present a reliability evaluation of three deep learning models. We use an ImageNet dataset and a homebrew fault injector to make all the tests. The results show there is a difference in failure sensitivity among the models. Also, there are models that despite an increase in the failure rate can keep the resulting error values low.Los modelos de Aprendizaje Profundo se han convertido en una valiosa herramienta para resolver problemas complejos en muchas áreas críticas. Es importante proveer confiabilidad en las salidas de la ejecución de estos modelos, aún si se producen fallos durante la ejecución. En este artículo presentamos la evaluación de la confiabilidad de tres modelos de aprendizaje profundo. Usamos un conjunto de datos de ImageNet y desarrollamos un inyector de fallos para realizar las pruebas. Los resultados muestran que entre los modelos hay una diferencia en la sensibilidad a los fallos. Además, hay modelos que a pesar del incremento en la tasa de fallos pueden mantener bajos los valores de error.engAcceso abiertoAttribution-NonCommercial-NoDerivatives 4.0 Internacionalhttp://creativecommons.org/licenses/by-nc-nd/4.0/MODELOSAPRENDIZAJE PROFUNDO (APRENDIZAJE AUTOMÁTICO)RESILIENCIASEGURIDAD (INFORMÁTICA)INYECCIÓN DE FALLOSTOLERANCIA A FALLOSMODELSDEEP LEARNING (MACHINE LEARNING)RESILIENCESECURITY (COMPUTING)FAULT INJECTIONFAULT TOLERANCEEvaluating resilience of deep learning modelsEvaluando la resiliencia de modelos de deep learninghttp://purl.org/coar/resource_type/c_6501https://doi.org/10.18845/tm.v33i5.5071