Evaluating resilience of deep learning models
View/ Open
Date
2020Author
Rojas, Elvis
Nicolae, Bogdan
Meneses, Esteban
Metadata
Show full item recordAbstract
Deep learning applications have become a valuable tool to solve complex problems in many
critical areas. It is important to provide reliability on the outputs of those applications, even if
failures occur during execution. In this paper, we present a reliability evaluation of three deep
learning models. We use an ImageNet dataset and a homebrew fault injector to make all the
tests. The results show there is a difference in failure sensitivity among the models. Also, there
are models that despite an increase in the failure rate can keep the resulting error values low. Los modelos de Aprendizaje Profundo se han convertido en una valiosa herramienta para
resolver problemas complejos en muchas áreas críticas. Es importante proveer confiabilidad en
las salidas de la ejecución de estos modelos, aún si se producen fallos durante la ejecución.
En este artículo presentamos la evaluación de la confiabilidad de tres modelos de aprendizaje
profundo. Usamos un conjunto de datos de ImageNet y desarrollamos un inyector de fallos para
realizar las pruebas. Los resultados muestran que entre los modelos hay una diferencia en la
sensibilidad a los fallos. Además, hay modelos que a pesar del incremento en la tasa de fallos
pueden mantener bajos los valores de error.
Collections
The following license files are associated with this item: