« Deep Learning en el r… « || Inicio || » GRU: Gated Recurrent … »

XML: Aprendizaje Automático Explicable

Última modificación: 10 de Mayo de 2018, y ha tenido 201 vistas

Etiquetas utilizadas: || || ||

Sesión del Seminario (I+A)A

Ponente: Sergio Jiménez

Fecha: 11 Mayo 2018

Resumen: Comprender por qué los modelos de aprendizaje automático toman las decisiones que toman ayuda a los diseñadores y usuarios finales de muchas maneras: la selección del modelo, ingeniería de características, para confiar y actuar según las predicciones y crear interfaces de usuarios más intuitivas. Por lo tanto, la interpretabilidad se ha convertido en una preocupación vital en el aprendizaje automático, y el trabajo en el área de modelos interpretables a resurgido con gran interés. En algunas aplicaciones, dichos modelos son tan precisos como los no interpretables y, por lo tanto, los desarrolladores lo eligen por su transparencia. Sin embargo, restringir el aprendizaje automático a modelos interpretables es una gran limitación. En el presente trabajo se discute sobre las explicaciones creadas por metodologías basadas en modelos agnósticos (como L.I.M.E o la contribución de características) aplicadas a algoritmos de aprendizaje automático de cajas negras. Así mismo, se revisa los fundamentos filosóficos y psicológicos relacionados con la explicación para poder evaluar dichas metodologías. 

 
Referencias:

« Deep Learning en el r… « || Inicio || » GRU: Gated Recurrent … »