Machine learning prediction models

Machine learning prediction models

Las aplicaciones de machine learning prediction son muy amplias y aportan grandes beneficios. Sin embargo, un aspecto que no debe descuidarse es el correcto desciframiento de los análisis y decisiones realizados por la máquina. De esta manera, se entienden con facilidad los modelos y pueden ser mejorados, por un lado, para evitar errores que impliquen un coste adicional o la pérdida de la ganancia, y por otro, para encontrar nuevos usos.

 

Es lógico tratar de entender cómo funcionan los algoritmos y conocer la razón por la cual logran aciertos en un elevado porcentaje, al igual que identificar qué características y propiedades están siendo consideradas por el ordenador en casos específicos. No es cuestión de quedarse en que se trata de una «caja negra», sino abrirla, eliminar las incertidumbres asociadas y tomar el control de qué y por qué hace las cosas.

 

Interpretar el modelo permite eliminar el sesgo indeseable. Por ejemplo: el algoritmo elige los empleados aptos para un ascenso, los resultados son excelentes, pero nunca aparece una mujer en el grupo. Lo que sucede es que el sistema «aprendió» que los cargos gerenciales de esa compañía siempre han estado en manos de los hombres. Si no se detecta a tiempo, esta corporación sería culpable de discriminación.

 

Cómo se interpretan los modelos

 

 

¿Cómo se interpretan los modelos?

 

Adicionalmente, una correcta interpretación hace fiables los resultados, ayuda a su depuración, alimenta a la ingeniería de las características, descubre la necesidad de tomar nuevas muestras, fortalece las decisiones y robustece al mismo sistema. Y al realizar estos análisis obtenemos sus propiedades principales, el impacto respecto a las salidas, una a una, y el efecto global sobre la predicción.

 

Veamos algunas de las técnicas aplicadas:

 

Permutation importance: ¿qué características son consideradas como las más relevantes por parte del sistema o producen un impacto más significativo en las predicciones? Estos conceptos se usan para definir las entradas, ayudar a identificar comportamientos reñidos con la lógica y demostrar que el programa funciona correctamente.

 

Partial dependence plots (PDP): estos gráficos muestran el efecto marginal originado por ciertas características respecto a la predicción global al permitir evaluar la variable de salida con una o dos entradas distintas en cada ocasión.

 

SHAP (SHapley Additiveex Planation) values: se basa en la teoría de juegos grupales y explica cómo cada participante realiza una contribución significativa al resultado. Con esta herramienta se entiende mejor una predicción y el impacto de los elementos particulares que intervienen en el proceso. Esto podría servir para explicarle a un cliente qué causa influyó más al negarle su solicitud crediticia.

 

En conclusión, dentro del machine learning, la adecuada interpretación de cada modelo es vital, incluso desde el punto de vista legal, a la hora de entender y justificar los resultados generados por los ordenadores. Lo curioso es que para ello se tengan que emplear mecanismos equivalentes que bajen o adapten al entendimiento humano lo logrado por las máquinas dedicadas al autoaprendizaje.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies