Seleccionar página

xresch/Pixabay

Fuente: xresch/Pixabay

Hay un sesgo de decisión relativamente nuevo que está muy extendido en los negocios. Podríamos llamarlo la “ilusión del aprendizaje automático”.

No queremos decir que el aprendizaje automático no sea útil. Claramente puede ser. Desde la banca hasta la medicina, estamos viendo los diversos beneficios de esta herramienta estadística en decisiones relevantes. Gracias a los avances en esta tecnología, somos más capaces de reconocer patrones en datos complejos y optimizar procesos cruciales.

Pero una ilusión entre los tomadores de decisiones es la creencia de que el aprendizaje automático siempre es útil: si la comprensión y las predicciones de uno provienen del aprendizaje automático basado en grandes datos, entonces deben ser confiables para tomar decisiones.

Después de todo, los resultados son producidos por análisis complejos y de vanguardia sobre un rico recurso de información, realizados por analistas estadísticamente sofisticados.

¿Qué puede salir mal?

Dos condiciones clave

Para que el aprendizaje automático mejore las decisiones de manera confiable y sostenible, deben suceder dos cosas fundamentales:

1. Los datos deben ser representativos de la situación.

Pero esto no está garantizado. A menudo puede haber problemas de selección en la muestra (pueden faltar ciertos resultados) o puede haber retrasos significativos entre las causas y los efectos. Si es así, las lecciones del aprendizaje automático serían problemáticas en términos de comprender lo que realmente está sucediendo. De hecho, las empresas se han enfrentado a todo tipo de problemas debido a que las máquinas discriminan ciertos contenidos o personas.

2. La situación debe ser estable.

Esto tampoco está garantizado. Si hay un cambio constante e impredecible en la configuración, las lecciones del aprendizaje automático podrían volverse obsoletas y poco confiables rápidamente. Los análisis bien pueden ajustarse a los datos existentes, pero esto no conduciría necesariamente a mejores predicciones. Como resultado, los gerentes se confiarían demasiado y no tomarían ciertas precauciones de manera oportuna.

Amable contra Malvado

Si ambas condiciones se cumplen aproximadamente, entonces estaríamos en un entorno de aprendizaje amable. De hecho, el aprendizaje automático nos ayudaría a arrojar una luz confiable sobre lo que sucedió en el pasado y lo que depara el futuro.

Pero si al menos una de estas condiciones no se cumple, nos encontraremos en un entorno de aprendizaje perverso. La confiabilidad de los conocimientos del aprendizaje automático para las decisiones sería menos segura y duradera de lo que esperábamos. En cambio, habría una buena posibilidad de que el aprendizaje conduzca a una ilusión de comprensión y previsibilidad.

Para complicar aún más las cosas, una vez que las lecciones y los pronósticos del aprendizaje automático están disponibles, son difíciles de ignorar. Las ideas aprobadas por máquinas pueden ser bastante irrefutables e irreversibles. Desaprender y volver a aprender se vuelve difícil.

Es por eso que, cuando los gerentes diseñan sus estándares de recopilación, análisis y presentación de datos dentro de sus empresas, se debe reconocer una posible «ilusión de aprendizaje automático» desde el principio al verificar cómo se pueden violar las «dos condiciones clave».