Por culpa del hype hay una nueva generación de aspirantes a hacer modelación estadística que saltan de cero a deep learning sin tomarse la molestia de aprender a programar. Plataformas muy bien pensadas como Keras permiten montar modelos a capas muy complicados sobre un esquema sintáctico sencillo y repetitivo; un laboratorio alquímico maravilloso para experimentar a toda velocidad con diferentes configuraciones de capas predefinidas. Se puede llegar muy lejos con esas combinatorias (dentro de las limitaciones que esos modelos cargan), pero no hay muchas empresas que busquen malabaristas de redes neuronales. Ese atajo por sí solo, aunque se presenta como una ruta rápida a la industria más codiciada, genera especialistas para empleos que no existen (incluso en Toronto, que es considerada Meca de la disciplina) y no ofrece experiencia real en herramientas más generales que les podrían convertir en las personas que esa industria busca con desesperación: desarrolladoras de software con comprensión sólida (aunque sea básica) de las metodologías y técnicas del aprendizaje estadístico que puedan diseñar y montar (o al menos contribuir a la construcción de) sistemas robustos y escalables donde esos modelos (incluso los más sencillos (que para este punto son absurdamente considerados clásicos pese a ser la base de la mayoría de las soluciones de este tipo en producción)) se desplieguen, entrenen, mantengan y expandan con mediana comodidad. Problema difícil ese, todavía sin solución general clara.

Adenda: este artículo, que expone debilidades precisas de redes neuronales especializadas en clasificación de imágenes, es uno de los mejores ejemplos que he encontrado de lo frágiles que son esas pilas de multiplicaciones deformadas en las que tanta plata y confianza se invierten hoy.