Rango Finito

fotoscódigoobservatorioshermanocerdo temas plots

machine learning

Corbatín

Después de pensar un rato ayer concluyo que la mayoría de la geometría diferencial explícita en este artículo es decorativa. Se ve bien y es relevante, pero no deja de ser un corbatín. Para efectos de lo que se pretende explicar, definir la métrica en la bola de Poincaré a partir del tensor métrico asociado a su estructura de variedad riemanniana es un exceso. Y al final todo se reduce a un descenso a punta de gradientes usando este truco (me desconcertó el abuso notacional de la página 16; ojalá que algún editor haya sugerido añadir aire en ese argumento) con una función de pérdida que aprovecha la geometría hiperbólica del espacio de inmersión. La aplicación tiene su encanto, para qué, pero se me hace que se podría presentar con menos pompa.

Aspirantes

Por culpa del hype hay una nueva generación de aspirantes a hacer modelación estadística que saltan de cero a deep learning sin tomarse la molestia de aprender a programar. Plataformas muy bien pensadas como Keras permiten montar modelos a capas muy complicados sobre un esquema sintáctico sencillo y repetitivo; un laboratorio alquímico maravilloso para experimentar a toda velocidad con diferentes configuraciones de capas predefinidas. Se puede llegar muy lejos con esas combinatorias (dentro de las limitaciones que esos modelos cargan), pero no hay muchas empresas que busquen malabaristas de redes neuronales. Ese atajo por sí solo, aunque se presenta como una ruta rápida a la industria más codiciada, genera especialistas para empleos que no existen (incluso en Toronto, que es considerada Meca de la disciplina) y no ofrece experiencia real en herramientas más generales que les podrían convertir en las personas que esa industria busca con desesperación: desarrolladoras de software con comprensión sólida (aunque sea básica) de las metodologías y técnicas del aprendizaje estadístico que puedan diseñar y montar (o al menos contribuir a la construcción de) sistemas robustos y escalables donde esos modelos (incluso los más sencillos (que para este punto son absurdamente considerados clásicos pese a ser la base de la mayoría de las soluciones de este tipo en producción)) se desplieguen, entrenen, mantengan y expandan con mediana comodidad. Problema difícil ese, todavía sin solución general clara.

Adenda: este artículo, que expone debilidades precisas de redes neuronales especializadas en clasificación de imágenes, es uno de los mejores ejemplos que he encontrado de lo frágiles que son esas pilas de multiplicaciones deformadas en las que tanta plata y confianza se invierten hoy.

5

recommenderlab es un paquete de R con funciones pensadas para facilitar el diseño y evaluación de sistemas de recomendación. No he jugado mucho con él pero se siente flexible, útil y (relativamente) amplio. De pronto lo use en un proyecto en el que vengo trabajando desde enero. Aquí una introducción bastante buena no sólo al paquete sino a la teoría básica de esas herramientas. También he estado ojeando este libro durante la última semana.

La voz de la colmena

En la columna de hoy hablo de la tendencia reciente a creer que hay conocimiento en el ruido que generamos en redes sociales. Sin duda hay algo de cierto ahí (Twitter es un focus groups casi idílico) pero tal vez no es tanto como queremos creer. Y, más importante, la información disponible en esas bases de datos depende seriamente de las dinámicas de uso de las diferentes redes sociales, que son determinadas por sus modelos de negocio y las jerarquías que establecen. Las redes sociales, en esto hay que insistir muchísimo, no son herramientas neutras.

Para complementar la columna, como siempre, algunos enlaces: