Machine learning

Acelerando el aprendizaje automático

Desde hace algunos años la Inteligencia Artificial ha ido creciendo sustancialmente. Gran parte de ello gracias al Big Data y a los nuevos avances en la tecnología. Sin duda, las Unidades de Procesamiento Gráfico (GPU) se llevan todos los aplausos. Estas han permitido que los algoritmos de Machine Learning “aprendan” aceleradamente (lo cual no indica que no aprenden bien sino de manera más rápida).

CPUs vs GPU

Sin embargo, para tareas de Machine Learning, este procesador, demora aproximadamente 70 veces más en el entrenamiento de algoritmos en contraste a las GPUs. Esto último porque las GPUs son procesadores de propósito específico y vienen incorporados con miles de núcleos lo cuales permiten computar operaciones matemáticas extensas casi de forma paralela.


Demo del rendimiento de una CPU vs GPU. Fuente: YouTube https://youtu.be/-P28LKWTzrI

No obstante, las GPUs fueron usadas en un inicio principalmente para mejorar el procesamiento de gráficos en los videojuegos. Más tarde, se descubrió que tenía potencial para hacer operaciones matemáticas complejas y es así que se han manifestado en diferentes industrias como las finanzas computacionales, minado de criptografías y por supuesto en el Machine Learning.

En este sentido, Nvidia Corporation, una de las compañías que mayor aporte dedica tanto al desarrollo de tarjetas gráficas como a la investigación en el campo del Deep Learning, ha posibilitado que se entrenen algoritmos aprovechando al máximo el poder computacional de las GPUs.


GPUs de la Familia Nvidia GEFORCE GTX 1070 Ti. Fuente: Neurometrics.

Esta aceleración en el entrenamiento de modelos de Machine Learning y Deep Learning sigue contribuyendo en el auge de la Inteligencia Artificial. Procesar millones de datos ahora no solo es asequible sino que posibilita acercarse más a las habilidades que poseen los seres humanos cada vez de manera más rápida.

Neisser Ale
Neisser Ale

Data Scientist