GPU computing for Machine Learning

Miguel A. Martínez del Amor

Datos de la ponencia
Jueves, 7 de marzo de 2024
11:00
Resumen de la ponencia

Las tarjetas gráficas son dispositivos que han cobrado una gran relevancia en la Inteligencia Artificial. Su procesador paralelo, conocido como la GPU, es capaz de acelerar de forma efectiva el entrenamiento de modelos de Machine Learning. Sobre todo, tienen una gran importancia a la hora de entrenar redes neuronales. En esta ponencia introduciremos la computación con GPU: de dónde vienen las GPUs, cómo son, por qué ofrecen tanto paralelismo, cómo se programan, la arquitectura actual, cómo se emplea en el Deep Learning, y cómo se puede emplear también para el resto de modelos de Machine Learning y Data Science en general. Esta es la primera charla de una pequeña serie que vendrá dedicada a la computación con GPUs y Machine Learning.