Chat GPT: ¿su crecimiento colapsará las infraestructuras?
Chat GPT se lanzó al mercado en diciembre de 2022 y desde entonces no ha parado de crecer en número de usuarios. Ha llegado a registrar más de 100 millones en dos meses. Una cifra récord que esconde, a su vez, otras cifras. 700.000€ al día es el coste diario de mantener vivo este chatbot de inteligencia artificial. Pero quizá la alerta más inquietante la lanzó a finales de agosto Douglas Vaz Benítez, director general de Qualcomm para España y Portugal, quien anticipó un posible déficit de infraestructuras en el futuro si la aplicación sigue creciendo al ritmo actual. ¿Existe una infraestructura que soporte este crecimiento de Chat GPT? o por el contrario ¿Chat GPT podría colapsar las infraestructuras actuales?. En este post vamos a detallar los números ocultos de esta tecnología y su impacto en las infraestructuras actuales.
Chat GPT y déficit de infraestructuras
El éxito de esta tecnología – Chat GPT – ha sido tal que los grandes gigantes tecnológicos están incorporando la inteligencia artificial generativa en sus buscadores. Es el caso de Google con Bard, que aunque en modo experimental, la está potenciando en sus buscadores. Y todo esto plantea enormes retos. El principal, la capacidad de las infraestructuras actuales.
Una consulta normal en un motor de búsqueda cualquiera, en Google, por ejemplo, apenas requiere la inteligencia artificial para sus resultados. De hecho, según Douglas Vaz Benítez, director general de Qualcomm para España y Portugal, en el caso de Google, apenas el 1% de los 10.000 millones de búsquedas requieren el concurso de la Inteligencia Artificial Generativa, “pero si ese porcentaje aumenta hasta el 10%, ni la compañía estadounidense ni los centros de datos y telecomunicaciones estarían dimensionadas para dar respuesta a esa demanda de información enriquecida. No habrá infraestructura que lo soporte”
En 2019, nosotros ya anticipábamos en nuestro blog, cómo Google lleva años preparando sus centros de datos para la inteligencia artificial. Explicábamos cómo estaba llevando a cabo la adaptación de sus datas centers a la inteligencia artificial y cómo trabajaba para hacerlos compatibles con la refrigeración líquida, fundamentalmente porque el calor generado por sus nuevos procesadores de inteligencia artificial exceden los límites de las soluciones de refrigeración que aportan sus sistemas anteriores.
Centros de datos, nuevos chips y consumo energético
Y no sólo por el coste económico que conlleva el desarrollo de esta tecnología. Hablamos de dinero, chips cada vez más potentes y un consumo de recursos energéticos e hídricos disparados.
Según algunas fuentes, el entrenamiento de GPT3, modelo en el que se basa Chat GPT, consume 1.287 MWh. Si hablamos de recursos hídricos, el consumo de agua al mes del desarrollo basado en IA para cumplir procesos de inferencia es de alrededor de 50 millones de litros de agua.
Los centros de datos que sustentan toda esta tecnología necesitan chips cada vez más potentes para hacer frente a este despliegue computacional. Quizá se entienda mejor si explicamos que todas estas apps de inteligencia artificial generativa necesitan una fase de entrenamiento en el que el algoritmo va aprendiendo. Según algunos informes, Chat GPT-4 fue entrenado con un despliegue de recursos desorbitantes: comenzó con 10.000 GPU NVIDIA A100 y terminó con más de 25.000 tarjetas.
Se estima que entre 2023 y 2024 se van a necesitar la nada desdeñable cifra de 432.000 GPU NVIDIA H100 en total, con un valor de más de 15.000 millones de dólares para hacer frente a este desarrollo de Chat GPT.
El siguiente paso en la evolución es Chat GPT 5. Según declaraciones de Elon Musk GPT-5 necesitará entre 25.000 a 50.000 GPU conforme aumente su entrenamiento. ¿Cómo sustentar este crecimiento? ¿Habrá chips en el mercado para satisfacer esta demanda? Y, sobre todo, ¿podrán los centros de datos cumplir con sus requerimientos de sostenibilidad y al mismo tiempo dar respuesta a este desarrollo de inteligencia artificial?
Chat GPT y huella hídrica
A diferencia de las búsquedas en Google o cualquier otro motor de búsqueda, las consultas de chatbot requieren ingentes recursos energéticos y, por tanto, la misma cantidad ingente de recursos para enfriar los servidores dedicados al funcionamiento de modelos de inteligencia artificial.
Según publicaba Wired, la huella hídrica total alrededor del entrenamiento GPT-3 es de 3.5 millones de litros de agua en Estados Unidos. Cifra que podría aumentar hasta los 4,9 millones de litros si esta fase de entrenamiento se produce en centros de datos asiáticos de Microsoft, con diferentes ajustes de eficiencia del agua.
Cada nuevo modelo de Chat GPT promete superar en eficiencia y potencia a su antecesor. Y todas estas expectativas llevan implícitas cifras impactantes en cuanto a recursos energéticos e hídricos empleados. Sin mencionar toda la huella de carbono que genera este despliegue computacional. Cómo cumplir con el compromiso de descarbonización total del sector y al mismo tiempo dar el salto en modelos de Inteligencia Artificial es algo que todavía no sabemos cómo se va a solucionar. Quizá deberíamos hacer la segunda parte de este post en unos años y escribir sobre las soluciones que ha encontrado la industria. De momento, toca esperar.
Imagen Cabecera Pixabay