Contenido creado por Sin autor
Tecnología

Por The New York Times

Así está cambiando la IA la forma en que el mundo construye computadoras

La inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los juegos.

31.03.2025 17:30

Lectura: 13'

2025-03-31T17:30:00-03:00
Compartir en

Por The New York Times | Cade Metz, Karen Weise, Marco Hernandez, Mike Isaac and Anjali Singhvi

La carrera por crear inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los videojuegos.

Las empresas tecnológicas ahora construyen computadoras especializadas que retacan con la mayor cantidad posible de GPU (ideales para ejecutar los cálculos que impulsan la IA).

El resultado es un nuevo tipo de supercomputadora: un conjunto de hasta 100.000 chips conectados entre sí en edificios conocidos como centros de datos cuya tarea es crear potentes sistemas de IA.

Esta potencia de cálculo tiene un costo. OpenAI, fabricante de ChatGPT, espera construir unas cinco instalaciones que juntas consumirán más electricidad que todos los hogares (aproximadamente 3 millones) de Massachusetts.

En su empeño por perseguir el sueño de la IA, las gigantes tecnológicas están instalando centros de datos por todo el país y por todo el mundo. Para hacerlos funcionar, deben conseguir suficiente electricidad, además del agua necesaria para los sistemas de refrigeración que impiden que los chips se frían en su propio calor.

Se trata del cambio más fundamental en la informática desde los primeros días de la World Wide Web. Del mismo modo que reconstruyeron por completo sus sistemas informáticos a fin de tener capacidad para operar la nueva Internet comercial en la década de 1990, ahora las empresas los están reconstruyendo de cabo a cabo (desde los componentes más diminutos hasta la forma en que se alojan y alimentan las computadoras) de manera que sean aptos para operar la IA.

Las grandes empresas tecnológicas se han dedicado desde hace dos décadas a construir centros de datos informáticos por todo el mundo. Esos centros están llenos de computadoras que se ocupan de gestionar el tráfico en línea que alimenta los servicios de Internet de las empresas, como los motores de búsqueda, las aplicaciones de correo electrónico y los sitios de comercio electrónico.

Pero la potencia de esas instalaciones no es nada en comparación con lo que se avecina. En 2006, Google inauguró su primer centro de datos en The Dalles (Oregón), cuya construcción requirió una inversión estimada de 600 millones de dólares. En enero, OpenAI y varias empresas aliadas anunciaron que planean gastar unos 100.000 millones de dólares en nuevos centros de datos, empezando por uno en Texas. Con el tiempo, tienen previsto invertir otros 400.000 millones de dólares en este y otros centros de Estados Unidos.

El cambio en la informática no se reduce a una remodelación de la tecnología, sino que también está transformando las finanzas, la energía y las comunidades. Las empresas de inversión en fases consolidadas están invirtiendo en empresas de centros de datos. Se observa una movilización masiva de electricistas a las zonas donde se erigen las instalaciones. En algunos lugares, la población local ha expresado oposición a los proyectos, preocupada por que sean más perjudiciales que beneficiosos.

Por ahora, las empresas tecnológicas quieren más potencia de cálculo y más electricidad de la que el mundo puede proporcionar. OpenAI espera recaudar cientos de miles de millones de dólares para construir fábricas de chips informáticos en Medio Oriente. Google y Amazon hace poco concretaron acuerdos para construir y desplegar una nueva generación de reactores nucleares… y quieren hacerlo rápido.

El mantra “mientras más grande, mejor” se puso en tela de juicio en diciembre, cuando una pequeña empresa china, DeepSeek, informó que había construido uno de los sistemas de IA más potentes del mundo utilizando muchos menos chips informáticos de lo que muchos expertos creían posible. Esta noticia suscitó dudas sobre el gasto frenético de Silicon Valley.

Las gigantes tecnológicas estadounidenses ni se inmutaron. El objetivo (de lo más ambicioso) de muchas de estas empresas es crear inteligencia artificial general (AGI, por su sigla en inglés), una máquina capaz de hacer todo lo que hace el cerebro humano, y siguen convencidas de que, para conseguirlo, es esencial contar con más potencia de cálculo.

Amazon, Meta, Microsoft y la empresa matriz de Google, Alphabet, indicaron hace poco que su gasto de capital (que se utiliza principalmente para construir centros de datos) podría superar una cantidad combinada de 320.000 millones de dólares este año. Esa cifra es más del doble de lo que gastaron hace dos años.

The New York Times visitó cinco centros de datos nuevos en California, Utah, Texas y Oklahoma y dialogó con más de 50 ejecutivos, ingenieros, empresarios y electricistas para contar la historia del hambre insaciable de la industria tecnológica por este nuevo tipo de informática.

“Los avances previstos para la próxima década se han comprimido en un periodo de apenas dos años”, señaló Sundar Pichai, director ejecutivo de Google, en una entrevista con el Times. “La IA es el acelerador”.

Nuevos chips informáticos para una nueva IA

El gigantesco avance de la informática para la IA fue impulsado por un pequeño ingrediente: los chips informáticos especializados llamados unidades de procesamiento gráfico, o GPU.

Empresas como Nvidia, la fabricante de chips de Silicon Valley, diseñaron originalmente estos chips para generar gráficos empleados en los videojuegos. Pero las GPU resultaron excelentes para ejecutar las matemáticas que hacen funcionar las llamadas redes neuronales, que pueden aprender habilidades a partir del análisis de grandes cantidades de datos.

Las redes neuronales son la base de los chatbots y otras tecnologías punteras de IA.

En el pasado, la informática dependía en gran medida de chips denominados unidades centrales de procesamiento, o CPU, que podían hacer muchas cosas, incluidas las sencillas operaciones matemáticas que hacen funcionar las redes neuronales.

Pero las GPU hacen estos cálculos más rápido… mucho más rápido. En un momento dado, un chip tradicional puede hacer un solo cálculo. En ese mismo momento, una GPU puede hacer miles. Los informáticos utilizan el término procesamiento paralelo para designar esta característica, que significa que las redes neuronales pueden analizar más datos.

Cuanto más cerca estén los chips, mejor

No solo los chips son diferentes. Para sacar el máximo partido de las GPU, las empresas tecnológicas deben acelerar el flujo de datos digitales entre los chips.

“Cada GPU tiene que hablar con las demás lo más rápido posible”, explicó Dave Driggers, director de tecnología de Cirrascale Cloud Services, que gestiona un centro de datos en Austin (Texas) para el Instituto Allen de Inteligencia Artificial, un destacado laboratorio de investigación en IA.

Cuanto más cerca están los chips entre sí, funcionan más rápido. Así que las empresas decidieron retacar la mayor cantidad posible de chips en cada centro de datos. También desarrollaron nuevo hardware y cableado que permiten transmitir datos rápidamente entre los chips.

Eso está cambiando la manera en que operan los centros de datos, que básicamente son grandes edificios llenos de bastidores con computadoras apiladas una encima de otra.

En 2021, antes del auge de la IA, Meta abrió dos centros de datos a una hora al sur de Salt Lake City y estaba construyendo tres más en ese lugar. El plan era que esas instalaciones (cada una del tamaño del Empire State Building puesto de costado sobre el desierto) ayudaran a alimentar las aplicaciones de redes sociales de la empresa, como Facebook e Instagram.

Pero después de que OpenAI dio a conocer ChatGPT en 2022, Meta reevaluó sus planes con respecto a la IA. Tuvo que amontonar en un nuevo centro de datos miles de GPU y ponerlas a trabajar en cálculos que habrían tardado semanas e incluso meses para construir una red neuronal única y hacer avanzar la IA de la empresa.

“Todo debe funcionar como una supercomputadora gigante, del tamaño de un centro de datos”, comentó Rachel Peterson, vicepresidenta de centros de datos de Meta. “Esa es una situación totalmente distinta”.

Las máquinas de IA necesitan más electricidad… mucha más

Los nuevos centros de datos repletos de GPU implicaban nuevas exigencias de electricidad… tanta, que la cantidad de energía necesaria se dispararía.

En diciembre de 2023, Cirrascale alquiló un centro de datos tradicional de 13.000 metros cuadrados en Austin que consumía 5 megavatios de electricidad, suficiente para abastecer en promedio a unos 3600 hogares estadounidenses. En su interior, había unas 80 filas de computadoras. La empresa desmontó las computadoras viejas a fin de convertir las instalaciones en un centro de IA.

Los 5 megavatios que solían alimentar un edificio lleno de CPU ahora bastan para hacer funcionar solo ocho o diez filas de computadoras repletas de GPU. Cirrascale puede ampliar su consumo a unos 50 megavatios de electricidad de la red, pero ni siquiera así llenaría el centro de datos de GPU.

Y eso todavía es poco. OpenAI pretende construir unos cinco centros de datos que superen el consumo eléctrico de unos 3 millones de hogares.

Encima, que estos centros de datos tengan más equipo en un espacio más reducido no es el único factor.

Los chips informáticos que emplea la IA necesitan mucha más electricidad que los chips tradicionales. Una CPU típica necesita entre 250 y 500 vatios para funcionar, mientras que las GPU utilizan hasta 1000 vatios.

Construir un centro de datos es, en última instancia, una negociación con la compañía de luz local. ¿Cuánta energía puede suministrar? ¿A qué costo? Si requiere millones de dólares en equipo nuevo para ampliar la red eléctrica, ¿quién paga las actualizaciones?

Los centros de datos consumieron alrededor del 4,4 por ciento de la electricidad total de Estados Unidos en 2023, es decir, más del doble de energía que las instalaciones utilizadas para minar criptomonedas. Esta cifra podría triplicarse para 2028, según un informe publicado por el Departamento de Energía en diciembre.

“El tiempo es la moneda del sector en estos momentos”, afirmó Arman Shehabi, investigador del Laboratorio Nacional Lawrence Berkeley que dirigió el informe. Comentó que hay prisa por seguir construyendo y “no creo que el ritmo se ralentice en los próximos años”.

Los operadores de centros de datos ahora tienen problemas para encontrar energía eléctrica en Estados Unidos. En zonas como el norte de Virginia (el mayor centro mundial de centros de datos por su proximidad a los cables submarinos que transportan datos de ida y vuelta a Europa), estas empresas prácticamente han agotado la electricidad disponible.

Algunas gigantes de la IA han decidido recurrir a la energía nuclear. Microsoft planea volver a poner en marcha la central nuclear Three Mile Island, en Pensilvania.

Otras han optado por otras rutas. Elon Musk y xAI, su empresa emergente de IA, recientemente decidieron olvidarse de la energía limpia y adoptar una solución más rápida: instalar sus propias turbinas de gas en un nuevo centro de datos en Memphis, Tennessee.

“Mis conversaciones han pasado de '¿Dónde podemos conseguir chips de última generación?' a '¿Dónde podemos conseguir energía eléctrica?'”, relató David Katz, socio de Radical Ventures, una empresa de inversión en primeras fases centrada en IA.

La IA es un tema tan candente que solo puede enfriarse con agua

Estos sistemas de IA inusualmente densos han provocado otro cambio: una forma diferente de enfriar las computadoras.

Los sistemas de IA se calientan mucho. Cuando circula desde la parte delantera de un bastidor a través de los chips que realizan los cálculos, el aire se calienta. En el centro de datos de Cirrascale en Austin, la temperatura alrededor de un bastidor era de 21,7 grados Celsius en la parte delantera y terminaba en 36 grados Celsius en la parte trasera.

Si un bastidor no se refrigera adecuadamente, las máquinas (y el centro de datos en general) corren el riesgo de incendiarse.

Justo a las afueras de Pryor, una ciudad agrícola y ganadera del extremo noreste de Oklahoma, Google tiene en marcha un proyecto que resuelve este problema a gran escala.

Trece centros de datos de Google se elevan sobre las llanuras cubiertas de hierba. Estas instalaciones albergan decenas de miles de bastidores de máquinas y utilizan cientos de megavatios de electricidad procedente de centrales eléctricas instaladas entre los edificios de hormigón. Para evitar que las máquinas se sobrecalienten, Google bombea agua fría a través de los 13 edificios.

En el pasado, las tuberías de agua de Google corrían por pasillos vacíos al lado de las estanterías de computadoras. A su paso por las tuberías, el agua fría absorbía el calor del aire circundante. Pero cuando los bastidores están repletos de chips de IA, el agua no pasa tan cerca, así que no logra absorber el calor adicional.

Google ahora tiene colocadas sus tuberías de agua justo al lado de los chips. Solo así el agua puede absorber el calor y mantener los chips en funcionamiento.

Bombear agua a través de un centro de datos lleno de equipo eléctrico es un riesgo, ya que el agua puede filtrarse de las tuberías al hardware informático. Por este motivo, Google trata el agua con productos químicos que la hacen menos propensa a conducir la electricidad y a dañar los chips.

Una vez que el agua absorbe el calor de todos esos chips, las empresas tecnológicas también deben encontrar mecanismos para volver a enfriar el agua.

En muchos casos, para hacerlo utilizan torres gigantes situadas en el tejado del centro de datos. Parte del agua se evapora de estas torres y así enfría el resto, del mismo modo que las personas se refrescan cuando sudan y el sudor se evapora de su piel.

Los centros de datos de Google consumieron 23.000 millones de litros de agua en 2023, un 17 por ciento más que el año anterior. En California, un estado que sufre sequías, más de 250 centros de datos consumen miles de millones de litros de agua al año, situación que tiene preocupados a los funcionarios locales.

Algunas empresas, entre ellas Cirrascale, utilizan enfriadoras enormes (en esencia, aparatos de aire acondicionado) para enfriar el agua. Esa estrategia reduce la presión sobre el suministro local de agua, porque reutilizan prácticamente toda el agua. El problema es que el proceso requiere más energía eléctrica.

No se ve el fin en el horizonte. El año pasado, Google puso la primera piedra de 11 centros de datos en Carolina del Sur, Indiana, Misuri y otros lugares. Meta informó que sus instalaciones más recientes, ubicadas en Richland Parish (Luisiana), serían de tales dimensiones que podrían cubrir la mayor parte de Central Park, el centro de Manhattan, Greenwich Village y el Lower East Side de Nueva York.

“Este será un año decisivo para la IA”, declaró en enero Mark Zuckerberg, el director ejecutivo de Meta, en una publicación de Facebook que concluyó con la exclamación: “¡Vamos a construir!”.

La carrera por crear inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los videojuegos.

La carrera por crear inteligencia artificial está siendo impulsada por unos pequeños chips de silicio llamados GPU, creados originalmente para los videojuegos.



Comentarios: 20
¿Qué querés ver?

Acerca de los comentarios

Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAR

Esto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla reportarcomentario@montevideo.com.uy, para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.



Página:1 de 2
  1 2  Siguiente »


pablo_pata - 23/09/2024 14:31:39
Este comentario fue valorado negativamente por la comunidad de usuarios.
Si querés leerlo hacé clic aquí[+]
-9
23/09/2024 12:48:25
No es un clase A pero, técnicamente es mucho mejor que casi todos los delanteros del campeonato uruguayo.
Continúa
+9 -2 7
23/09/2024 10:31:43
Yo crecí, y muchos lectores de este portal también, buscando al/ los grone de Peñarol en la foto del cuadro.
Por eso la gente lo quiere a Babi , porque representa a nuestros negros gloriosos.
Ta.
Continúa
+15 -1 14
23/09/2024 10:16:54
QEPD Iarita. Narnia el .undo de las gallinas locas que el jueves van a ver a las 19 hrs a su papá todos con la camiseta del Fla. Juajua.
Continúa
+13 -1 12
23/09/2024 09:37:08
Gran nivel del manya!!! Estamos para más!!
Continúa
+15 -1 14
23/09/2024 09:31:27
Estimados, buenos dias, escribo estas lineas solo para comentarles y de paso realizar una consulta que me tiene profundamente preocupado, hace unos dias que vengo por aca y no logro ver a la fina, educada, elegante de la alta clase del viejo chooooto del Iarita
Continúa
+17 -2 15
23/09/2024 08:34:54
A ver, le hicimos 5 a Cerro (lo disfruto porque es un cuadro pichi, destestable, de los que le harían bien al fútbol uruguayo si desaparecen) que el único mérito reciente es haberle ganado 3-0 a la murga de Balbi! Balbi no te vayas nunca del bolso! Nos divertimos mucho contigo de presidente!
Continúa
+20 -4 16
23/09/2024 08:30:49
No, no, por favor Diego, que en diciembre la gente se concentre en el pedido a Papá Noel y no en pedirle a Babi que se quede, por favor!
Continúa
+7 -6 1
23/09/2024 08:03:48
El morocho define de una manea que no se si quiero que se vaya o no. Tal vez el problema era en otra zona del equipo y no él. No se.......
Continúa
+22 -1 21
futboluruguayo_ - 23/09/2024 07:49:00
Este comentario fue valorado negativamente por la comunidad de usuarios.
Si querés leerlo hacé clic aquí[+]
-13

  1 2  Siguiente »


DEBES INICIAR SESIÓN PARA ENVIAR COMENTARIOS
INGRESAR PARA COMENTAR