Por Peter Judge, Editor ejecutivo de DatacenterDynamics


Lo he dicho antes, pero vale la pena repetirlo. Todos sabemos, en el fondo, que la ola actual de IA generativa es una burbuja de exageración, y algunos de nosotros tememos que sea peligrosa.

Si lo duda, considere ver a Sam Altman, superestrella empresarial, dando la noticia al Foro Económico Mundial en Davos, de que la tormenta de IA liderada por su vehículo OpenAI, va a exigir tanta energía que también necesitamos energía de su startup de fusión de fantasía Helion.

Davos es exactamente el foro adecuado para una declaración como esa. Una vez al año, los superricos se reúnen en una estación de esquí, a la que asisten líderes mundiales electos y no electos, y se examinan el ombligo. Enero es normalmente un desierto de noticias, por lo que el mundo recibe sus últimas ideas sobre cómo salvarlo por cualquier medio, lo que resulta ser la moda actual entre los súper ricos.

Microsoft dice que siga adelante

OpenAI ahora está financiado (seamos honestos, efectivamente es propiedad) de Microsoft, que está construyendo y financiando los vastos recursos de la nube que ChatGPT devora, y está listo para simplemente traer todo internamente si alguien se mueve.

Microsoft ahora vale 3 billones de dólares, y el CEO Satya Nadella recibió un trato de estrella en Davos, concedió una charla en el escenario con el fundador de Davos, Klaus Schwab, y un informe masivo de sus pensamientos sobre la tecnología; esencialmente, tenemos que seguir haciéndolo y al mismo tiempo establecer regulaciones para cualquier consecuencia no deseada.

Mientras decía eso, Altman ciertamente estaba molestando la agenda de "hacerlo", hablando de un crecimiento en IA tan grande que necesita fusión.

Es Microsoft quien ha dado credibilidad a Helion de Altman, al firmar un acuerdo de compra de energía para tomar 50 MW de energía de la empresa de fusión para 2028. Sí, cinco años para producir y entregar una tecnología que no funciona, en un sector donde lo permiten. No puede llevar menos de diez años.

Altman tiene razón sobre las demandas energéticas. Si aceptamos que “necesitamos” la IA generativa, entonces la IA generativa ciertamente necesita energía. Las demandas de los sitios actuales son ahora tan grandes que los centros de datos dedicados a ellos tienen que ubicarse lejos de los centros tradicionales, en lugares como Islandia, Noruega o en el Edge. Los lugares tradicionales ya se vieron inundados por un boom gigante.

Y sí, sé que el uso de electricidad en los centros de datos sigue siendo sólo uno o dos puntos porcentuales del consumo total de electricidad, pero estamos superando los límites de eficiencia, y el tipo de crecimiento que se predice ahora podría usar tanta energía como los Países Bajos en unos pocos años. Esa predicción, de Alex de Vries del Digiconomist, se basa simplemente en los planes de fabricación y ventas de Nvidia.

En ese contexto, y en el adulador foro de Davos, un proyecto de fusión de fantasía encaja perfectamente.

Es solo un poco más satírico que Del Complex, el provocativo proyecto artístico que proponía barcazas gigantes con IA que realizaban milagros de IA y jugueteaban con la inteligencia humana, donde a los súper ricos les encanta estar, fuera de las aguas territoriales. Estoy buscando en Google y, hasta donde puedo decir, Del Complex no estuvo realmente en Davos, pero estuvo allí en espíritu.

A la industria le gusta hablar de emisiones netas cero, del mismo modo que a los devotos de Davos les gusta hablar de acabar con los salarios excesivos y el elitismo. La realidad podría implicar algunos cambios reales.

Pero espera, ¿por qué?

Más allá de las preocupaciones obvias sobre la energía, existe una verdadera pregunta: ¿qué estamos haciendo con la IA y por qué?

Esta es una cuestión diferente de la legislación de la que habla Nadella, contra consecuencias como el hombre del saco de la inteligencia artificial general (AGI). Ese miedo, impulsado por personas como Elon Musk, es en realidad una parte paradójica del tren de la IA.

Los peligros reales son explorados sutilmente por el investigador de IA y profesor de diseño interdisciplinario de Cambridge Alan Blackwell en un libro que se publicará este año llamado Moral Codes.

Se suponía que las computadoras automatizarían el trabajo pesado, pero eso no ha sucedido. Actualmente, hay demasiados trabajos que son “trabajos basura” que realizan tareas sin sentido, mientras que la IA generativa está siendo preparada para realizar trabajos creativos, aunque lo que realmente hace la IA generativa lo ha resumido sucintamente el profesor de IA Rodney Brooks: "Simplemente inventa cosas que suenan bien."

La explosión de información está creando un exceso de datos, y el corolario de ello es un déficit de atención. Los humanos simplemente no tienen la capacidad cognitiva para comprender y evaluar todo el contenido y los datos que se producen, por lo que necesitamos máquinas que lo hagan por nosotros, que lean todo lo que no podemos y, de una manera enormemente poco confiable, nos cuenten al respecto.

"Hay dos maneras de ganar la prueba de Turing", afirma Blackwell. “El camino difícil es construir computadoras que sean cada vez más inteligentes, hasta que no podamos distinguirlas de los humanos. La manera más fácil es hacer que los humanos sean más estúpidos, hasta que no podamos distinguirlos de las computadoras”.

Todavía estoy absorbiendo los pensamientos del libro de Blackwell. Como mínimo, es un conjunto de señales para abordar las consecuencias morales de la IA.

Pero mientras ese trabajo moral no esté terminado, realmente tengo dudas sobre la urgente necesidad de seguir adelante a toda máquina con el tipo de proyectos gigantes de IA de los que oímos hablar con tanta frecuencia.

Antes del cómo, ¿podemos pensar en el por qué?