Los grandes rivales tecnológicos de Nvidia están trayendo sus propios chips de IA a la mesa

Los grandes rivales tecnológicos de Nvidia están trayendo sus propios chips de IA a la mesa
Los grandes rivales tecnológicos de Nvidia están trayendo sus propios chips de IA a la mesa

En septiembre, Amazon dijo que invertiría hasta 4 mil millones de dólares en Anthropic, una nueva empresa de San Francisco que trabaja en inteligencia artificial.

Poco después, un ejecutivo de Amazon envió un mensaje privado a un ejecutivo de otra empresa. Dijo que Anthropic ganó el trato porque acordó construir su inteligencia artificial utilizando chips de computadora especializados diseñados por Amazon.

Amazon, escribió, quería crear un competidor viable para el fabricante de chips Nvidia, un socio clave y creador de reyes en el importantísimo campo de la inteligencia artificial.

El auge de la IA generativa durante el último año ha puesto de relieve cuán dependientes se han vuelto las grandes empresas de tecnología de Nvidia. No pueden construir chatbots y otros sistemas de inteligencia artificial sin un tipo especial de chip que Nvidia ha dominado en los últimos años. Gastaron miles de millones de dólares en sistemas Nvidia y el fabricante de chips no pudo satisfacer la demanda.

Por eso, Amazon y otros gigantes de la industria (incluidos Google, Meta y Microsoft) están construyendo sus propios chips de inteligencia artificial. Con estos chips, los gigantes tecnológicos podrían controlar su propio destino. Podrían mantener bajos los costos, eliminar la escasez de chips y, en última instancia, vender el acceso a sus chips a empresas que utilizan sus servicios en la nube.

Mientras que Nvidia vendió 2,5 millones de chips el año pasado, Google gastó entre 2.000 y 3.000 millones de dólares en construir alrededor de un millón de sus propios chips de IA, dijo Pierre Ferragu, analista de New Street Research. Amazon estimó que gastó 200 millones de dólares en 100.000 chips el año pasado. Microsoft dijo que comenzó a probar su primer chip de inteligencia artificial.

Pero este trabajo es un acto de equilibrio entre competir con Nvidia y trabajar estrechamente con el fabricante de chips y su cada vez más poderoso director ejecutivo, Jensen Huang.

La empresa de Huang representa más del 70% de las ventas de chips de IA, según la firma de investigación Omdia. Proporciona un porcentaje aún mayor de sistemas utilizados para crear IA generativa. Las ventas de Nvidia aumentaron un 206% durante el año pasado y la compañía agregó alrededor de un billón de dólares en valor de mercado.

Lo que representa un ingreso para Nvidia es un costo para los gigantes tecnológicos. Los pedidos de Microsoft y Meta han representado alrededor de una cuarta parte de las ventas de Nvidia durante los dos últimos trimestres completos, dijo Gil Luria, analista del banco de inversión DA Davidson.

Nvidia vende sus chips por unos 15.000 dólares cada uno, mientras que Google gasta en promedio sólo entre 2.000 y 3.000 dólares por cada uno de ellos, según Ferragu.

“Cuando se encontraron con un vendedor que les retenía un barril, reaccionaron con mucha fuerza”, dijo Luria.

Las empresas cortejan constantemente al Sr. Huang, buscando ser las primeras en recibir sus chips. Aparece regularmente en los escenarios de eventos con sus directores ejecutivos y las empresas se apresuran a decir que siguen comprometidas con su asociación con Nvidia. Todos tienen previsto seguir ofreciendo sus fichas junto a las suyas.

Mientras las grandes empresas tecnológicas se están incorporando al negocio de Nvidia, Nvidia se está incorporando al suyo. El año pasado, Nvidia lanzó su propio servicio de nube donde las empresas pueden usar sus chips, y está canalizando los chips hacia una nueva ola de proveedores de nube, como CoreWeave, que compiten con los tres grandes: Amazon, Google y Microsoft.

“Las tensiones aquí son mil veces mayores que las habituales maniobras entre clientes y proveedores”, dijo Charles Fitzgerald, consultor e inversor en tecnología.

Nvidia se negó a hacer comentarios.

Según la firma de investigación Gartner, se espera que el mercado de chips de IA se duplique para 2027, alcanzando alrededor de 140 mil millones de dólares. Incluso venerables fabricantes de chips como AMD e Intel están construyendo chips de IA especializados, al igual que empresas emergentes como Cerebras y SambaNova. Pero Amazon y otros gigantes tecnológicos pueden hacer cosas que los competidores más pequeños no pueden.

“En teoría, si pueden alcanzar un volumen suficientemente alto y reducir los costos, estas empresas deberían poder ofrecer algo que sea incluso mejor que Nvidia”, dijo Naveen Rao, quien fundó una de las primeras empresas emergentes de chips de IA. ups y luego se lo vendió a Intel.

Nvidia construye lo que se llaman unidades de procesamiento de gráficos, o GPU, diseñadas originalmente para ayudar a renderizar imágenes para videojuegos. Pero hace diez años, investigadores académicos se dieron cuenta de que estos chips también eran muy eficaces en la construcción de sistemas, llamados redes neuronales, que ahora impulsan la inteligencia artificial generativa.

A medida que esta tecnología despegó, Huang rápidamente comenzó a modificar los chips de Nvidia y el software de inteligencia artificial relacionado, convirtiéndolos en el estándar de facto. La mayoría de los sistemas de software utilizados para entrenar tecnologías de inteligencia artificial se han adaptado para funcionar con chips Nvidia.

“Nvidia tiene excelentes chips y, lo que es más importante, tiene un ecosistema increíble”, dijo Dave Brown, que dirige el negocio de chips de Amazon. Eso hace que sea “muy, muy difícil” convencer a los clientes de que utilicen un nuevo tipo de chip de IA.

Reescribir el código de software para utilizar un nuevo chip es tan difícil y requiere tanto tiempo que muchas empresas ni siquiera lo intentan, dijo Mike Schroepfer, consultor y ex director de tecnología de Meta. “El problema con el desarrollo tecnológico es que gran parte de él muere incluso antes de comenzar”, dijo.

Rani Borkar, que supervisa la infraestructura de hardware de Microsoft, dijo que Microsoft y sus colegas necesitaban hacer que fuera “sin fisuras” para que los clientes se movieran entre chips de diferentes compañías.

Amazon, dijo Brown, está trabajando para que el cambio de un chip a otro sea “lo más fácil posible”.

Algunos gigantes tecnológicos han tenido éxito produciendo sus propios chips. Apple diseña silicio para iPhone y Mac, y Amazon ha implementado más de dos millones de chips de servidor tradicionales en sus centros de datos de computación en la nube. Pero resultados como estos requieren años de desarrollo de hardware y software.

Google tiene la mayor ventaja en el desarrollo de chips de IA. En 2017, presentó su unidad de procesamiento de tensores, o TPU, que lleva el nombre de un tipo de computación vital para construir inteligencia artificial. Google ha utilizado decenas de miles de TPU para crear productos de inteligencia artificial, incluido su chatbot en línea, Google Bard. Y otras empresas han utilizado el chip a través del servicio en la nube de Google para crear tecnologías similares, incluida la startup de alto perfil Cohere.

Amazon se encuentra ahora en la segunda generación de Trainium, su chip para construir sistemas de IA, y tiene un segundo chip fabricado específicamente para proporcionar modelos de IA a los clientes. En mayo, Meta anunció planes para trabajar en un chip de IA adaptado a sus necesidades, aunque aún no está en uso. En noviembre, Microsoft anunció su primer chip de IA, Maia, que inicialmente se centrará en ejecutar los productos de IA de Microsoft.

“Si Microsoft construye sus propios chips, construirá exactamente lo que necesita al menor costo posible”, dijo Luria.

Los rivales de Nvidia han utilizado sus inversiones en nuevas empresas de inteligencia artificial de alto perfil para impulsar el uso de sus chips. Microsoft ha comprometido 13 mil millones de dólares para OpenAI, el fabricante del chatbot ChatGPT, y su chip Maia ofrecerá tecnologías OpenAI a los clientes de Microsoft. Al igual que Amazon, Google también ha invertido miles de millones en Anthropic y también utiliza los chips de inteligencia artificial de Google.

Anthropic, que ha utilizado chips tanto de Nvidia como de Google, se encuentra entre un puñado de empresas que trabajan para construir inteligencia artificial utilizando tantos chips especializados como puedan conseguir. Amazon dijo que si empresas como Anthropic usaran los chips de Amazon a una escala cada vez mayor y también ayudaran a diseñar chips futuros, podrían reducir costos y mejorar el rendimiento de estos procesadores. Anthropic se negó a hacer comentarios.

Pero ninguna de estas empresas superará a Nvidia en el corto plazo. Puede que sus chips sean caros, pero se encuentran entre los más rápidos del mercado. Y la empresa seguirá mejorando su velocidad.

Rao dijo que su empresa, Databricks, entrenó algunos sistemas experimentales de inteligencia artificial utilizando los chips de inteligencia artificial de Amazon, pero construyó sus sistemas más grandes e importantes utilizando chips de Nvidia porque proporcionaban un mayor rendimiento y funcionaban bien con una gama más amplia de software.

“Tenemos muchos años de dura innovación por delante”, dijo Brown de Amazon. “Nvidia no se quedará quieta”.