
CPU vs GPU: la clave para entender el imperio de Nvidia
Para entender por qué Nvidia es hoy la empresa más valiosa del mundo, primero hay que comprender una diferencia clave: CPU vs GPU...
13 de Agosto de 2025
Este contraste explica cómo funciona tu computadora y cómo se entrenan las inteligencias artificiales más avanzadas.
El CPU (Central Processing Unit). Es el procesador central de la computadora. Ejecuta instrucciones generales del sistema y coordina todas las tareas. Por cierto, antes del 2000 le decíamos CPU al gabinete, pero esa es otra historia.
El CPU es ideal para:
- Ejecutar sistemas operativos, por ejemplo: Windows 11.
- Ejecutar tareas secuenciales de alta complejidad lógica.
- Reducir la latencia con mucha memoria Cache.
El GPU (Graphics Processing Unit). Es un procesador especializado en realizar cálculos masivos en paralelo, originalmente diseñado para procesar gráficos y ahora muy usado en IA y cómputo intensivo. Ya ves papá, los videojuegos sirvieron de algo, bueno no, pero si.
El GPU es ideal para:
- Procesamiento masivo en paralelo
- Manejo de grandes volúmenes de datos simultáneamente
- Procesamiento de imágenes y video
- Entrenamiento de modelos de IA
- Minería de criptomonedas
En resumen, el CPU es como un chef principal: planifica y coordina cada plato, pero no puede cocinar todos a la vez.
El GPU es como un equipo de 100 ayudantes cortando verduras simultáneamente: no planifica, pero ejecutan tareas repetitivas a gran velocidad.
El entrenamiento de modelos como GPT requiere cálculos masivos y en paralelo para ajustar miles de millones de parámetros. Por lo tanto, se usan GPUs de alta gama (por ejemplo, Nvidia A100, H100), para entrenar redes neuronales profundas.
OpenAI ha entrenado modelos con miles de GPUs trabajando en clústeres durante semanas o meses. ChatGPT (OpenAI) usa clústeres de GPUs Nvidia A100/H100 en la nube de Microsoft Azure.
Nvidia se ha convertido en la empresa más valiosa en la bolsa principalmente porque es el proveedor dominante de GPUs especializadas en Inteligencia Artificial. La IA generativa y los LLMs dependen masivamente de este tipo de hardware para entrenarse y operar.
Grandes empresas como OpenAI, Google DeepMind, Anthropic, Meta y Microsoft compran miles de GPUs Nvidia para entrenar modelos. Un solo clúster de entrenamiento para un modelo de IA puede requerir decenas de miles de GPUs, generando contratos multimillonarios.
Nvidia pasó de facturar $27B USD (2022) a más de $60B USD proyectados para 2024-2025, con margen bruto mayor al 70%.
Actualmente los GPU's de Nvidia controlan entre el 80% y 90% del mercado de los centros de datos e IA. Como referencia, el liderazgo IBM en maninframes, en 1960-1970 fel de 60-70% de cuota de mercado.
Referencias:
- Business Insider. (s.f.). A guide to Nvidia’s competitors: AMD, Qualcomm, Broadcom, startups, and more are vying to compete in the AI chip market. https://www.businessinsider.com/nvidia-competitors
- TIME. (2024, 10 de diciembre). Lisa Su — 2024 CEO of the Year. https://time.com/7200909/ceo-of-the-year-2024-lisa-su
- Plunkett, J. (s.f.). How ‘inference’ is driving competition to Nvidia’s AI chip dominance. Financial Times. https://www.ft.com/content/d5c638ad-8d34-4884-a08c-a551588a9a28
- Business Insider. (s.f.). Nvidia: A complete guide to the hardware company behind the AI boom. https://www.businessinsider.com/nvidia
- The Wall Street Journal. (s.f.). Nvidia becomes first company to hit $4 trillion market cap. https://www.wsj.com/tech/ai/nvidia-nvda-4-trillion-market-cap-466c1c9c