top of page

El mapa completo del boom de IA y sus jugadores clave

  • Foto del escritor: Miguel Braun
    Miguel Braun
  • hace 1 día
  • 6 Min. de lectura

Estimados,


Este informe resume el ecosistema clave en la industria de semiconductores, incorporando insights recientes de entrevistas con líderes como Elon Musk (CEO de Tesla, SpaceX y xAI) y Jensen Huang (CEO de NVIDIA). Me enfocaré en los desafíos que hay en memorias, chips y generación de energía, conectando estos puntos para destacar oportunidades de inversión. Además, explicaremos quien es quien y que hace cada una de las empresas involucradas en esto.


1. Ecosistema de Semiconductores: Una Cadena Interconectada


La producción de chips avanzados para IA y computación de alto rendimiento depende de un ecosistema global altamente especializado:


ASML: Líder en máquinas de litografía EUV (ultravioleta extrema), esenciales para fabricar chips en escalas nanométricas (e.g., 3nm o menos). ASML domina el mercado con aproximadamente 90-94% del mercado global de equipos de litografía (incluyendo ~100% en EUV para nodos avanzados), lo que significa que más del 90% de los chips avanzados mundiales (especialmente leading-edge) se fabrican utilizando sus máquinas. Sin sus máquinas, la producción de semiconductores de vanguardia sería imposible.


TSMC: La principal fundición o foundry (fabricante por contrato) que utiliza las máquinas de ASML para producir chips lógicos. Como empresa "pure-play foundry", TSMC fabrica para clientes como NVIDIA, Apple y AMD, sin competir en diseño. Su posición en Taiwán añade riesgos geopolíticos, pero su eficiencia la hace indispensable, capturando alrededor del 70-72% del mercado global de foundries (pure-play), lo que equivale a una porción dominante de los chips avanzados producidos mundialmente.


NVIDIA: Especializada en diseño de chips, particularmente GPUs para IA, gaming y data centers. NVIDIA no fabrica; subcontrata a TSMC. Su software (e.g., CUDA) y arquitecturas como Hopper/Blackwell impulsan el boom de IA, con ingresos récord impulsados por la demanda de hyperscalers (e.g., AWS, Microsoft), que le compran muchos de los chips que utilizan a NVDA.


Fabricantes de Memorias (Micron, SK Hynix, Samsung): Estos proveen memorias DRAM y NAND, cruciales para el almacenamiento y procesamiento rápido en chips. En IA, destacan las memorias de alto ancho de banda (HBM), que permiten manejar grandes volúmenes de datos. Samsung también opera una fundición limitada, pero el trío domina ~90% del mercado de memorias, con escaseces recurrentes afectando precios y suministro.


Hyperscalers (AWS/Amazon, Google Cloud/Alphabet, Microsoft Azure, Meta): Operadores de los data centers masivos que consumen la mayor parte de GPUs y memorias para entrenamiento e inferencia de IA. Son los principales clientes finales de NVIDIA, TSMC y los fabricantes de memorias, y determinan gran parte de la demanda explosiva actual.


AWS (parte de Amazon) y Google Cloud (parte de Alphabet) son los principales hyperscalers que consumen grandes volúmenes de infraestructura AI, contribuyendo significativamente al crecimiento del sector.  Ejemplos de clientes: AWS incluye Netflix (cliente histórico #1), OpenAI, Anthropic, Salesforce, Visa, BlackRock y grandes como Apple y Meta.


Google Cloud destaca con Meta (deal >$10B), Spotify, Target, Samsung, L'Oréal, Uber y muchos AI labs/unicorns.  Crecimiento reciente: En Q4 2025, AWS creció 24% YoY (revenues ~$35.6B, run rate anual ~$142B). Google Cloud mostró un crecimiento explosivo de 48% YoY (revenues ~$17.7B, run rate >$70B), impulsado por demanda de AI infrastructure y enterprise solutions.


Uso principal de los chips avanzados:


Los chips lógicos (GPUs de NVIDIA, procesadores de AMD, etc.) y las memorias asociadas (HBM, DRAM, NAND) se utilizan principalmente para:


-   Entrenamiento e inferencia de modelos de IA (LLMs, visión por computadora, agentes autónomos). 

-   Data centers y cloud computing (AWS, Google Cloud, Azure, Meta). 

-   Supercomputación y simulaciones científicas. 

-  Gaming y gráficos de alta performance. 

-  Automóviles autónomos, robótica y edge AI.


Hoy en día, más del 70-80% del crecimiento de demanda proviene de aplicaciones de inteligencia artificial generativa y data centers, lo que explica la presión extrema sobre toda la cadena de suministro.


Este ecosistema enfrenta presiones crecientes por la expansión de IA, donde la demanda de cómputo y memoria supera la oferta, generando volatilidad en precios y oportunidades para inversores en compañías con exposición a estas cadenas.


2. Insights de Elon Musk: Memorias como el Mayor Desafío y Escasez en Turbinas de Gas


En una entrevista reciente con Dwarkesh Patel (podcaster) y John Collison (cofundador de Stripe), Elon Musk enfatizó cuellos de botella críticos en la escalabilidad de IA. Musk argumentó que las memorias son más difíciles de escalar que los chips lógicos, afirmando que "la escasez de memorias me preocupa más que la de chips lógicos" en los próximos 3-4 años.


Esto se debe a la complejidad en fabricar memorias de alta densidad (e.g., HBM para GPUs de IA), que requieren procesos precisos y materiales avanzados. A diferencia de los chips lógicos, donde TSMC y similares pueden aumentar la producción, las memorias enfrentan limitaciones en capacidad de fabs y materias primas, exacerbando precios y delays. Musk predice que esto limitará el despliegue de clústers de IA masivos. 


Adicionalmente, Musk destacó la escasez en turbinas de gas para data centers, impulsada por la demanda de energía para AI training (e.g., un clúster de 330,000 GPUs NVIDIA requiere ~1 GW de potencia). Los fabricantes clave—GE Vernova, Siemens Energy y Mitsubishi Power—controlan >75% del mercado global, pero están backlogged hasta 2030. El factor limitante son las "vanes and blades" (paletas y aspas) en las turbinas, un proceso de fundición especializado manejado por solo tres compañías mundiales (e.g., Precision Castparts, CPP, Doncasters). Esto crea colas de 12-18 meses, forzando a innovaciones como data centers en el espacio (Musk predice que el espacio será el lugar más económico para AI en <36 meses, usando energía solar ilimitada via Starship).


3. Resumen de la Entrevista de Jensen Huang: Enfoque en Cómputo y Contexto en IA


En su entrevista (disponible en YouTube: https://youtu.be/P9dX_ek_6yY), Huang describe la IA en un "punto de inflexión", pasando de curiosidades a herramientas prácticas que razonan, investigan y usan tools (e.g., Excel). Destaca la rentabilidad emergente: compañías como Anthropic y OpenAI generan ingresos sustanciales, con potencial para cuadruplicarse si se duplica el cómputo. Huang enfatiza el "contexto" en IA—software "contextually aware" que considera usuario, historia y datos en tiempo real, generando outputs únicos cada vez. Esto implica un rol creciente para la memoria, ya que manejar contextos expansivos (e.g., historiales largos, documentos) requiere memoria de alto rendimiento para evitar bottlenecks en procesamiento. 


Huang ve la demanda de GPUs "sky high", con hyperscalers como AWS y Azure limitados por cómputo, no por rentabilidad. Predice un build-out de infraestructura de 7-8 años, seguido de refreshes, comparándolo a inversiones pasadas como AWS (ahora $140B en revenues). No menciona memoria explícitamente como bottleneck, pero el énfasis en escala y contexto sugiere que es implícito, alineado con la evolución de AI hacia modelos "agenticos".


4. Conexiones entre Musk y Huang: Bottlenecks Comunes en IA y Energía


Ambos CEOs coinciden en que la IA enfrenta límites físicos: Huang en cómputo y contexto (que demanda más memoria y GPUs), Musk en memorias y energía. El "contexto de memoria" al que se refiere Huang en la entrevista —manejar datos masivos para razonamiento—exacerba la escasez de memorias que Musk prioriza sobre chips lógicos. Además, la demanda de data centers (impulsada por NVIDIA's tech) choca con la escasez de turbinas de gas, como Musk detalla. Esto crea un ciclo: más IA requiere más chips/memorias (TSMC, Micron et al.), que necesitan más energía (GE Vernova et al.), potencialmente llevando a innovaciones como orbital computing.


5. Ratios de Valuación



Análisis de Ratios Más Atractivos y Oportunidades de Crecimiento:


Basado en criterios estándar (bajo P/E y P/B indican valor atractivo, alto ROE refleja eficiencia y potencial de crecimiento), SK Hynix presenta los ratios más atractivos. Su forward P/E de 5.38 es excepcionalmente bajo, sugiriendo que el mercado subestima su crecimiento futuro, mientras que su ROE del 49.39% indica fuerte rentabilidad sobre el equity. Esto se alinea con el informe: Musk enfatiza la escasez de memorias como bottleneck mayor en IA, beneficiando a líderes como SK Hynix en HBM. Samsung que es el otro gran productor de memorias y chips también tiene ratios de valuación sumamente atractivos.


¿Cuál es el problema? Ninguna de estas dos acciones cotiza en Estados Unidos ni tienen cedear, lo cual limita nuestras posibilidades de inversión ya que las empresas cotizan en Corea del Sur. Lo mismo sucede con Mitsubishi, que cotiza en Japón y tampoco tiene ADR.


Amazon y Alphabet muestran valuaciones razonables (P/E TTM ~29-30, forward ~25-29), con ROE sólidos y exposición directa a data centers AI, lo que los posiciona bien en el ciclo de crecimiento. TSMC y ASML también se destacan por su posición casi monopólica sobre la producción de máquinas para hacer chips y chips a nivel mundial.


El S&P 500 cotiza con P/E TTM ~29.5 y forward ~22-23, por lo que muchas de estas compañías (especialmente memorias) aparecen con valuaciones más atractivas relativas al índice.


Si tuviera que elegir por ratios de valuación y fundamentos:


  • Micron – por ser el único productor de memoria norteamericano y estar a precios atractivos.

  • Taiwan Semi Conductors – por su posición dominante en la fabricación de chips y ratios atractivos teniendo en cuenta esto.

  • NVDA – porque son los que diseñan los mejores chips para AI. Como dice el CEO: "Demand for GPUs is skyrocketing" y "We are practically everywhere".

  • Google / Amazon a gusto del consumidor – por ser los dueños de los data centers y los servidores donde corre el negocio de muchísimas empresas.


Eso es todo por hoy, espero que el informe les haya resultado útil!

 
 
 

Comentarios


  • Twitter
  • LinkedIn

©2021 por Fox Capital. Creada con Wix.com

bottom of page