Elon Musk no quiere que Tesla sea solo un fabricante de automóviles. Quiere que Tesla sea una empresa de inteligencia artificial (IA), una que haya descubierto cómo hacer que los coches se conduzcan solos. Crucial para esa misión es Dojo, el superordenador personalizado de Tesla diseñado para entrenar sus redes neuronales de Conducción Autónoma Completa (FSD, por sus siglas en inglés). Aunque FSD no es realmente completamente autónomo, puede realizar algunas tareas de conducción automatizadas, pero aún requiere un humano atento al volante. Tesla cree que con más datos, más poder de cómputo y más entrenamiento, puede pasar de casi autónomo a completamente autónomo. Aquí es donde entra en juego Dojo.
Musk ha estado insinuando sobre Dojo durante algún tiempo, pero ha intensificado las discusiones sobre el superordenador a lo largo de 2024. La importancia de Dojo para Tesla podría ser existencial: con las ventas de vehículos eléctricos en declive, los inversores quieren garantías de que Tesla puede lograr la autonomía. A continuación, se presenta una cronología de menciones y promesas sobre Dojo.
**22 de abril** – En el Día de la Autonomía de Tesla, el equipo de IA de la automotriz subió al escenario para hablar sobre el Autopilot y la Conducción Autónoma Completa, y la IA que los impulsa. La compañía compartió información sobre los chips personalizados de Tesla, diseñados específicamente para redes neuronales y coches autónomos. Durante el evento, Musk insinuó sobre Dojo, revelando que es un superordenador para entrenar IA. También señaló que todos los coches Tesla producidos en ese momento tendrían todo el hardware necesario para la conducción autónoma completa y solo necesitarían una actualización de software.
**2 de febrero** – Musk dijo que Tesla pronto tendría más de un millón de vehículos conectados en todo el mundo con sensores y cómputo necesarios para la conducción autónoma completa, y destacó las capacidades de Dojo. “Dojo, nuestro superordenador de entrenamiento, podrá procesar vastas cantidades de datos de video de entrenamiento y ejecutar eficientemente matrices hiperdimensionales con un gran número de parámetros, mucha memoria y un ancho de banda ultra alto entre núcleos. Más sobre esto más adelante.”
**14 de agosto** – Musk reiteró el plan de Tesla para desarrollar un ordenador de entrenamiento de redes neuronales llamado Dojo “para procesar verdaderamente vastas cantidades de datos de video”, llamándolo “una bestia”. También dijo que la primera versión de Dojo estaría “a aproximadamente un año de distancia”, lo que situaría su fecha de lanzamiento alrededor de agosto de 2021.
**31 de diciembre** – Elon dijo que Dojo no es necesario, pero mejorará la conducción autónoma. “No es suficiente ser más seguro que los conductores humanos, el Autopilot necesita ser más de 10 veces más seguro que los conductores humanos.”
**19 de agosto** – La automotriz anunció oficialmente Dojo en el primer Día de la IA de Tesla, un evento destinado a atraer ingenieros al equipo de IA de Tesla. Tesla también presentó su chip D1, que la automotriz dice que usará junto con la GPU de Nvidia para impulsar el superordenador Dojo. Tesla señaló que su clúster de IA albergará 3,000 chips D1.
**12 de octubre** – Tesla lanzó un documento técnico sobre la Tecnología Dojo, “una guía sobre los formatos y la aritmética de punto flotante configurables de Tesla”. El documento técnico describe un estándar técnico para un nuevo tipo de aritmética de punto flotante binario que se utiliza en redes neuronales de aprendizaje profundo y que puede implementarse “totalmente en software, totalmente en hardware o en cualquier combinación de software y hardware.”
**12 de agosto** – Musk dijo que Tesla “implementará Dojo gradualmente. No necesitará comprar tantas GPU adicionales el próximo año.”
**30 de septiembre** – En el segundo Día de la IA de Tesla, la compañía reveló que había instalado el primer gabinete Dojo, probando 2.2 megavatios de carga. Tesla dijo que estaba construyendo una baldosa por día (compuesta por 25 chips D1). Tesla demostró Dojo en el escenario ejecutando un modelo de Difusión Estable para crear una imagen generada por IA de un “Cybertruck en Marte”. Importante, la compañía estableció una fecha objetivo para completar un clúster completo de Exapod para el primer trimestre de 2023 y dijo que planeaba construir un total de siete Exapods en Palo Alto.
**19 de abril** – Musk dijo a los inversores durante los resultados del primer trimestre de Tesla que Dojo “tiene el potencial de mejorar en un orden de magnitud el costo del entrenamiento” y también “tiene el potencial de convertirse en un servicio vendible que ofreceríamos a otras empresas de la misma manera que Amazon Web Services ofrece servicios web.” Musk también señaló que consideraría a Dojo como una “apuesta a largo plazo”, pero una “apuesta que vale la pena hacer.”
**21 de junio** – La cuenta de Tesla AI X publicó que las redes neuronales de la compañía ya están en vehículos de clientes. El hilo incluía un gráfico con una línea de tiempo del poder de cómputo actual y proyectado de Tesla, que situaba el inicio de la producción de Dojo en julio de 2023, aunque no está claro si esto se refiere a los chips D1 o al superordenador en sí. Musk dijo ese mismo día que Dojo ya estaba en línea y ejecutando tareas en los centros de datos de Tesla. La compañía también proyectó que el cómputo de Tesla estaría entre los cinco primeros del mundo para febrero de 2024 (no hay indicios de que esto haya tenido éxito) y que Tesla alcanzaría los 100 exaflops para octubre de 2024.
**19 de julio** – Tesla señaló en su informe de ganancias del segundo trimestre que había comenzado la producción de Dojo. Musk también dijo que Tesla planea gastar más de $1 mil millones en Dojo hasta 2024.
**6 de septiembre** – Musk publicó en X que Tesla está limitada por el cómputo de entrenamiento de IA, pero que Nvidia y Dojo solucionarán eso. Dijo que gestionar los datos de los aproximadamente 160 mil millones de fotogramas de video que Tesla obtiene de sus coches por día es extremadamente difícil.
**24 de enero** – Durante la llamada de ganancias del cuarto trimestre y del año completo de Tesla, Musk reconoció nuevamente que Dojo es un proyecto de alto riesgo y alta recompensa. También dijo que Tesla estaba persiguiendo “el camino dual de Nvidia y Dojo”, que “Dojo está funcionando” y está “haciendo trabajos de entrenamiento.” Señaló que Tesla lo está escalando y tiene “planes para Dojo 1.5, Dojo 2, Dojo 3 y demás.”
**26 de enero** – Tesla anunció planes para gastar $500 millones en construir un superordenador Dojo en Buffalo. Musk luego minimizó la inversión, publicando en X que aunque $500 millones es una gran suma, es “solo equivalente a un sistema H100 de 10k de Nvidia. Tesla gastará más que eso en hardware de Nvidia este año. Las apuestas para ser competitivo en IA son al menos varios miles de millones de dólares por año en este punto.”
**30 de abril** – En el Simposio de Tecnología de América del Norte de TSMC, la compañía dijo que la baldosa de entrenamiento de próxima generación de Dojo, el D2, que coloca toda la baldosa Dojo en una sola oblea de silicio en lugar de conectar 25 chips para hacer una baldosa, ya está en producción, según IEEE Spectrum.
**20 de mayo** – Musk señaló que la parte trasera de la extensión de la fábrica Giga Texas incluirá la construcción de “un clúster de superordenadores súper denso y refrigerado por agua.”
**4 de junio** – Un informe de CNBC reveló que Musk desvió miles de chips Nvidia reservados para Tesla a X y xAI. Después de decir inicialmente que el informe era falso, Musk publicó en X que Tesla no tenía un lugar para enviar los chips Nvidia para activarlos, debido a la construcción continua en la extensión sur de Giga Texas, “por lo que solo habrían estado en un almacén.” Señaló que la extensión albergará “50k H100s para el entrenamiento de FSD.” También publicó: “De los aproximadamente $10 mil millones en gastos relacionados con IA que dije que Tesla haría este año, aproximadamente la mitad es interna, principalmente el ordenador de inferencia de IA diseñado por Tesla y los sensores presentes en todos nuestros coches, además de Dojo. Para construir los superclústeres de entrenamiento de IA, el hardware de Nvidia es aproximadamente 2/3 del costo. Mi mejor estimación actual para las compras de Nvidia por parte de Tesla es de $3 mil millones a $4 mil millones este año.”
**1 de julio** – Musk reveló en X que los vehículos Tesla actuales pueden no tener el hardware adecuado para el modelo de IA de próxima generación de la compañía. Dijo que el aumento de aproximadamente 5 veces en el recuento de parámetros con la IA de próxima generación “es muy difícil de lograr sin actualizar el ordenador de inferencia del vehículo.”
**23 de julio** – Durante la llamada de ganancias del segundo trimestre de Tesla, Musk dijo que la demanda de hardware de Nvidia es “tan alta que a menudo es difícil obtener las GPU.” “Creo que esto requiere que pongamos mucho más esfuerzo en Dojo para asegurarnos de tener la capacidad de entrenamiento que necesitamos,” dijo Musk. “Y vemos un camino para ser competitivos con Nvidia con Dojo.” Un gráfico en la presentación para inversores de Tesla predice que la capacidad de entrenamiento de IA de Tesla aumentará a aproximadamente 90,000 GPU equivalentes a H100 para finales de 2024, frente a alrededor de 40,000 en junio. Más tarde ese día en X, Musk publicó que Dojo 1 tendrá “aproximadamente 8k H100-equivalente de entrenamiento en línea para fin de año.” También publicó fotos del superordenador, que parece usar el mismo exterior de acero inoxidable similar a un refrigerador que los Cybertrucks de Tesla.
**30 de julio** – Musk dijo en X que AI5 está a aproximadamente 18 meses de la producción en volumen, en respuesta a una publicación de alguien que afirmaba iniciar un club de “propietarios de Tesla HW4/AI4 enojados por quedarse atrás cuando salga AI5.”
**3 de agosto** – Musk publicó en X que hizo un recorrido por “el clúster de supercomputadoras de Tesla en Giga Texas (también conocido como Cortex).” Señaló que estaría compuesto por aproximadamente 100,000 GPU Nvidia H100/H200 con “almacenamiento masivo para el entrenamiento de video de FSD y Optimus.”