Een nieuwe supercomputerchip heeft te maken met AMD en Nvidia
Met zijn nieuw ontwikkelde D1-computerchip wil Tesla het beter doen dan serverproducten van AMD en Nvidia. De op D1 gebaseerde supercomputer zou qua efficiëntie en ruimteverbruik beter moeten presteren in vergelijking met de Nvidia-versnellers die Tesla eerder gebruikte.
Het Amerikaanse bedrijf Tesla ontwikkelt niet alleen elektrische auto’s, batterijopslagsystemen en fotovoltaïsche systemen, maar ook computerchips. In een recente presentatie over kunstmatige intelligentie introduceerde het bedrijf “Project Dojo”, waarin Tesla Nvidia-technologie gebruikt die eerder werd gebruikt om AI te trainen.Grafische kaarten wil vervangen.
Tesla met D1-chips en trainingstegels
Het hart van het Dojo-project is een computerchip genaamd D1, vervaardigd met behulp van een 7nm-proces en geschikt voor 50 miljard transistors over een oppervlakte van 645 mm². De chip is verdeeld in 354 zogenaamde trainingsknooppunten, en elk heeft een quad-coreprocessor omvat. Dit zou vooral handig zijn voor matrixvermenigvuldiging (8×8) en berekeningen in de formaten FP32, BFP16, CFP8, INT32, INT16 en INT8. Dit betekent dat de D1 niet concurreert met klassieke CPU’s, maar eerder met computerversnellers zoals Nvidia’s A100 of AMD’s Instinct MI100.
Wat: Tesla
Over het algemeen zou D1 een rekenkracht van 362 TFLOPS moeten halen voor berekeningen met FP16/CFP8-gegevens, terwijl 22,6 TFLOPS wordt genoemd voor FP32-gegevens. Beide waardes zijn hoger dan de specificaties van concurrerende producten van AMD en Nvidia, maar dat geldt ook voor het TDP van de chip. Dit is met 400 watt beduidend hoger op de Tesla D1 dan in de concurrentie, die concurreert met 300 watt (AMD) of 250 watt (Nvidia).
chip | AMD Instinct MI 100 | Nvidia A100 | Tesla D1 |
---|---|---|---|
FP64 | 11.5 TFLOPS | 9.7 TFLOPS | – |
FP32 | 23.1 TFLOPS | 19.5 TFLOPS | 22.6 TFLOPS |
FP16 | 184.6 TFLOPS | 312 TFLOPS | 362 TFLOPS |
transistoren | 50 miljard | 54 miljard | 50 miljard |
Chipgebied | 750 mm² | 826 mm² | 645 mm² |
Produceren | 7 nm TSMC | 7 nm TSMC | 7 nm |
TDP | 300 watt | 250 watt | 400 watt |
Ook sexy: AMD Instinct MI200: afbeelding toont dual-die GPU voor HPC’s
De D1-chip wordt door Tesla gebruikt in zogenaamde trainingstegels die 25 D1-chips combineren. Deze trainingstegels moeten een gecombineerd rekenvermogen hebben van 9 PFLOPS met een verbruik van 10 kW. In de toekomst wil Tesla in totaal 120 trainingsstukken integreren in een supercomputer die rekenkracht van 1.1 ExaFLOPS levert.
Wat: Tesla
Wat: Tesla
Volgens Tesla wordt deze supercomputer vijf keer kleiner en tegelijkertijd 30 procent efficiënter dan de huidige concurrentie van Nvidia. Wel moet worden opgemerkt dat Tesla de D1 mogelijk specifiek voor zijn eigen toepassingsgebied heeft ontworpen, terwijl producten van Nvidia en AMD voor meerdere toepassingsgebieden tegelijk geschikt zijn, wat een minpunt is tijdens de ontwikkeling.
Deze: ga computer basis / Videokaarten
[PLUS] Breedbeeld 21:9-formaat – Is de CPU beperkt? praktijktest
Links gemarkeerd met * zijn affiliate links. Affiliate links zijn geen advertenties omdat we onafhankelijk zijn in het onderzoek en de selectie van de aangeboden producten. We ontvangen een kleine commissie op productverkoop, die we gebruiken om de gratis inhoud van de site gedeeltelijk te financieren.