Der 40.000-Euro-PC im Alltagstest

c't 3003 hat einen Dell Precision 7875 mit Threadripper Pro 7995 WX und zwei Nvidia RTX 6000 ADA in die Hände bekommen. Und Minecraft installiert.

In Pocket speichern vorlesen Druckansicht 133 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Google Ireland Limited) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 17 Min.
Von
  • Jan-Keno Janssen
Inhaltsverzeichnis

Luxusprobleme: Was soll man nur mit den ganzen Kernen und dem riesigen Videospeicher machen? c't 3003 hat die knapp 40.000 Euro teure Workstation Dell Precision 7875 im Alltag getestet.

Hinweis: Den c't-Test der Workstation gibt's hier.

Guckt mal hier, ich benutze einen 40.000-Euro-PC als Föhn. Ja, nee, im Ernst, dieser Rechner, der aussieht wie ein Mittelklasse-Büro-PC aus dem Elektromarkt, ist in Wahrheit die Workstation Dell "Neu" Precision 7875 und geht so ziemlich ans Maximum, was zurzeit technisch machbar ist.

96-Kern-AMD-Threadripper-CPU, ja wirklich, 96 Kerne, nicht Threads, und zwei Nvidia-RTX-6000-ADA--Profi-Grafikkarten mit zusammen 96 GB Grafikspeicher. Das Teil zieht bei voller Auslastung über 1100 Watt aus der Steckdose.

In diesem Video probieren wir mal aus, wie sich so ein Ding bei der täglichen Arbeit anfühlt, womit man CPU und Grafikkarten wirklich auslasten kann und vor allem: Wie man so eine Höllenmaschine in die Knie zwingen kann. Ich hatte euch das ja im Community-Bereich auf YouTube gefragt und einiges von dem auch ausprobiert, was ihr da vorgeschlagen habt. Und obendrein hat Pascal noch Minecraft installiert. Bleibt dran.

Ah ja, ganz wichtig, ich wollte euch nochmal kurz an unseren tollen E-Mail-Newsletter erinnern. Da kriegt ihr Infos, was hinter den c't-3003-Kulissen so läuft, was die heißesten Heiß-Hypes sind und die Themen der nächsten Videos. Und ihr könnt auch was gewinnen, wenn ihr euch da anmeldet. Wir verlosen nämlich ein Raspi-5-Komplettpaket. Link zum Newsletter ist da unten in der Beschreibung. Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei...

Ja, also ich muss zugeben, als mir meine Kollegen aus dem Hardware-Ressort gesagt haben, hey, guck mal, eine 40.000-Euro-Workstation, da habe ich erst gedacht, die wollen mich irgendwie verulken, weil das Ding sieht halt nicht sonderlich edel oder leistungsstark aus.

Zum ersten Mal gemerkt, dass da was anders ist als bei normalen Rechnern, habe ich, als ich das Ding auf meinen Schreibtisch tragen wollte, ich habe den dann mal auf die Waage gestellt. Ja, über 20 Kilo ist das Ding schwer. Und was auch noch anders ist, ist dieser Netzanschluss hier. Das ist so ein fettes 16-Ampere-Teil. Ja gut, und das Netzteil schafft halt auch 1350 Watt.

So, aber jetzt erst mal anschalten und herausfinden, an welchen Display-Port-Anschluss man den Monitor anschließen kann. Es gibt nämlich acht. Und die beiden Grafikkarten können tatsächlich insgesamt acht 4K-Bildschirme gleichzeitig versorgen. Zwei RTX 6000 ADA sind da drin. Ganz grob gesagt ist das die Profiversion der RTX 4090 mit halt doppelt so viel Speicher, nämlich 48 Gigabyte pro Stück. Und das halt mal zwei, also insgesamt 96 Gigabyte Grafikspeicher. Eine dieser Grafikkarten kostet übrigens 8.500 Euro. Als CPU ist da ein AMD Threadripper Pro 7995 WX mit 384 Megabyte Cache und 96 Kernen drin. Die CPU kostet zurzeit einzeln 10.600 Euro.

Ja, und das Erste, was mir aufgefallen ist: Das Booten dauert ewig, fast eine Minute bis zum Desktop. Mein normaler Windows-PC, der kommt hier übrigens öfter mal als Referenz vor, mehr zu meinem PC seht ihr hier in diesem Video. Jedenfalls, der bootet auf jeden Fall deutlich schneller. Die Dell Workstation macht nämlich noch so einen Pre-Boot-Check vor dem Booten.

Ja, und Windows 11 ist bei unserem Testgerät vorinstalliert gewesen. Man kriegt das Teil aber auch mit Ubuntu oder Red Hat Linux. Die Grundversion der Dell Neu Precision 7875 Tower Workstation -- ja, das ist der Name -- kostet nur 4.100 Euro. Wenn man auf der Konfigurationsseite immer das Teuerste anklickt, dann kann man übrigens auch sogar auf 115.610 Euro und 34 Cent kommen. Das ist dann die gleiche CPU- und GPU-Konfiguration wie bei uns, aber halt mit zwei Terabyte Arbeitsspeicher statt mit nur 128 Gigabyte wie bei unserer 40.000-Euro-Variante.

Ja, "normal"! Also nicht 40.000 Euro-schnell. Also zumindest ich habe keine höhere Schwubbdizität als auf einem Mittelklasse-PC festgesteltl. Jetzt sagt ihr natürlich, na klar, das merkt man erst bei speziellen Anwendungen. Ja, aber ich hatte schon gedacht, dass zum Beispiel Programme spürbar schneller starten. Schließlich sind da zwei sehr schnelle M.2-SSDs im RAID-0-Modus eingebaut. Das heißt, die Daten werden gleichzeitig auf beide SSDs bzw. von beiden gleichzeitig gelesen, weshalb sich Schreib- und Lesegeschwindigkeit theoretisch verdoppeln. Ja, und wir haben auch tatsächlich einen Durchsatz von bis zu 12 Gigabyte pro Sekunde gemessen, was wirklich sehr, sehr schnell ist. Außerdem ist der RAM mit acht Kanälen angebunden, also da sind acht Speicherriegel drin. Und da haben wir 272 Gigabyte pro Sekunde Durchsatz gemessen, was auch viel mehr ist als bei konventionellen Rechnern. Aber nein, die Ladezeiten fühlen sich nicht schneller an. Wir konnten da auch nichts wirklich Relevantes messen.

Ja, und auch wenn man so normales Bürozeugs macht und ein bisschen im Internet rumscrollt. Würde mich jemand fragen, ob der PC, an dem ich hier sitze, irgendwie besonders ist, würde ich sagen, nee.

Das zeigen auch solche Real-Life-Benchmarks wie der aktuelle Browser-Benchmark Speedometer 3. Also das Ding ist eigentlich dafür da, Browser-Engines vergleichbar zu testen, aber da der Benchmark so Standard-Website-Zeugs wie JavaScript misst, kann das Ergebnis Rückschlüsse liefern, wie schnell sich Browsen tatsächlich anfühlt. Ja, und da haben wir auf der Dell Workstation den Wert 22,5 gemessen. Mein 10-mal günstigerer Rechner mit 16-Kern-CPU erreicht mehr, nämlich 25,8. Und ein aktuelles MacBook Pro erreicht sogar 27,9. Natürlich haben wir überall den gleichen Browser verwendet, nämlich Chrome in der aktuellen Version. Naja, aber der Benchmark sagt natürlich nicht wahnsinnig viel aus. Man sieht aber auf jeden Fall schon beim Blick in den Task-Manager, was da so das Problem ist. Der Benchmark lastet nämlich immer nur einen der 96 Threadripper-Kerne aus. Da ist klar, dass das Teil nicht wahnsinnig gut performt.

Okay, das ist natürlich ein Extrembeispiel, aber das Grundproblem, dass Software nicht alle Kerne ausmacht, das hat mich schon die ganze Zeit begleitet. Beziehungsweise, dass die vielen Kerne sogar zu Problemen führen. Zum Beispiel bei dem Standard-Benchmark 3DMark Time Spy. Da haben wir im Standardmodus mit den beiden Grafikkarten im SLI-Modus nur ungefähr 9800 Punkte gemessen. Das ist weniger als bei so einem 1000-Euro-Gaming-PC. Erst als wir manuell die 96 CPU-Kerne auf 16 begrenzt hatten, bekamen wir ordentliche 3DMark-Time-Spy-Werte, nämlich die dreifache Punktzahl.

Oder auch beim Retro-Gaming-Emulator-Linux-Batocera. Einige Emulatoren liefen da einfach nicht so richtig und ich habe zumindest den Verdacht, dass das auch an den vielen CPU-Kernen liegen könnte. Hier, guckt mal, das Standard-Batocera-Auslastungs-Overlay hier, das kann man gar nicht ablesen, weil das zu viele Kerne sind, um auf den Bildschirm zu passen. Was wir aber auf jeden Fall sagen können, ja, Doom läuft da drauf.
Mit 260 Watt Leistungsaufnahme. Auf dem ruhenden Windows-Desktop waren es übrigens fast 200 Watt, erst als wir alle Netzwerk-Karten und WLAN stillgelegt hatten, kamen wir auf 118 Watt. Das ist aber natürlich immer noch extrem viel.

Sowieso hat mir das Leistungsmessgerät immer sehr gut dabei geholfen, sofort zu sehen, ob ich die Workstation gerade gut auslaste, weil das war ja schließlich mein Plan. Wenn mir nur 600 Watt angezeigt wurden, dann wusste ich, läuft nur auf drei Pötte, die Karre.

Das erste Mal die vollen 1100 Watt habe ich nur mit dem berühmten Belastungs-Benchmark Furmark hinbekommen, und zwar mit zwei Furmarks. Einen manuell auf Grafikkarte 1 gemappt, den zweiten auf Grafikkarte 2. Und die CPU wurde mit gleich drei dieser CPU-Burner-Instanzen ausgelastet. Wenn man hier über 64 Kerne einstellt, dann läuft das Ding nicht mehr. Also jetzt über 1100 Watt. Das wird dann auch laut. In der c't-Schallmesskammer haben wir über neun Sone gemessen. Das ist wirklich so viel wie ein Staubsauger.

Und ich kann mich an keinem Gerät in der letzten Zeit erinnern, das so laut wurde. Hinten kommt dann auch ernsthaft heiße Luft raus. Ich habe da mal einen Thermometer dran gehalten, so ganz grob in den Luftstrom. Und ja, über 70 Grad. Also a) sollte man nicht im Luftstrom sitzen. Das tut nämlich weh. Und b) kann man damit problemlos den Raum heizen. Im Leerlauf haben wir übrigens eine Lautheit von nur 0,9 Zone gemessen. Das ist durchaus okay.

So, aber wie laste ich das Ding denn nun wirklich mit echten Programmen aus? Ich hatte euch das ja auf YouTube im Community-Bereich gefragt und zum Beispiel habt ihr mehrfach Crypto-Mining genannt. Und ja, das habe ich ausprobiert. Und ja, damit kann man das System schon einigermaßen auslasten. Aber es lohnt sich kein bisschen. Also fernab von den 40.000 Euro Anschaffungskosten. Bei einem angenommenen Strompreis von 29 Cent pro Kilowattstunde kommt man auf ungefähr 7 Euro Stromkosten pro 24 Stunden bei voller Auslastung. Laut meinem Tool hier kann man aber zurzeit nicht mal 4 Euro Kryptoertrag erwarten.

Übrigens, ganz generell passt auf mit solchen Krypto-Minern. Auch wenn es in der Krypto-Szene natürlich seriöse Leute gibt, trotzdem wimmelt es nur so von Scams. Deshalb wirklich nur Miner installieren, wenn ihr genau wisst, was ihr tut und allen Anbietern vertraut.

Eine andere Sache, die ihr vorgeschlagen hattet, waren große Sprachmodelle. Also sowas wie ChatGPT in lokal laufend. Ja, und das ist tatsächlich was, was in einigen Fällen nur mit solchen Spezial-Grafikkarten läuft. Hier in LM Studio zum Beispiel. Das Sprachmodell Mixtral 8x7B in der Version mit 8-Bit-Quantisierung kann man auf den GPUs laufen lassen. Das geht mit einer normalen 4090 nicht, weil die mit 24 GB zu wenig Speicher hat. Aber dafür dreht dann die teure CPU hier Däumchen. Also die komplette Workstation lasse ich damit auch nicht aus.

Und auch mit dem Open-Source-Bildgenerierer Stable Diffusion komme ich da nicht weiter. Der unterstützt nämlich nur eine GPU. Egal, ob die beiden GPUs im SLI- oder im Einzelmodus laufen. Beim Bildberechnen mit dem SDXL-Modell, 50 Sampling-Steps und einer Auflösung von 1024x1024 braucht die Workstation ca. 7 Sekunden für ein Bild. Mein Rechner mit einer einzigen 4090 ist fast genauso schnell.

Also auch mit KI-Bildgenerierung kriege ich die Dell Workstation nicht ausgelastet. Deshalb kommen jetzt die ganz harten Bandagen. Pascal installiert Minecraft mit Mods:

[Pascal:] Also ich habe mir drei Stufen überlegt, um den PC mit Minecraft in die Knie zu bringen. Leider ist es auch hier so, dass Minecraft nur eine Grafikkarte ansteuern kann. Auch der SLI-Modus hilft da nicht. So, zuerst die Vanilla-Version in 4K-Auflösung mit allen Grafikeinstellungen auf Maximum bzw. auf An. Dann das Wetter einmal auf Clear und einmal auf Rain. Im Clear-Wetter sind wir direkt auf 450 Watt Leistungsaufnahme gekommen. Und die GPU genehmigt sich lediglich 4 GB. Vom Arbeitsspeicher wurden 2 GB verwendet. In beiden Wettervarianten sind die Werte sehr ähnlich. Es lief auch superflüssig mit stabilen 60 FPS. Und das ist schon mal ganz gut. Und das ist schon mal ganz gut.

Schwierigkeitsstufe 2 ist die Modifikation Optifine mit Resource Packs. Damit lassen sich einzelne Grafikeinstellungen noch so ein bisschen genauer definieren. Zum Beispiel kann ich die Renderdistanz von 32 Chunks auf 64 erhöhen. Das hat den Verbrauch direkt auf 600 Watt hochgehen lassen. Die GPU-Speicherauslastung war im Peak bei 9 GB und beim Arbeitsspeicher etwa bei 10 bis 20 GB. 30 FPS wurden meistens erreicht, aber blieben da nicht immer super stabil.

Die letzte Schwierigkeitsstufe ist die Mod Distant Horizons. Damit kann man quasi in die Unendlichkeit schauen, ohne an die Chunk-Renderdistanz gebunden zu sein. Allerdings gilt das nur für bereits generierte Chunks. Das heißt, die werden leider nicht neu in die Unendlichkeit generiert.

Und jetzt zieht euch mal bitte rein, wie fantastisch das aussieht. Ein Wallpaper nach dem anderen. Nur ein bisschen schade, dass man sich nicht viel bewegen kann. Ein FPS ist dafür leider ein bisschen zu wenig. Die Grafikkarte wird hierbei nicht unbedingt viel mehr belastet und auch RAM wird nicht viel mehr beansprucht. Deshalb schiebe ich jetzt das Stocken nicht auf den PC, sondern eher auf die Kompatibilität zwischen den Mods.

Also, leider konnte ich mit Minecraft diesen PC jetzt auch nicht unbedingt zum Einknicken bringen. Aber immerhin habe ich es unspielbar gemacht. Einen letzten Bonustest gibt es aber noch. Hier ist eine Benchmark-Map, auf der sich alles bewegt, was sich bewegen kann. Und trotz Mods hält der PC die 30 FPS. Man hätte sicher noch ein bisschen mehr Leistung rausholen können, wenn man hier und da noch etwas fein justiert. Die Hardware ist aber nicht das Nadelöhr. Mein Fazit ist aber, wenn ihr Minecraft in der Performance spielen wollt, braucht ihr dafür keinen 40.000-Euro-PC.

[Keno:] Am Ende habe ich dann aber noch was echtes gefunden, was das Teil genauso auslastet wie der Furmark-Benchmark. Nämlich die 3D-Grafik-Software Blender. Die muss man hier in diesem Menü manuell auf CUDA umschalten und dann hier nochmal und yes, die vollen 1100 Watt und der schöne Flugzeugturbinen-Sound. Nice.

Also ganz klar, teure High-End-CPUs und Multi-GPUs sind auf gar keinen Fall automatisch in allen Anwendungen immer besser. Sondern man muss sich vorher wirklich genau überlegen, was man mit dem Rechner machen will und konkret herausfinden, ob die denn überhaupt viele CPU-Kerne auslasten kann und ob die Software mit mehreren GPUs zurechtkommt und so weiter. Mit Spielen geht das zum Beispiel gar nicht. Da hat man überhaupt nichts von diesen teuren Komponenten. Ja, und mir ist natürlich auch klar, dass niemand 40.000 Euro für einen Gaming-PC ausgibt, aber so ganz generell, weil das ja oft Leute denken, dass teurer immer besser ist. Ich würde ganz allgemein sagen, dass es wenige Menschen gibt, die so viele CPU-Kerne und so viel GPU-Power gleichzeitig auslasten können. Sondern das ist eher so ein Entweder-oder-Ding. Aber klar, der Rechner, den wir hier getestet haben, den hat Dell uns leihweise zur Verfügung gestellt, weil es da um das technisch Machbare geht. Es gibt wahrscheinlich wirklich wenig Leute, die das Ding genau so konfiguriert haben.

Und was man fernab von der Leistung auf jeden Fall bedenken muss, solche Workstations ziehen extrem viel Strom. Gemessen haben wir, wie gesagt, manchmal über 1100 Watt. Das sind schon so Wasserkocher-Dimensionen. Und vor allem im Leerlauf, also bei ruhendem Desktop, sind Werte von weit über 100 Watt echt schwierig. Aber fernab davon, es hat mir auf jeden Fall viel Spaß gemacht, mal den aktuellen Stand der Workstation-Technik ausprobieren zu können. Ein technisch beeindruckender PC ist das auf jeden Fall. Nur halt nicht für Minecraft. Tschüss.


c't 3003 ist der YouTube-Channel von c't. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen und Lukas Rumpler sowie die Video-Producer Şahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.

(jkj)