Vorteile einer dedizierten Grafikkarte für DAW Rechner mit 8700K

Die meisten Intel CPUs haben 'ne feste TDP, ist anzunehmen dass die GPU einfach nicht wärmer wird, eher schwächelt als heiß zu werden.
 
TDP bezieht sich nur aufs Package und ist bei modernen Intel CPUs nicht sonderlich aussagekräftig bis nahezu nichtssagend. Bei übertaktungsfähigem Mainboard wird oftmals auch selbst bei Nicht-Übertaktungs-CPUs überhaupt keine Drosselung aktiv (außer Überhitzungsschutz, aber der hängt größtenteils von der CPU Kühlung ab und dort gibt es gut Headroom).
 
Im Turbo können die Dinger weit mehr verbrauchen als die angegebene TDP. So ein 8700K - welcher ja sogar übertraktungsfähig ist - wird bei übertaktungsfähigem Mainboard unter Ignorierung der TDP heiß und drosselt erst, wenn ein Hitzeschwelllwert erreicht wird. Allenfalls eine Mainboard-BIOS-Einstellung könnte dies verhindern. Deaktivierung des Turbo z.B.
 
Ja, die K-CPUs sind da 'ne Ausnahme (daher hatte ich die meisten Intel CPUs geschrieben), wenn man übertakten will muss man so generell was intensiver kühlen, aber die angegebene TDP gilt immer für beides CPU und GPU Einheiten. Daher wird eine große Wärmeentwicklung für Intel GPU von vornherein ausgeschlossen sein, ich hab' auf die Schnelle auch keine Hinweise im Netz zur Wärmeentwicklung von oder Überhitzung durch Intel GPUs finden können.
 
Nee, die K CPUs sind da keine Ausnahme, das betrifft Intel CPUs mit Turbo ganz allgemein. Der Turbo ist quasi eine temperaturabhängige Übertaktung.
 
Wenn die GPU erheblich Hitze erzeugen würde dürfte sich das zumindest beim Turbo bemerkbar machen. Auf Wikipedia hab' ich folgenden Absatz gefunden, was in bestimmten Situationen dann doch für 'ne externe Grafikkarte sprechen würde. Ich bezweifle aber dass damit die Bildwiederholfrequenz gemeint ist.

https://de.wikipedia.org/wiki/Intel_Turbo_Boost
Turbo Boost Technology 2.0
Turbo Boost 2.0 ist die Weiterentwicklung der ersten Generation, die zum ersten Mal in den Prozessoren mit Sandy-Bridge-Mikroarchitektur zum Einsatz kam. So wie bei der alten ist auch die neue Version nur auf Systemen mit Core-i5- und i7-Prozessoren mit einer Versionsnummer im Bereich 2xxx verfügbar. Core-i3- und Pentium-Prozessoren verwenden Turbo Boost 2.0 weiterhin nicht.

Neu bei Version 2.0 ist, dass die Prozessoren unter bestimmten Voraussetzungen alle Kerne für einen kurzen Zeitraum höher übertakten und die TDP überschreiten dürfen, wobei für einen kurzen Zeitraum mehr Verlustwärme produziert wird als der Kühler auf Dauer abführen kann, wobei hier die thermische Trägheit des CPU-Kühlers ausgenutzt wird. Je nach Situation kann dieser Zustand typischerweise bis zu 25 Sekunden anhalten. Zusätzlich zur dynamischen Übertaktung des Hauptprozessors wird seit Sandy Bridge auch der Grafikprozessor bei Belastung übertaktet, was bisher den Mobilprozessoren vorbehalten war. CPU und integrierte GPU teilen sich hierbei die TDP, womit je nach Software mal der Anteil der CPU und mal der der GPU den größeren Teil der Verlustwärmeleistung im Betrieb bildet.

Da auf den neuen Mainboards mit den Chipsätzen der 6er-Serie der Referenztakt nur mehr 100 statt 133,33 MHz beträgt, fallen die Takterhöhungen der einzelnen Stufen ebenfalls geringer aus. Wie viele Taktstufen bei wie vielen gleichzeitig aktiven Kernen jeweils hochgeschaltet wird, ist nach wie vor je nach Prozessor unterschiedlich.
 
Zuletzt bearbeitet:
Man kann es tatsächlich nicht verallgemeinern. Bei ausreichend Stromzufuhr und Kühlung kann der Turbo, egal ob K oder nicht-K CPU, auf einem TDP-ignorierendem Mainboard auch lange gehalten werden. Einmal hat Intel zu Showzwecken mit heftiger Kühlung Allcore 5KHz Dauertakt gezeigt. Mit der (für Nutzer unrealistischen) Kühlung würde ein 8700k auf einem üblichen Gamer-Übertaktungs-Mainboard dauerhaft im Turbo laufen können und dabei ne Menge Strom ziehen.
 
Effektiv aber eben schon, denn die CPU muss ja in der selben Zeit auch mehr Frames berechnen und wird darum logischerweise auch heißer (und der Lüfter lauter).

Je nach Wiederholrate und Konstellation wird das auch richtig krass: https://www.overclock.net/forum/69-...-temperatures-power-draw-your-nvidia-gpu.html

Genau in diese Situation des obigen Links bin ich gekommen, als ich meinen Primärmonitor auf 144Hz (Sekundärmonitor weiter auf 60Hz; beide lediglich 1920*1080) geschaltet hab. Die GTX 1070 ging nicht mehr in den Idle-Modus und blieb konstant über 50°. Primärmonitor runter auf 120Hz und alles wieder leise und kühl.

Ich würde da echt die Finger von lassen. Da gibt's ja kaum belastbare Benchmarks für. Vor allem, wenn man da leistungshungrige Plugins zuschaltet. Einfach nur den Monitor im Idle-Betrieb hochtakten ist ja witzlos.

Das könnte auch daran liegen:

http://www.greencomputingportal.de/...grafikkarten-im-multi-monitor-betrieb-senken/
 
Vielen Dank für dir rege Teilnahme. Ich habe übers Wochenende versuchsweise eine GTX 1060 8G Karte eingesteckt und habe nicht in irgendeiner Weise eine Verbesserung der Performance feststellen könnenn gegenüber dem UHD 630 IGP.
Ich glaube, dass Cuda derzeit nur den Gamern was bringt, für DAW's und Plugins noch nichts dahingehend entwickelt wurde.
 
Vielen Dank für dir rege Teilnahme. Ich habe übers Wochenende versuchsweise eine GTX 1060 8G Karte eingesteckt und habe nicht in irgendeiner Weise eine Verbesserung der Performance feststellen könnenn gegenüber dem UHD 630 IGP.
Da die Audioberechnung typischerweise auf der CPU erfolgt und typischerweise die Plugins keine aufwändige 3D Grafik machen, entspricht das genau den Erwartungen.
Ich glaube, dass Cuda derzeit nur den Gamern was bringt, für DAW's und Plugins noch nichts dahingehend entwickelt wurde.
Weiter oben wurden Plugins genannt, die CUDA oder OpenCL benutzen. Wenn solche nicht am Start sind, wird auch die schnellste GPU nichts bringen.
https://www.sequencer.de/synthesize...er-daw-rechner-mit-8700k.144971/#post-1691228
 
Ihr diskutiert echt 2 Seiten lang über die Vorteile einer dedizierten Grafikkarte und sogar LCD Panels jenseits der 60Hz Bildwiederholrate, wenn es rein um den Einsatz von DAW und diversen VST Plugins geht? Bei den heutigen Möglichkeiten von CPUs mit integrierter Grafikeinheit? Nicht wirklich, oder? Ich hab heute in der Pause mal mit meinem Arbeitskollegen 5min das Thema angesprochen. Wir sind beide IT Admins und auch privat leicht IT nerdig unterwegs. Wir sind zu dem Schluss gekommen, dass sowohl eine dedizierte Grafikkarte und erst recht Bildschirme mit mehr als 60Hz Bildwiederholrate für DAW und Plugin Geschichten reiner Nonsens sind. Was sollen denn Eure Plugins können? 3D Animationen? Was braucht's denn für die Animation der Sequenzer Spuren beim Abspielen an 3D Beschleunigung? Welch hochkomplexe Stücke kompoiniert Ihr denn, dass Ihr reine Gamer- bzw. 3D Anwendungs-Hardware benötigt, weil die DAW-Kiste sonst zu langsam ist? Ich hoffe doch Dinge, die ein Jordan Rudess an seinen Synths und Programmen zu kreieren vermag. Was ich jedoch hier im Forum meist an Kompositionen finde, hört sich nach Vielem an, nur nicht nach richtig komplexer Musik. Ich hab mal zum Spaß nach Cuda/OpenCL-fähigen VST Plugins gesucht. Entweder bin ich zu doof dafür oder man muss sie wirklich mit der Lupe suchen denn viel hab ich nicht gefunden. Das Abspielen diverser FL Studio 20 Demos hier mit meinem i5-7600K (Werkseinstellung, nicht übertaktet, TurboBoost an sofern wenn benötigt) verursacht 15 bis maximal 20% CPU Last, bei 0% GPU Last (werksübertaktete Radeon RX580, allerdings nutze ich den PC auch zum Zocken). Da gibt's also noch viel Luft nach oben, zumindest was meine (bescheidenen) Kompositionen die nächsten Monate und Jahre betrifft.
 
Zuletzt bearbeitet:
Genau! Also erstens muß der Monitor das auch unterstützen, wenn du so einen hast dann hole dir eine Graka. Weiterhin genauso. wenn du mehrere Monitore anschließen möchtest, was bei einer DAW sinnvoll ist bzw. evtl., wenn noch Video in der DAW mal vertont wird, dann sowieso einen zusätzlichen, hole dir auch eine Grafikkarte, alleine schon wegen den zig Ausgängen! ;-)
 
Wir sind zu dem Schluss gekommen, dass sowohl eine dedizierte Grafikkarte und erst recht Bildschirme mit mehr als 60Hz Bildwiederholrate für DAW und Plugin Geschichten reiner Nonsens sind.

Das ist ja schön für euch. Wer einmal an einem Monitor @120Hz oder mehr längere Zeit gesessen und gearbeitet hat, der wird nicht freiwillig zu 60Hz zurückkehren. Man sieht mehr in der selben Zeit und es arbeitet sich erheblich(!) flüssiger. Deal with it!
 
Wie gesagt, es spricht nichts dagegen dass auch mit iGPU zu machen. Ich denke der Artikel oben erklärt warum deine Grafikkarte dabei nicht mehr in den Idle Betrieb zurückfällt.
 
Ich persönlich mixe eh viel lieber nach Gehör und was bringt mir die "zusätzliche" Information, dass der Regler die 120tel Sekunde zwischen 2 60tel Sekunden auch die gleiche Einstellung hatte wie in der 120tel Sekunde davor und der 120tel Sekunde danach. Oder dass der Song Locator die 120tel Sekunde zwischen zwei 60tel Sekunden genau in der Mitte zwischen den Positionen der vorangegangenen 120tel Sekunde und der darauffolgenden 120tel Sekunde war.
 
Wie gesagt, es spricht nichts dagegen dass auch mit iGPU zu machen. Ich denke der Artikel oben erklärt warum deine Grafikkarte dabei nicht mehr in den Idle Betrieb zurückfällt.

Der Artikel ändert rein gar nix daran, dass man die iGPU deutlich stärker belastet, wenn man dem Betriebssystem sagt, dass es nun doppelt so viele Frames zu berechnen hat.

Ne passive zusätzliche GPU nimmt diese Last komplett von der CPU und der Rechner kann leiser laufen. Das ist der Punkt, den ich hier vertrete. Dieses Konzept ist doch echt nicht zu komplex, oder?
 
Auch in der DAW oder in Plugins werden das wahrscheinlich irgendwelche Event Timer sein, die stetig (aber nicht ständig) die Prozedeuren zur Erneuerung der Animationen/Grafik etc. (mittlerweile vielleicht sogar auf 'nem eigenen Prozessor/Thread) aufrufen. Schließlich läuft das ja nur so nebenbei, während die Audio Verarbeitung Priorität hat.
 
Der "Desktop Window Manager" ist eine reine 3D-Anwendung. Der setzt unter anderem Double-Buffering und V-Sync um.

Und deswegen ist die Framerate auch an die Refreshrate gekoppelt, weil man den Benutzern des Desktops kein Screentearing und so wenig Ruckler wie möglich zumuten möchte.

Richtig gelesen, der Desktop ist seit Windows 8 zwingend eine waschechte 3D-Anwendung und damit auch alle Programme, die im Desktop laufen.
 
Vsync brauch man um flackern beim Aufbau zu vermeiden, wenn der Puffer mit nix neuem gefüllt ist wird einfach zweimal das Selbe angezeigt, das sagt nichts über die Prozessor bzw. GPU Last aus.
 
Und V-Sync ist an die Refreshrate gebunden. Bilder werden dabei dann, und nur dann, mehrfach verwendet, wenn die Hardware mit dem Rendern nicht hinterher kommt. In diesem Fall halbiert sich die Framerate. Und das wäre bei ner iGPU das schlechteste Szenario überhaupt, denn diese liefe dann am Anschlag. Dann ruckelt der Desktop und der Lüfter dreht hoch.

Ansonsten liefert auch die iGPU genau das, was man von ihr verlangt, verbraucht dabei mehr Strom und trägt seinen Teil an Abwärme bei, welche über den CPU-Lüfter abgeführt werden muss.
 
Ansonsten liefert auch die iGPU genau das, was man von ihr verlangt, verbraucht dabei mehr Strom und trägt seinen Teil an Abwärme bei, welche über den CPU-Lüfter abgeführt werden muss.
Was vollkommen irrelevant ist, wenn man einen überdimensionierten CPU Lüfter installiert. Und V-Sync bringt eh keine Verbesserung für den Sound.
 
Und V-Sync ist an die Refreshrate gebunden. Bilder werden dabei dann, und nur dann, mehrfach verwendet, wenn die Hardware mit dem Rendern nicht hinterher kommt.
Spiele sind keine Anwendung, die Grafik hat keine Priorität, sondern wird in bestimmten Intervallen erneuert, die GPU meines Atom X5-Z8500 Tablet geht bei Desktopanwendungen selten über 5%. Die aktuelle GPU Last kannst du unter Windows 10 mittlerweile im Task Manager anzeigen lassen, zumindest bei neueren GPUs - denn auf meinem Internet PC mit i3-2377m von 2013 funktioniert das noch nicht.

Windows-10-Task-Manager-pcgh_b2article_artwork.png
 
Das ist ja schön für euch. Wer einmal an einem Monitor @120Hz oder mehr längere Zeit gesessen und gearbeitet hat, der wird nicht freiwillig zu 60Hz zurückkehren. Man sieht mehr in der selben Zeit und es arbeitet sich erheblich(!) flüssiger. Deal with it!

Das werde ich sehen, wenn ich es denn für nötig halte, einen 2. Monitor zu kaufen, und zwar fürs Zocken und nicht fürs Arbeiten. Ich weiß ja nicht, was Ihr für Flimmerkisten vorher benutzt habt und was Ihr für Augen habt, aber der Monitor hier liefert ein tadelloses Bild unter 60Hz, auch in einer DAW. Deal with it! Aber es soll ja Leute geben, die an das heilige Spaghettimonster glauben...

Als ob vor Freesync und GSync alle Displays scheiße waren....
 
Was vollkommen irrelevant ist, wenn man einen überdimensionierten CPU Lüfter installiert.

Das ist ein gutes Argument. Sogar so gut, dass ich es bereits hier in diesem Thread angesprochen habe.

Spiele sind keine Anwendung, die Grafik hat keine Priorität, sondern wird in bestimmten Intervallen erneuert, die GPU meines Atom X5-Z8500 Tablet geht bei Desktopanwendungen selten über 5%. Die aktuelle GPU Last kannst du unter Windows 10 mittlerweile im Task Manager anzeigen lassen, zumindest bei neueren GPUs - denn auf meinem Internet PC mit i3-2377m von 2013 funktioniert das noch nicht.

Bei mir funktioniert das ganz prächtig.

GPU-Last.png

Renoise + Reaper => 21% GPU-Auslastung auf ner GTX 1070 in den Windows-Routinen.
Renoise + Reaper => 5% CPU-Auslastung bei 96Khz & 24Bit

Und ich mach hier gerade nix anderes, als einen Audiostream per Interface in Renoise einzuspeisen (wg. der sehr komfortablen DSP-Chain) und anschließend den Stream an Reaper zu übergeben, damit ich diesen dann in einer Datei abspeichern kann. Nix Wildes also.

Was hier ordentlich rein haut ist das native Spektrogramm von Renoise. Wenn ich das Spektrogramm-Fenster kleiner mache, dann sinkt entsprechend auch die GPU-Last auf unter 7%. Das zeigt ganz klar, dass die Grafikkarte in diesem popligen Beispiel der CPU erheblichen Arbeitsaufwand abnimmt.

Das werde ich sehen, wenn ich es denn für nötig halte, einen 2. Monitor zu kaufen, und zwar fürs Zocken und nicht fürs Arbeiten.

Jo, ich hab mir einen nur fürs Zocken gefunden und darüber hinaus festgestellt, dass sämtliches horizontales und vertikales Scrolling (z.B. in Browsern, Texteditoren und in Reaper) dadurch deutlich angenehmer geworden ist. Man sieht ganz einfach viel besser, wo man sich gerade befindet. Im direkten Vergleich zu einem 144Hz-Monitor hat ein 60Hz-Monitor null Vorteile. Null!

Ich weiß ja nicht, was Ihr für Flimmerkisten benutzt und was Ihr für Augen habt, aber der Monitor hier liefert ein tadelloses Bild unter 60Hz, auch in einer DAW.

Und deswegen ist mehr Bildinhalt natürlich auch "reiner Nonsens", und jede Unterhaltung dazu auch viel zu lang. Dieses Statement ist sogar so dermaßen wichtig, als dass man selbst noch über eine Woche später was dazu in aller Breite sagen muss. Ja, schon gut. Hab dich verstanden.

Zusammengefasst:
1. Dedizierte GPU doof.
2. Schneller Monitor reiner Nonsens.
3. Unterhaltungen von Dritten dazu überflüssig.

Fazit: Ich glaub einfach mal lieber meinem Taskmanager und nicht irgendeiner Forendiskussion.
 
1. Dedizierte GPU doof.
2. Schneller Monitor reiner Nonsens.
3. Unterhaltungen von Dritten dazu überflüssig.



...völlig aus dem Zusammenhang gerissen...
zu 1. Nö, da ich mich ja wie bereits erwähnt selbst für's Gaming hin und wieder interessiere, wenn es meine bescheidene Freizeit zulässt. Meines Erachtens eben nur überflüssig für Audiobearbeitung und reine 2D Anwendungen. Was der Desktop Window Manager OS intern macht, juckt mich herzlich wenig.
zu 2. Nö, ich hab doch geschrieben, dass ich mir ggf. selbst einen mit hoher Bildwiederholrate zulegen werde, wenn ich es für nötig halte. Möglicherweise sind aber meine Ansprüche diesbezüglich derzeit aufgrund wenig Zeit nicht ganz so hoch.
zu 3. tja, _eigentlich_ wollte ich dazu tatsächlich nix mehr schreiben. Aber hey, das ist ein Forum, nicht wahr? Und was tut man in einem solchen? Es geht u.A. um Grafikkarten, also halt doch nicht ganz so uninterssant für mich. ;-)
 
Zuletzt bearbeitet:
@2bit Sieht so aus als hättest du 'nen Spectrum Analyzer laufen, bin kein Reaper User - ich nehme an der ist ständig am Zeichen? Fragt sich ob diese Operationen mit 'ner dedizierten GPU viel effizienter laufen als mit 'nem 3D Monster und ob die Last nur kurzfristig ist, dann besteht keine Gefahr das irgendwas zu heiß wird.
 
Zuletzt bearbeitet:
Das ist ein gutes Argument. Sogar so gut, dass ich es bereits hier in diesem Thread angesprochen habe.
Da steht, es sei eine "halbgare Bastellösung", welche der Lebensdauer der CPU nicht zuträglich sei. In Wahrheit ist es allerdings so, dass der Hitze-Headroom inzwischen sehr groß ist und die CPU zudem abschaltet, deutlich bevor sie irgendwie Schaden nehmen könnte. Zudem wird sie in 15 Jahren ohnehin wertlos sein, während die mittlere Lebenserwartung selbst bei Intensivnutzung deutlich darüber liegt.

Weiterhin wird die CPU mit überdimensioniertem Kühler ohne dedizierte Grafikkarte weniger heiß als in jedem Notebook selbst mit dedizierter Grafikkarte.

Wenn man was wegsparen will, sei es aus Kosten- Platz- oder Stromspargründen, dann ist die dedizierte Grafik am Heim DAW Rechner definitiv ein Top Streich Kandidat.
 
Zuletzt bearbeitet:
Da steht, es sei eine "halbgare Bastellösung", welche der Lebensdauer der CPU nicht zuträglich sei.

Es ging da konkret um den Betrieb jenseits der 60 Hertz.

In Wahrheit ist es allerdings so, dass der Hitze-Headroom inzwischen sehr groß ist und die CPU zudem abschaltet, deutlich bevor sie irgendwie Schaden nehmen könnte.

Und in genau dieser Situation ist die CPU dann im DAW-Betrieb + Plugins echt noch von nutzen? Sorgenfreier Workflow sieht für mich anders aus.

Wenn man was wegsparen will, sei es aus Kosten- Platz- oder Stromspargründen, dann ist die dedizierte Grafik am Heim DAW Rechner definitiv ein Top Streich Kandidat.

Klar. Aber es ging hier um VORTEILE einer Dedizierten GPU. Und ich hab im allerersten Posting hier im Thread ja auch mehr als deutlich gemacht, dass der praktische Nutzen eines dieser VORTEILE im reinen DAW-Betrieb eher gering, ziemlich theoretisch und unverhältnismäßig teuer ist, wenn man den Rechner nicht auch zum Zocken benutzt. Oder eben zur Video- oder Bildbearbeitung. Oder für exotische Faltungshallplugins oder selbstgeschriebene additive Syntheseprogramme.
 
Zuletzt bearbeitet:

Similar threads

V
Antworten
35
Aufrufe
3K
sdvkaeälkjb848
S


Zurück
Oben