Die GPU-Diode ist eine speziell zum Auslesen der Temperatur ins Chip-Layout integrierte Diode.
Manche Tools zeigen die ausgelesenen Temperaturen unter GPU-Diode, andere eventuell unter GPU#1 an.
Diese Diode gibts bei vielen, besonders älteren Grafikkarten aus dem Büro- oder HTPC-Segment überhaupt nicht.
(nur mal so am Rande ...)
Es gibt aber auch noch andere Meßpunkte.
Beispielsweise eine Diode direkt unter dem Chip, die oft als GPU#2 ausgelesen wird.
Weils im Feuer heißer alks in seiner Umgebung ist, weil die Diode, die im Chip sitzt zwangsläufig wärmer werden muß, als die, die noch durch diverse Schichten vom Die getrennt ist, ist es nur folgerichtig, daß der zweite Wert immer unter dem ersten liegen muß.
Ist das mal nicht der Fall, kannst Du davon ausgehen, daß das jeweilige Tool irgendwelche Phantasiewerte liefert.
Wie warm darfs werden?
Weiß ich nicht!
Bei einer alten HD 4850 habe ich die GPU bis auf 110 Grad quälen können. Es gab dabei, außer daß es mir selbst recht mulmig wurde, weil ich ja eine Funktionsgarantie auf das System gegeben habe, keine Schwierigkeiten.
Vom Kunden habe ich nie zu hören bekommen, daß er mit seiner Grafikkarte irgendwelchen Ärger gehabt hätte.
Inzwischen wohne ich in einem anderen Land.
Meine eigene Neuerwerbung dagegen reißt das ganze System zu Boden, wenn die GPU 95 Grad erreicht. Dunkel nebst Reeboot.
(Grafikkarten sind halt auch nicht mehr das, was sie mal waren ...)
Ohne da wirklich was fürchterlich Genaues zu wissen, würde ich mal sagen, daß es für alle heutigen AMD-Karten nicht direkt gut ist, wenn sie über 95 Grad Chip-Temperatur (GPU-Diode) kommen.
Wahrscheinlich werden sie darüber auch dunkeltuten.
Aber, keine Angst!
Abschalten (undzwar rigoros!) schadet nicht. Die Grafikkarte tut das ja extra dazu, daß ihr nichts weiter passiert.
VRM heißt Spannungswandler.
Auch wenn das, weil es sich um Spannungsregler, also Mosfets auf dem PCB der Grafikkarte handelt, nicht so ganz richtig ist.
Die Dinger haben die Aufgabe die ankommenden 12 Volt soweit zu verringern, daß sie dem eigentlichen Grafikchip die Arbeit ermöglichen, ohne ihn zu schädigen.
Zuviel Spannung ist für die GPU tödlich!
Beim Vernichten von Spannung wird natürlich jede Menge elektrische Leistung in Wärme umgesetzt.
Deshalb werden die dazu eingesetzten Mosfets sauheiß.
Glücklicherweise sind die gut temperaturresistent, weshalb sie noch bis zu 105 Grad ohne zu murren arbeiten können.
Jedenfalls dann, wenn sie sich an gültige Standards halten.
Manche Grafikkarten, nee, eigentlich fast alle, machen aber schon vorher, zum Selbstschutz, dem sprichwörtlich bunten Treiben ein Ende.
Wenn es mich interessiert, wie warm meine Grafik wird, starte ich GPU-Z.
Sowas interessiert mich genau einmal.
Einmal furmarken und sehen was passiert.
So warm wie es der Grafikkarte dabei ums Herz wird, wird sie später niemals wieder werden.
// war ja klar, daß ich mit meinem kurzen Text der Letzte bin.