Heizt man jetzt den Chip auf über 100°C auf, wird die Diffusion ungewollt fortgesetzt und die dotierten Bereiche zerlaufen förmlich im Silizium durch das Weiterwandern von Dotanten, bis der Chip eben nicht mehr funktioniert und nur noch sowas wie Sondermüll-Brei ist.
Korrekt. Die fehlerfreie Übertragung der Elektrizität erfordert dann durch den gestiegenen Widerstand eine immer höhere Spannung, oder man taktet den Chip herunter. Aber es kann auch passieren, dass der Chip so beschädigt ist, dass er instabil ist, egal bei welchem Takt, oder dass er nicht so viel Spannung bekommen kann, um stabil zu werden, weil einfach nicht genug gekühlt werden kann.
Wenn jemand seine CPU ans Limit taktet, bei sagen wir, geisteskranken 1,5V VCore und nahe angezeigten 100°C (die im Chip natürlich deutlich höher sind), und nach 2 Monaten feststellt, dass er einen "Fehler" gemacht hätte, und der Chip doch mehr Spannung braucht, dann hat er eventuell gar keinen Fehler gemacht, sondern der Chip hat damals die Werte tatsächlich ausgehalten - durch Elektromigration, also Materialermüdung jetzt aber nicht mehr.
Deshalb takte ich meine Halbleiter wenn überhaupt, nach unten, um sie kühler zu betreiben (angezeigt ca. 50-70°C).
Die alte Leier von den arch so unstabilen AMD Karten die aber die AMD User irgendwie so nicht bestätigen können
Meine persönliche Meinung: Ich kann als Linuxnutzer nicht bestätigen, dass heutige AMD-Karten auffällig oft instabil wären. Sondern seit RDNA sind die AMD-Karten kühl, effizient getaktet und im Fall des Referenzdesigns sind auch die Vollmetall-Kühler sehr hochwertig. Kurzum, stand heute bekommt man bei AMD für sein Geld sehr hochwertige und zuverlässige Karten.
Deshalb ist das wirklich eine alte Leier, aber meiner Meinung nach hat AMD vor ca. 10 Jahren nicht so perfekt gearbeitet wie heute und deshalb schließe ich nicht aus, dass es damals Karten gab, die - so wie hier die Intel-CPUs - durch eine grenzwertige Taktung eher instabil gelaufen sind. Deshalb will ich keinen, der vielleicht damals selbst schlechte Erfahrungen gemacht hat, als Lügner abstempeln. Es gibt sicher auch Nvidia-Karten, die zur gleichen Zeit instabil ausgeliefert wurden, aber es waren eventuell tatsächlich im Schnitt weniger als bei AMD, weil AMD auch damals ab Werk schon etwas grenzwertig und stromschluckend getaktet hat, nicht ganz so krass wie Intel hier, aber so ähnlich, und die Boardpartner von AMD dann der Karte durch ihre eigene Übertaktung evtl. den Rest gegeben haben. Heute haben die aber auch die viel bessere Qualitätssicherungsmaßnahmen und führen bei vielen Karten Stresstests vor der Auslieferung durch.
Wenn eine AMD-Karte instabil ist, sieht man öfter mal bei Windows die Meldung, dass der Treiber sich zurückgesetzt hätte und das Spiel stürzt evtl. ab.
Und somit enstand vermutlich der Mythos, dass die Treiber von AMD instabil wären. Was sie meiner Meinung nach niemals waren. Ich kann versichern, dass bei mir mit einer stabilen GPU die Treiber niemals abgestürzt sind, bevor ich zu Linux gewechselt bin. Vermutlich will nur keiner wahrhaben, dass seine Übertaktung instabil ist.
Der alte Catalyst-Treiber war damals zwar ungefähr so ein hässliches Programm im Windows 95-Stil wie es das Nvidia Control Panel heute noch ist (seit 20 Jahren Stillstand bei Nvidia), der aktuelle AMD-Treiber für Windows ist aber dagegen modern, intuitiv zu bedienen und bietet alle Features, die man als Gamer braucht. Insofern sind auch Stories über altbackene Treiberinterfaces eher auf Nvidia zutreffend.
Auf Linux habe ich ohnehin mit dem Treiber wenig zu tun, ich benutze aktuell einfach meine Karte zum Zocken so wie sie geliefert wurde und fertig.
Zusammenfassend also: Wenn jemand vor 10 Jahren mit AMD-Grafikkarten (z.B. R9 290X/390X) schlechte Erfahrungen gemacht hat, mag das auch stimmen, aber das heutige AMD hat diese Probleme definitiv nicht mehr.