News Brechstange mit Handbremse: Intels Umgang mit schnell alternden Core-CPUs wirft Fragen auf

Komisch.

Ich habe das Update von ASUS auf mein TUF z690 geflasht und hatte im CB23 nur knapp 6 % Unterschied.
 
Der vorzeitige und ganz besonders schnelle Alterungsprozess der aktuellen hybriden Core-i-Prozessoren, welcher seit dem Release der 13. Generation ("Raptor Lake") zu beobachten ist, gilt mit dem Statement Intels, dass es "bei einigen Bauteilen zu Verschiebungen der Mindestbetriebsspannungen kommt" als gesichert.
Ergänzt werden müsste, gilt für Herrn Bauduin als gesichert. Man hätte ruhig die komplette Stellungnahme wie aus der letzten News nochmal veröffentlichen können.
Intel hat festgestellt, dass dieses Problem möglicherweise mit Betriebsbedingungen zusammenhängt, die außerhalb der Spezifikation liegen und zu anhaltend hohen Spannungen und Frequenzen während Zeiten erhöhter Hitze führen.

Die Analyse der betroffenen Prozessoren zeigt, dass es bei einigen Bauteilen zu Verschiebungen der Mindestbetriebsspannungen kommt, die möglicherweise mit dem Betrieb außerhalb der von Intel spezifizierten Betriebsbedingungen zusammenhängen.

Obwohl die Ursache noch nicht identifiziert werden konnte, hat Intel festgestellt, dass die Mehrzahl der Berichte über dieses Problem von Anwendern mit entsperrten/übertaktungsfähigen Motherboards stammt.

Intel hat festgestellt, dass auf den Chipsätzen der Serie 600/700 häufig BIOS-Standardeinstellungen vorgenommen werden, die die thermischen und Stromversorgungs-Schutzmechanismen deaktivieren, um den Prozessor nicht über längere Zeiträume hohen Spannungen und Frequenzen auszusetzen:
Journalismus am Limit.:daumen2:
Dass das jetzt so hochkocht sagt schon alles.
Du schreibst deine News nach Gefühlslage?
Bedeutet, dass diese CPUs nicht mehr mit der vorgesehen Mindestbetriebsspannung laufen und mehr benötigen.
Gibt es dafür einen Beweis?
 
Wie äußerten sich denn diese damaligen Fehler der FPU´s in der Praxis...
Die falschen Ergebniss müssen doch innerhalb der unterschiedlichen Anwendungen Probleme verursacht haben, weit bevor für den Nutzer etwas sichtbar wurde.
Im Fall der Flugabwehr hat sie eingehende Raketen nicht abgefangen, vermutlich weil sie aufgrund der fehlenden Genauigkeit an einer anderen Stelle angegeben wurden als sie waren. Aber überall wo du keine ganzzahligen Parametrisierungen hast kann das dann eine Rolle spielen. Oft fällt das nicht ins Gewicht, weil es nicht wichtig ist, oder weil die Abweichung marginal ist. Aber wenn dann z. B. mit großen Zahlen multipliziert wird spielt es auf einmal doch eine Rolle.
 
Das sind für manche Welten.
Aber gut das es nun ein sicheres Profil gibt, übertakten kann ja jeder immer noch wie er möchte.
Dann aber am besten mit Warnhinweis bei Verwendung der OC Profile.
Jeder der bei Verstand ist, wird das "Intel" Profil in den Mainboard-Einstellungen aktivieren. Wie teuer ist ein i9 Prozessor nochmal? - Schade, wenn diese CPU nach 2 Jahren defekt ist, weil nur eine 280er AIO verwendet wurde.

Gebraucht würde ich solch einen Prozessor allerdings tunlichst meiden.
 
Im Fall der Flugabwehr hat sie eingehende Raketen nicht abgefangen, vermutlich weil sie aufgrund der fehlenden Genauigkeit an einer anderen Stelle angegeben wurden als sie waren. Aber überall wo du keine ganzzahligen Parametrisierungen hast kann das dann eine Rolle spielen. Oft fällt das nicht ins Gewicht, weil es nicht wichtig ist, oder weil die Abweichung marginal ist. Aber wenn dann z. B. mit großen Zahlen multipliziert wird spielt es auf einmal doch eine Rolle.
Aber müsste das nicht bevor der Nutzer es merken kann, in der Software schon Fehler auftreten? Durch unplausible Daten.
Solche Berechnung werden doch auch redundant ausgeführt und auf Plausibilität geprüft (in Echtzeit) damit eben genau so etwas nicht passieren kann.
 
Gibt's nicht bereits aus China Chips, die die von Intel ohne deren Tricksereien locker ersetzen können?
Kommt drauf an was du machst. Das schnellste was China aktuell selbst produziert hat etwa die Kern-Performance eines i5-2500K/SandyBridge aus dem Jahre 2011. Das reicht für alle alltäglichen Aufgaben oder nen Office-PC natürlich aus. Den Rest kannste dir ja denken. ;-)

Die sind Performanceseitig nach wie vor rund ein Jahrzehnt hinter dem Westen.

Aber müsste das nicht bevor der Nutzer es merken kann, in der Software schon Fehler auftreten?
Du würdest dich wundern was alles bzw. wie viel schief laufen muss bis ein Nutzer oder eine Software was bemerkt. Kleinere Fehler die sich nicht in Abtürzen/Freezes/... äußern erzeugen zwar korrupte Daten - aber das fällt fast immer erstmal nicht auf. Ein falsches Bit oder Byte in einer erzeugten Musik- oder Videodatei merkt niemand. Erst wenns mehr wird sieht man den einen Bildfehler, die horizontale braune Linie im JPG oder hört das kurze Klickgeräusch in der Musik... und wenn das passiert sind schon VIELE Fehler in der Datei.
Viele PCs da draußen sind nicht so stabil dass sie fehlerlos arbeiten (GANZ Fehlerlos ist sowieso nicht drin da schon wegen kosmischer Strahlung mal ein Bit flippen kann, deswegen haben Profimaschinen ja ECC). Viele merken das aber erst wenn mal ne Systemdatei draufgeht und Windows sich weigert zu booten oder ähnliches.

Deswegen würden auch die allerallermeisten Nutzer eine instabile Intel-CPU erstmal nicht bemerken, bis es SO instabil ist dass was hart abstürzt. Ohne die UE5-OODLE Sache wäre das Thema hier vielleicht erst Monate später aufgefallen.
 
Zuletzt bearbeitet:
Ergänzt werden müsste, gilt für Herrn Bauduin als gesichert. Man hätte ruhig die komplette Stellungnahme wie aus der letzten News nochmal veröffentlichen können.
Bestimmt meint er es nur gut, aber habe auch schon bessere Artikel von ihm gelesen.
Gibt es dafür einen Beweis?
Würde mich auch interessieren. Intel sagt das in ihrem Statement soweit mein Englisch noch funktioniert nicht explizit. Man sollte einfach abwarten was bei der Sache herauskommt.
Mich wundert, dass bislang noch keiner auf die Idee gekommen ist, einfach mal die e-Cores abzuschalten für mehr Power-Budget.
Hier, aber nicht immer. Manchmal hab ich mir den ECores ein softeres Gaminggefühl und paar mehr FPS in Cyberpunk.
 
Habe ich das jetzt richtig verstanden? Intel empfiehlt die CPUs nur mit bestimmten Einstellungen laufen zu lassen und die Board- Hersteller sollen ein solches Profil ins BIOS einpflegen. Richtig? Wenn dem so ist, dann scheint Intel hier ja eine gewisse Problematik einzuräumen.
Und dann müssten viele Tests mit den neuen Vorgsben wiederholt werden. Und zwar reproduzierbar und verifizierbar. Einzelne Ergebnisse von User XY hier oder in anderen Foren sind da nur wenig aussagekräftig.
Ich verstehe einen Teil der Diskussion hier einfach nicht. Intel räumt eine Problematik ein. Ob jetzt die Ursache bei Intel liegt oder den Boardherstellern ist doch erstmal zweitrangig. Da schiebt eh einer dem anderen die Schuld zu. Wichtig ist doch das die Systeme stabil laufen und nicht vorzeitig die Grätsche machen.
 
Und dann müssten viele Tests mit den neuen Vorgsben wiederholt werden. Und zwar reproduzierbar und verifizierbar. EinzelneErgebnisse von User XY hier oder in anderen Foren sind da nur wenig aussagekräftig.

Würde nicht nach jedem Quäntchen Leistung gegiert werden, wäre die Problematik wahrscheinlich gar nicht vorhanden...

Wichtig ist doch das die Systeme stabil laufen und nicht vorzeitig die Grätsche machen.

So wichtig kann das nicht sein, sonst würde nicht auf biegen u. brechen versucht werden, das Max. herauszuholen. Dort wo vorrangig auf Stabilität Wert gelegt wird, also im produktiven Umfeld, würde niemand auf die Idee kommen, solch halbgares Zeugs zu verwenden, welches am Anschlag läuft.

mit frdl. Gruß
 
Also ich lese hier raus, dass Intel-CPU's, die mit der Brechstange entwickelt wurden, zum Übertakten geeignet und beworben sind, für das, wofür sie entwickelt und für was sie beworben wurden, instabil sind.

Liest da noch jemand die Ironie draus?

Macht für mich Intel-CPU's mit K-Suffix obsolet. Oder vielleicht gar geplante Kurzzeit-Obsoleszenz, damit die treuen Kunden früher neue Intel-Produkte kaufen?
Intel CPUs sind wohl mittlerweile das was 1.0l Dreizylinder Turbos mit 300PS für die Automobilhersteller sind

Mit dem Unterschied, dass solche Motoren funktionieren. Siehe Le Mans/WEC, welches für solche Motoren wohl mehr Extremtest ist als alles andere.
 
Zuletzt bearbeitet:
Ende vom Lied dürfte auch eine wesentlich kürzere Lebenszeit der Komponente sein bei einer derart starken degradation.
 
Schau bitte nochmal das Thema Exponentialfunktionen nach. Nur weil sich da im Exponenten etwas scheinbar nur geringfügig ändert heißt das nicht, dass das nicht trotzdem explodiert. Da steht halt noch die Boltzmann-Konstante drin, das sind echt viele Nullen.
Ich hab es jetzt leider auf die Schnelle nicht ausrechnen können, weil das in gängiger Zahlendarstellung überall den Rahmen sprengt, aber schon für ein k_B von 10^-10 (statt 23) kommen riiiesige unterschiede heraus, wenn man 50 und 95°C Betriebstemperatur miteinander vergleicht:

Also doch, die von dir angeführte Gleichung sagt, dass die Betriebstemperatur einen gigantischen Unterschied macht.
Ich wollte auch nicht behaupten, dass es keinen Unterschied macht, absolut nicht. Im Vergleich zur Stromdichte allerdings nicht so stark gewichtet, möchte ich meinen. Die Basis gewinnt immer.

Dein Link spuckt bei mir ne Warnung aus, aber ausgehend von dem was da in der Adresse steht, haben sich da ein paar Fehler in deinem Beispiel eingeschlichen.

Wir reden hier von einer Temperaturdifferenz, und die Boltzmann-Konstante kann man, auf eV bezogen, auch als Zahl der Dimension 10^-5 darstellen. Das Delta der Temperatur bleibt allerdings in Kelvin, T steht für die absolute Temperatur, nicht bezogen auf den Gefrierpunkt von Wasser wie die Celsius-Skala.

50°C entsprechen 323 Kelvin, 95°C sind dann 368 Kelvin, das sind nur etwa 14% Unterschied, nicht fast 100%. Das ist der Einfluß der Temperatur, der ist also deutlich geringer als von dir angenommen.

Gehen wir weiter, die Aktivierungsenergie ist irgendwas zwischen 0,8 und 1,3 eV. Den Unterschied können wir mal mit Ea von 1,0 ausrechnen, das macht es recht einfach. Am Ende bleiben dieselben 13,9% stehen, es ändert sich ja nur die Temperatur.

Es kommt also ganz auf die Stromdichte an, die Basis der Exp-Fu. Beispiel: 2^2 ist jetzt nicht soweit von 2^2,26 entfernt, aber der Unterschied beträgt deutlich mehr als 14%, es sind fast 20%. Gehen wir von Basis 5 aus, bekommen wir einmal 25 und für 5^2.26 sind wir schon bei fast 38, das Ergebnis fällt um über 50% höher aus.

Also, zusammengefasst, du hast Recht, der Exponent ist nicht vernachlässigbar. Absolut nicht, das ist im Falle der Exponentialfunktionen auch deutlich veranschaulichbar.
Ich wollte nicht erklären, dass ein Unterschied von 45°C wenig ausmacht, aber im Verhältnis eben geringer gewichtet ist als ein entsprechender Unterschied in der Stromdichte. Bei nur 25°C oder weniger Temperaturdifferenz eben noch geringer, da wir von der absoluten Temperatur ausgehen.
 
Zuletzt bearbeitet:
Zurück