Wahrscheinlichkeit dass sich Prozessor "verrechnet"

10/04/2008 - 10:51 von Timo Johansson | Report spam
Hallo Gruppe,

ich suche nach einer Aussage mit welcher Wahrscheinlichkeit man davon
ausgehen kann dass sich eine Standard-x86-CPU im Betrieb "verrechnet",
wenn man mal annimmt dass /keine/ "widrigen Bedingungen" wie zum Beispiel
hohe Temperaturen, elektromagnetische Strahlung oder extrem übertakteter
Prozessor gegeben sind. Ausserdem soll es keine der bekanntermaßen
fehlerhaften 1994er Intel Pentium-CPUs sein [1].

Ich meine mich vage erinnern zu können dass ich mal in einer c't oder so
gelesen habe dass man alle 1.000.000 Operationen mit einem Fehler rechnen
kann, finde aber keine Quelle... Hat jemand eine Idee?

Danke & Gruss,
Timo


[1] http://www.risknews.de/Krisenmanage...112.0.html
 

Lesen sie die antworten

#1 Marcel Müller
10/04/2008 - 13:17 | Warnen spam
Hallo,

Timo Johansson schrieb:
ich suche nach einer Aussage mit welcher Wahrscheinlichkeit man davon
ausgehen kann dass sich eine Standard-x86-CPU im Betrieb "verrechnet",
wenn man mal annimmt dass /keine/ "widrigen Bedingungen" wie zum Beispiel
hohe Temperaturen, elektromagnetische Strahlung oder extrem übertakteter
Prozessor gegeben sind. Ausserdem soll es keine der bekanntermaßen
fehlerhaften 1994er Intel Pentium-CPUs sein [1].



ich denke dass die Frage in der Form weder sinnvoll gestellt, noch
sinnvoll beantwortbar ist. Das weiß nicht einmal Intel.

Ich meine mich vage erinnern zu können dass ich mal in einer c't oder so
gelesen habe dass man alle 1.000.000 Operationen mit einem Fehler rechnen
kann, finde aber keine Quelle... Hat jemand eine Idee?



Es wird immer eine Fragestellung geben, bei der diese Antwort richtig
ist. Die Kunst ist es, zu wissen welche. (In memoriam "Hitchhiker's
Guide to the Galaxy") Ich denke das zeigt schon, wie unsinnig die
Fragestellung ist.

Relevant hingegen ist, wie oft eine konkrete Anwendung fehlerhafte
Ergebnisse liefert. Dabei ist es jedoch in Gànze irrelevant, ob sich nun
eine CPU verrechnet hat, eine Hardware defekt ist oder ein
Programmfehler vorliegt. Die Wirkung ist die gleiche.
Man kann im Besonderen die ersten beiden auch gar nicht unterscheiden,
zumal eine CPU nach heutiger Denke strenggenommen spàtestens in jenem
Moment als defekt zu bezeichnen ist, wo ihr Ergebnis nicht mehr
deterministisch ist.

Ferner ist noch streng zwischen bemerkbaren und unbemerkten Fehlern zu
unterscheiden. So kann ein CPU-Fehler mit einer gewissen
Wahrscheinlichkeit zu einem Absturz führen. Das wàre ein bemerkbarer
Fehler. Ein falsches Rechenergebnis hingegen kann ein unbemerkter Fehler
werden, wenn es keine bemerkten Folgefehler oder Plausibilitàtsfehler gibt.
Es gibt auch noch die Variante, dass der Fehler überhaupt keine
Auswirkung hat. Das kommt sogar ziemlich oft vor. So werden
typischerweise nur rund die Hàlfte der Speicherzellen nach einem
Schreibzugriff jemals wieder gelesen, bevor sie wieder geschrieben (oder
ausgeschaltet) werden.


Die Angabe einer Fehlerhàufigkeit ergibt eigentlich nur dann Sinn, wenn
der Auslöser der Fehler ein (überwiegend) statistischer Prozess ist. Im
Falle von systematischen Fehlern bringt das gar nichts, weil diese nicht
statistisch vorhersehbar sind. Systematische Fehler dominieren aber
heute bei Weitem. Sei es im CPU-Design, in der Software oder sogar im
Modellierten Business-Prozess.

Anders verhàlt sich die Sache bei vorwiegend statistischen Fehlern.
Diese treten in der PC-Realitàt eigentlich nur auf, wenn schlussendlich
ein thermodynamischer oder quantenmechanischer Prozess zugrunde liegt.
Z.B. Datenübertragungsfehler auf langen Verbindungen oder Lesefehlern
auf magnetischen Datentràgern haben nicht selten thermodynamische
Ursachen, wie z.B. das Umklappen magnetischer Domànen durch den
Tunneleffekt.


Marcel

Ähnliche fragen