Zumindest darf ich diese Behauptung nach all der Zeit und Erfahrung mal aufstellen inzwischen.
Also im Klartext:
Wenn Du eine Leistungsanwendung startest auf deinem Rechner, völlig Irrelevant welcher Art dieser ist oder welches Betriebssystem Du benutzt, kannst Du mit dem widerholtem Neustart der Anwendung feststellen, das unterschiedliche Leistungsergebnisse von deiner Hardware zu erwarten sind.
Das bedeutet im Grunde, man weis nie so genau, ob der eigene Rechner nun die volle potentielle Leistung bringt oder nicht und man kann, nach meiner Meinung, auch nicht wirklich Feststellen, woran das liegt.
Ich habe viel Versucht, um mir das Neustarten meiner Anwendungen, wie bekanntlich bei mir im OpenCL Bereicht meist das Mining gemeint ist, aber auch andere Anwendungen so reagieren, zu Sparen und damit meine Zeit zu Minimieren, eine entsprechende Anwendung im Maximalbereich der potentiellen Rechenleistung laufen zu lassen.
Viele Computerspezialisten kennen dieses Verhalten auch bei Benchmarks, also Leistungsmessprogrammen. Startet man das selbe Programm zwei mal hintereinander, ist die Wahrscheinlichkeit für eine höhere Leistung beim zweiten mal größer als kleiner.
Beim Mining und sicherlich auch vielen vielen anderen Anwendungen, dürften die meist wenigen Prozent Leistungsunterschied im Gesamtbild und den Kalkulationen enorme Auswirkungen haben.
Man kann sich das so Vorstellen, als würde man nach einem Kompass einen Weg entlang laufen wollen und sich nur um ein einziges Grad dabei irren. Das kann bei längerer Strecke so große Auswirkungen haben, das man völlig Verlaufen ist am Ende.
So auch bei Rechenleistungen. Unsere Computer machen ihre Arbeit niemals Gleich, es Scheint uns nur so vorzukommen, weil die Unterschiede im Normalfall nicht "Fühlbar" sind für uns Menschen. Bei meiner Arbeit ist mir aber immer und immer wieder aufgefallen, das die Rechenleistung niemals die Gleiche ist. Egal wie sehr ich versuche sie anzugleichen, am Ende ist es für die letzten paar Prozent meiner Erwartungen schlicht ein Glücksspiel, ob sie Erfüllt werden oder Übertroffen worden sind von den Recheneinheiten meines Computers.
Am Ende einer Jahresbilanz kann bei den wenigen Prozenten der unterschiedlichen Abweichungen der Rechenleistung also ein völlig anderes Ergebnis herumkommen, als man es sich vorher ausgerechnet hat. Das klingt ein wenig Paradox wenn man bedenkt, wie genau unsere heutigen Rechenmaschienen arbeiten müssen, aber weniger, wenn man weis, wie viele Fehler sie jede Sekunde dabei produzieren.
Ich denke, das die Physik selbst dabei eine große Rolle spielt und man sich das so vorstellen kann, dass der Weg, den eine Recheneinheit zu gehen hat, besser von ihr gelaufen werden kann, wenn sie den Selben Weg vor ihrem Ausschalten schon einmal gelaufen ist.
Salve
Alucian