Cache

In einem Cache werden Informationen zwischengespeichert, welche bereit einmal aufgerufen wurden. Caching verringert die Wartezeit bis die Daten geladen sind.

In der Datenverarbeitung ist ein Cache eine Hardware- oder Softwarekomponente, die häufig abgerufene Daten oder Anweisungen speichert, um die Systemleistung zu verbessern.

Ein Cache kann sich an verschiedenen Stellen innerhalb eines Systems befinden, z. B. in der CPU, auf der Festplatte oder im Netzwerk. Ein CPU-Cache ist beispielsweise ein kleiner Speicherbereich auf dem Prozessorchip, in dem häufig verwendete Daten gespeichert werden, so dass der Prozessor schneller darauf zugreifen kann, als wenn er die Daten aus dem RAM abrufen müsste.

Caching funktioniert nach dem Prinzip der Lokalität, d. h., wenn auf Daten oder Anweisungen einmal zugegriffen wurde, ist es wahrscheinlich, dass es in naher Zukunft wieder aufgerufen wird. Indem diese Daten in einem Cache gespeichert werden, kann das System sie schneller abrufen und die Wartezeit wird verkürzt.

Es gibt verschiedene Arten der Zwischenspeicherung, z. B. Lesecaches, Durchschreibcaches und Rückschreibcaches. Caching kann auch auf verschiedenen Ebenen eines Computersystems implementiert werden. Eine effektive Zwischenspeicherung kann die Systemleistung erheblich verbessern, indem die Anzahl der Daten, die aus einem langsameren Speicher oder von der Festplatte geholt werden müssen, verringert wird.