Cache

Cache

Copyright © Shutterstock/Primakov

Was bedeutet Cache?

Grundsätzlich bezeichnet der Cache einen Zwischenspeicher. Dieser kann sich auf verschiedene Einheiten beziehen, beispielsweise Webbrowser, Server oder PCs. Der Zwischenspeicher ermöglicht einen schnellen Datenzugriff. Daher kommt er insbesondere im Zusammenhang mit häufig und kurzfristig bereitgestellten Informationen zum Einsatz.

Dank des Caches müssen diese Daten nicht erneut mit jedem Aufruf geladen werden. Somit können beispielsweise Login-Informationen sofort bereitgestellt werden. Der Caching-Prozess spielt sich typischerweise ohne Mitwissen des Users im Hintergrund ab. Der Cache wird auch als Puffer-Speicher bezeichnet.

Überblick und Allgemeines

Als Zwischenspeicher stellt der Cache einen schnellen Puffer-Speicher dar. Bei der Datenverarbeitung durch Prozessoren nehmen diese zunächst den Zwischenspeicher wahr. Prozessoren von Computern können auf diesen schneller zugreifen als auf den Arbeitsspeicher (RAM). Findet der Mikroprozessor Daten im Zwischenspeicher, die beispielsweise von einem früheren Aufruf stammen, so entfällt die Notwendigkeit der zeitraubenden Recherche nach diesen Informationen im Arbeitsspeicher.

Der Zwischenspeicher lässt sich in verschiedene Hierarchiestufen einteilen. Dies geschieht unter Berücksichtigung der Größe, der Zugriffszeit und der Nähe zum Mikroprozessor des Computers. Hierbei gilt grundsätzlich, dass kleinere Nummern einen jeweils kleineren und schnelleren Zwischenspeicher bezeichnen. So bezeichnet ein Level-1-Cache den schnellsten, gleichermaßen aber auch den kleinsten zur Verfügung stehenden Zwischenspeicher.

Analog zum Zwischenspeicher an sich lässt sich auch der Arbeitsspeicher als eine Art Cache-Speicher betrachten. Er bezieht sich auf die Festplatte und dient dieser ebenso als Art Puffer, da alle Inhalte des RAM zunächst von der Festplatte stammen. Beim Einschalten eines PCs und beim Laden eines Betriebssystems beispielsweise werden die Daten der Festplatte zunächst in den Arbeitsspeicher gerufen. Ebenso geschieht dies beim Aufruf von Programmen und beim Zugriff auf neue Informationen.

Arbeitsspeicher beinhalten häufig einen eigenen Disk-Zwischenspeicher, das heißt einen speziellen Bereich, der die Informationen enthält, die am häufigsten von der Festplatte gelesen werden.

Arten und Typen

Grob lassen sich im Hinblick auf die verschiedenen Zwischenspeicher-Arten der Write-around, der Write-through und der Write-back unterscheiden.

Write-around

Ein Write-around zeichnet sich dadurch aus, Schreiboperationen in das Storage zu schreiben und damit den Zwischenspeicher zu umgehen.

Pro
  • Dies birgt den Vorteil, dass der Zwischenspeicher nicht ausgelastet ist, wenn mehrere Schreiboperationen anstehen.
Contra
  • Nachteilig ist die Tatsache, dass die Daten erst aus dem Storage gelesen werden müssen, um wieder in den Cache zu gelangen. Das Lesen der Informationen erfolgt daher zunächst etwas langsamer.

Write-through

Ein Write-through schreibt die Daten hingegen sowohl in den Zwischenspeicher als auch in den Festplattenspeicher.

Pro
  • Dies hat zur Folge, dass Informationen besonders schnell gelesen werden können, da sie sich als neu geschriebene Daten stets im Zwischenspeicher befinden.
Contra
  • Die Schreibprozesse erfolgen jedoch verzögert, da sie erst unter der Voraussetzung als beendet gelten, wenn sie sowohl im Cache als auch im primären Speicher abgelegt worden sind.

Write-back

Wie bei der Write-through-Variante gehen auch beim Write-back-Zwischenspeicher sämtliche Schreiboperationen in den Cache. Jedoch gelten hier die Schreibprozesse als beendet, sobald die Informationen im Zwischenspeicher liegen. Im Anschluss erfolgt die Kopie in den primären Speicher.

Pro
  • Die Write-back-Variante zeichnet sich durch eine sehr geringe Verzögerungszeit sowohl für die Schreib- als auch für die Leseprozesse aus.
Contra
  • Da eine Schreiboperation jedoch mit der Aufnahme in den Cache als beendet gilt, ist Datenverlust möglich, sofern die Daten noch nicht im primären Speicher liegen.

Caching-Algorithmen

Aufgabe der Caching-Algorithmen ist es, Anweisungen bezüglich der Wartung des Caches zu geben. Die wesentlichen Zwischenspeicher-Algorithmen umfassen den most recently used (MRU), den least frequently used (LFU) sowie den least recently used (LRU).

  • Beim MRU werden die zuletzt genutzten Daten zuerst entfernt. Damit ist dieser Algorithmus besonders in solchen Situationen empfehlenswert, in denen häufiger ältere Informationen und Daten abgerufen werden.
  • Der LFU entfernt denjenigen Eintrag zuerst, der die wenigsten Zugriffe aufweist. Zu diesem Zwecke kommt ein Zähler zum Einsatz, mit dem sich die Anzahl der Abrufe eines Eintrages nachverfolgen lässt.
  • Der LRU-Algorithmus entfernt beim Erreichen des Caching-Limits zunächst diejenigen Daten, die länger in der Vergangenheit liegend abgerufen wurden. Damit stehen die zuletzt verwendeten Informationen im Vordergrund.

Typische Anwendungsgebiete für Zwischenspeicher

Diese Art von Zwischenspeicher kommt in mehreren Anwendungsbereichen zum Einsatz, von denen der Festplatten-Zwischenspeicher nur einer ist. Dieser Puffer-Speicher hält die zuletzt genutzten und gelesenen Daten bereit. Ebenso stellt er angrenzende Informationen bereit, die eine hohe Wahrscheinlichkeit auf Abruf haben. Einige Arten von Festplatten-Zwischenspeicher sind auf eine Art gestaltet, dass die Daten im Hinblick auf ihre Zugriffsfrequenz vorgehalten werden.
Ein anderer Anwendungsbereich ist der Cache-Server. Hierbei handelt es sich um eine Form von dediziertem Netzwerkserver oder einen Server-Service. Dieser speichert Webinhalte, beispielsweise Seiten oder Unterseiten, lokal. Eine andere Bezeichnung lautet Proxy-Server.
Mit dem Cache-Memory wird eine Form von Speicher bezeichnet, der einem Prozessor einen schnelleren Zugriff ermöglicht, als es der reguläre Arbeitsspeicher (RAM) könnte. Sie kommt zum Einsatz, damit fortwährend abzurufende Anweisungen zwischengespeichert werden können. Cache-Memory zeichnet sich allgemein dadurch aus, unmittelbar mit der CPU verknüpft zu sein. Aufgrund dieser Nähe zu CPU ist Cache-Memory noch deutlich schneller als RAM-Zwischenspeicher.
Beim sogenannten Flash-Cache kommt es zur Zwischenspeicherung von Informationen auf NAND-Flash. Anfragen und Abrufe lassen sich auf diese Weise deutlich schneller bearbeiten, als es der reguläre Festplatten-Zwischenspeicher könnte.

Zusammenhang mit Suchmaschinen

Auch Suchmaschinen nutzen einen Puffer-Speicher für ihre Suchergebnislisten (SERP). Cache kommt hier aufgrund mehrerer Funktionen zum Einsatz.

Zum einen speichern Suchmaschinen wie Google sämtliche Webseiten-Inhalte temporär, die im Hinblick auf Suchanfragen relevant sind. Zum anderen beinhaltet der Zwischenspeicher der Suchmaschine einen Index, in dem die Suchmaschinen-Server nach den relevanten Inhalten suchen.

Diese Form von Zwischenspeicher ermöglicht es der Suchmaschine erst, innerhalb weniger Sekundenbruchteile für den User interessanten Content in den Suchergebnislisten zu liefern. Zum Auffinden wichtiger Inhalte kommen Webcrawler zum Einsatz. Nach jedem Webcrawling-Prozess speichert die Suchmaschine den gegenwärtigen Stand einer Internetseite im Cache-Speicher ab.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte