Cache

Cache

Copyright © Shutterstock/Primakov

Was bedeutet Cache?

GrundsĂ€tzlich bezeichnet der Cache einen Zwischenspeicher. Dieser kann sich auf verschiedene Einheiten beziehen, beispielsweise Webbrowser, Server oder PCs. Der Zwischenspeicher ermöglicht einen schnellen Datenzugriff. Daher kommt er insbesondere im Zusammenhang mit hĂ€ufig und kurzfristig bereitgestellten Informationen zum Einsatz. Dank des Caches mĂŒssen diese Daten nicht erneut mit jedem Aufruf geladen werden. Somit können beispielsweise Login-Informationen sofort bereitgestellt werden. Der Caching-Prozess spielt sich typischerweise ohne Mitwissen des Users im Hintergrund ab. Der Cache wird auch als Puffer-Speicher bezeichnet.

Überblick und Allgemeines

Als Zwischenspeicher stellt der Cache einen schnellen Puffer-Speicher dar. Bei der Datenverarbeitung durch Prozessoren nehmen diese zunĂ€chst den Zwischenspeicher wahr. Prozessoren von Computern können auf diesen schneller zugreifen als auf den Arbeitsspeicher (RAM). Findet der Mikroprozessor Daten im Zwischenspeicher, die beispielsweise von einem frĂŒheren Aufruf stammen, so entfĂ€llt die Notwendigkeit der zeitraubenden Recherche nach diesen Informationen im Arbeitsspeicher.

Der Zwischenspeicher lĂ€sst sich in verschiedene Hierarchiestufen einteilen. Dies geschieht unter BerĂŒcksichtigung der GrĂ¶ĂŸe, der Zugriffszeit und der NĂ€he zum Mikroprozessor des Computers. Hierbei gilt grundsĂ€tzlich, dass kleinere Nummern einen jeweils kleineren und schnelleren Zwischenspeicher bezeichnen. So bezeichnet ein Level-1-Cache den schnellsten, gleichermaßen aber auch den kleinsten zur VerfĂŒgung stehenden Zwischenspeicher.

Analog zum Zwischenspeicher an sich lÀsst sich auch der Arbeitsspeicher als eine Art Cache-Speicher betrachten. Er bezieht sich auf die Festplatte und dient dieser ebenso als Art Puffer, da alle Inhalte des RAM zunÀchst von der Festplatte stammen. Beim Einschalten eines PCs und beim Laden eines Betriebssystems beispielsweise werden die Daten der Festplatte zunÀchst in den Arbeitsspeicher gerufen. Ebenso geschieht dies beim Aufruf von Programmen und beim Zugriff auf neue Informationen.

Arbeitsspeicher beinhalten hĂ€ufig einen eigenen Disk-Zwischenspeicher, das heißt einen speziellen Bereich, der die Informationen enthĂ€lt, die am hĂ€ufigsten von der Festplatte gelesen werden.

Arten und Typen

Grob lassen sich im Hinblick auf die verschiedenen Zwischenspeicher-Arten der Write-around, der Write-through und der Write-back unterscheiden. Ein Write-around zeichnet sich dadurch aus, Schreiboperationen in das Storage zu schreiben und damit den Zwischenspeicher zu umgehen.

Pro
  • Dies birgt den Vorteil, dass der Zwischenspeicher nicht ausgelastet ist, wenn mehrere Schreiboperationen anstehen.
Contra
  • Nachteilig ist die Tatsache, dass die Daten erst aus dem Storage gelesen werden mĂŒssen, um wieder in den Cache zu gelangen. Das Lesen der Informationen erfolgt daher zunĂ€chst etwas langsamer.

 

Ein Write-through schreibt die Daten hingegen sowohl in den Zwischenspeicher als auch in den Festplattenspeicher.

Pro
  • Dies hat zur Folge, dass Informationen besonders schnell gelesen werden können, da sie sich als neu geschriebene Daten stets im Zwischenspeicher befinden.
Contra
  • Die Schreibprozesse erfolgen jedoch verzögert, da sie erst unter der Voraussetzung als beendet gelten, wenn sie sowohl im Cache als auch im primĂ€ren Speicher abgelegt worden sind.

 

Wie bei der Write-through-Variante gehen auch beim Write-back-Zwischenspeicher sÀmtliche Schreiboperationen in den Cache. Jedoch gelten hier die Schreibprozesse als beendet, sobald die Informationen im Zwischenspeicher liegen. Im Anschluss erfolgt die Kopie in den primÀren Speicher.

Pro
  • Die Write-back-Variante zeichnet sich durch eine sehr geringe Verzögerungszeit sowohl fĂŒr die Schreib- als auch fĂŒr die Leseprozesse aus.
Contra
  • Da eine Schreiboperation jedoch mit der Aufnahme in den Cache als beendet gilt, ist Datenverlust möglich, sofern die Daten noch nicht im primĂ€ren Speicher liegen.

Caching-Algorithmen

Aufgabe der Caching-Algorithmen ist es, Anweisungen bezĂŒglich der Wartung des Caches zu geben. Die wesentlichen Zwischenspeicher-Algorithmen umfassen den most recently used (MRU), den least frequently used (LFU) sowie den least recently used (LRU).

  • Beim MRU werden die zuletzt genutzten Daten zuerst entfernt. Damit ist dieser Algorithmus besonders in solchen Situationen empfehlenswert, in denen hĂ€ufiger Ă€ltere Informationen und Daten abgerufen werden.
  • Der LFU entfernt denjenigen Eintrag zuerst, der die wenigsten Zugriffe aufweist. Zu diesem Zwecke kommt ein ZĂ€hler zum Einsatz, mit dem sich die Anzahl der Abrufe eines Eintrages nachverfolgen lĂ€sst.
  • Der LRU-Algorithmus entfernt beim Erreichen des Caching-Limits zunĂ€chst diejenigen Daten, die lĂ€nger in der Vergangenheit liegend abgerufen wurden. Damit stehen die zuletzt verwendeten Informationen im Vordergrund.

Typische Anwendungsgebiete fĂŒr Zwischenspeicher

Diese Art von Zwischenspeicher kommt in mehreren Anwendungsbereichen zum Einsatz, von denen der Festplatten-Zwischenspeicher nur einer ist. Dieser Puffer-Speicher hÀlt die zuletzt genutzten und gelesenen Daten bereit. Ebenso stellt er angrenzende Informationen bereit, die eine hohe Wahrscheinlichkeit auf Abruf haben. Einige Arten von Festplatten-Zwischenspeicher sind auf eine Art gestaltet, dass die Daten im Hinblick auf ihre Zugriffsfrequenz vorgehalten werden.
Ein anderer Anwendungsbereich ist der Cache-Server. Hierbei handelt es sich um eine Form von dediziertem Netzwerkserver oder einen Server-Service. Dieser speichert Webinhalte, beispielsweise Seiten oder Unterseiten, lokal. Eine andere Bezeichnung lautet Proxy-Server.
Mit dem Cache-Memory wird eine Form von Speicher bezeichnet, der einem Prozessor einen schnelleren Zugriff ermöglicht, als es der regulĂ€re Arbeitsspeicher (RAM) könnte. Sie kommt zum Einsatz, damit fortwĂ€hrend abzurufende Anweisungen zwischengespeichert werden können. Cache-Memory zeichnet sich allgemein dadurch aus, unmittelbar mit der CPU verknĂŒpft zu sein. Aufgrund dieser NĂ€he zu CPU ist Cache-Memory noch deutlich schneller als RAM-Zwischenspeicher.
Beim sogenannten Flash-Cache kommt es zur Zwischenspeicherung von Informationen auf NAND-Flash. Anfragen und Abrufe lassen sich auf diese Weise deutlich schneller bearbeiten, als es der regulÀre Festplatten-Zwischenspeicher könnte.

Zusammenhang mit Suchmaschinen

Auch Suchmaschinen nutzen einen Puffer-Speicher fĂŒr ihre Suchergebnislisten (SERP). Cache kommt hier aufgrund mehrerer Funktionen zum Einsatz. Zum einen speichern Suchmaschinen wie Google sĂ€mtliche Webseiten-Inhalte temporĂ€r, die im Hinblick auf Suchanfragen relevant sind. Zum anderen beinhaltet der Zwischenspeicher der Suchmaschine einen Index, in dem die Suchmaschinen-Server nach den relevanten Inhalten suchen. Diese Form von Zwischenspeicher ermöglicht es der Suchmaschine erst, innerhalb weniger Sekundenbruchteile fĂŒr den User interessanten Content in den Suchergebnislisten zu liefern. Zum Auffinden wichtiger Inhalte kommen Webcrawler zum Einsatz. Nach jedem Webcrawling-Prozess speichert die Suchmaschine den gegenwĂ€rtigen Stand einer Internetseite im Cache-Speicher ab.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte