Cache

Cache

Copyright ┬ę Shutterstock/Primakov

Was bedeutet Cache?

Grunds├Ątzlich bezeichnet der Cache einen Zwischenspeicher. Dieser kann sich auf verschiedene Einheiten beziehen, beispielsweise Webbrowser, Server oder PCs. Der Zwischenspeicher erm├Âglicht einen schnellen Datenzugriff. Daher kommt er insbesondere im Zusammenhang mit h├Ąufig und kurzfristig bereitgestellten Informationen zum Einsatz. Dank des Caches m├╝ssen diese Daten nicht erneut mit jedem Aufruf geladen werden. Somit k├Ânnen beispielsweise Login-Informationen sofort bereitgestellt werden. Der Caching-Prozess spielt sich typischerweise ohne Mitwissen des Users im Hintergrund ab. Der Cache wird auch als Puffer-Speicher bezeichnet.

├ťberblick und Allgemeines

Als Zwischenspeicher stellt der Cache einen schnellen Puffer-Speicher dar. Bei der Datenverarbeitung durch Prozessoren nehmen diese zun├Ąchst den Zwischenspeicher wahr. Prozessoren von Computern k├Ânnen auf diesen schneller zugreifen als auf den Arbeitsspeicher (RAM). Findet der Mikroprozessor Daten im Zwischenspeicher, die beispielsweise von einem fr├╝heren Aufruf stammen, so entf├Ąllt die Notwendigkeit der zeitraubenden Recherche nach diesen Informationen im Arbeitsspeicher.

Der Zwischenspeicher l├Ąsst sich in verschiedene Hierarchiestufen einteilen. Dies geschieht unter Ber├╝cksichtigung der Gr├Â├če, der Zugriffszeit und der N├Ąhe zum Mikroprozessor des Computers. Hierbei gilt grunds├Ątzlich, dass kleinere Nummern einen jeweils kleineren und schnelleren Zwischenspeicher bezeichnen. So bezeichnet ein Level-1-Cache den schnellsten, gleicherma├čen aber auch den kleinsten zur Verf├╝gung stehenden Zwischenspeicher.

Analog zum Zwischenspeicher an sich l├Ąsst sich auch der Arbeitsspeicher als eine Art Cache-Speicher betrachten. Er bezieht sich auf die Festplatte und dient dieser ebenso als Art Puffer, da alle Inhalte des RAM zun├Ąchst von der Festplatte stammen. Beim Einschalten eines PCs und beim Laden eines Betriebssystems beispielsweise werden die Daten der Festplatte zun├Ąchst in den Arbeitsspeicher gerufen. Ebenso geschieht dies beim Aufruf von Programmen und beim Zugriff auf neue Informationen.

Arbeitsspeicher beinhalten h├Ąufig einen eigenen Disk-Zwischenspeicher, das hei├čt einen speziellen Bereich, der die Informationen enth├Ąlt, die am h├Ąufigsten von der Festplatte gelesen werden.

Arten und Typen

Grob lassen sich im Hinblick auf die verschiedenen Zwischenspeicher-Arten der Write-around, der Write-through und der Write-back unterscheiden. Ein Write-around zeichnet sich dadurch aus, Schreiboperationen in das Storage zu schreiben und damit den Zwischenspeicher zu umgehen.

Pro
  • Dies birgt den Vorteil, dass der Zwischenspeicher nicht ausgelastet ist, wenn mehrere Schreiboperationen anstehen.
Contra
  • Nachteilig ist die Tatsache, dass die Daten erst aus dem Storage gelesen werden m├╝ssen, um wieder in den Cache zu gelangen. Das Lesen der Informationen erfolgt daher zun├Ąchst etwas langsamer.

 

Ein Write-through schreibt die Daten hingegen sowohl in den Zwischenspeicher als auch in den Festplattenspeicher.

Pro
  • Dies hat zur Folge, dass Informationen besonders schnell gelesen werden k├Ânnen, da sie sich als neu geschriebene Daten stets im Zwischenspeicher befinden.
Contra
  • Die Schreibprozesse erfolgen jedoch verz├Âgert, da sie erst unter der Voraussetzung als beendet gelten, wenn sie sowohl im Cache als auch im prim├Ąren Speicher abgelegt worden sind.

 

Wie bei der Write-through-Variante gehen auch beim Write-back-Zwischenspeicher s├Ąmtliche Schreiboperationen in den Cache. Jedoch gelten hier die Schreibprozesse als beendet, sobald die Informationen im Zwischenspeicher liegen. Im Anschluss erfolgt die Kopie in den prim├Ąren Speicher.

Pro
  • Die Write-back-Variante zeichnet sich durch eine sehr geringe Verz├Âgerungszeit sowohl f├╝r die Schreib- als auch f├╝r die Leseprozesse aus.
Contra
  • Da eine Schreiboperation jedoch mit der Aufnahme in den Cache als beendet gilt, ist Datenverlust m├Âglich, sofern die Daten noch nicht im prim├Ąren Speicher liegen.

Caching-Algorithmen

Aufgabe der Caching-Algorithmen ist es, Anweisungen bez├╝glich der Wartung des Caches zu geben. Die wesentlichen Zwischenspeicher-Algorithmen umfassen den most recently used (MRU), den least frequently used (LFU) sowie den least recently used (LRU).

  • Beim MRU werden die zuletzt genutzten Daten zuerst entfernt. Damit ist dieser Algorithmus besonders in solchen Situationen empfehlenswert, in denen h├Ąufiger ├Ąltere Informationen und Daten abgerufen werden.
  • Der LFU entfernt denjenigen Eintrag zuerst, der die wenigsten Zugriffe aufweist. Zu diesem Zwecke kommt ein Z├Ąhler zum Einsatz, mit dem sich die Anzahl der Abrufe eines Eintrages nachverfolgen l├Ąsst.
  • Der LRU-Algorithmus entfernt beim Erreichen des Caching-Limits zun├Ąchst diejenigen Daten, die l├Ąnger in der Vergangenheit liegend abgerufen wurden. Damit stehen die zuletzt verwendeten Informationen im Vordergrund.

Typische Anwendungsgebiete f├╝r Zwischenspeicher

Diese Art von Zwischenspeicher kommt in mehreren Anwendungsbereichen zum Einsatz, von denen der Festplatten-Zwischenspeicher nur einer ist. Dieser Puffer-Speicher h├Ąlt die zuletzt genutzten und gelesenen Daten bereit. Ebenso stellt er angrenzende Informationen bereit, die eine hohe Wahrscheinlichkeit auf Abruf haben. Einige Arten von Festplatten-Zwischenspeicher sind auf eine Art gestaltet, dass die Daten im Hinblick auf ihre Zugriffsfrequenz vorgehalten werden.
Ein anderer Anwendungsbereich ist der Cache-Server. Hierbei handelt es sich um eine Form von dediziertem Netzwerkserver oder einen Server-Service. Dieser speichert Webinhalte, beispielsweise Seiten oder Unterseiten, lokal. Eine andere Bezeichnung lautet Proxy-Server.
Mit dem Cache-Memory wird eine Form von Speicher bezeichnet, der einem Prozessor einen schnelleren Zugriff erm├Âglicht, als es der regul├Ąre Arbeitsspeicher (RAM) k├Ânnte. Sie kommt zum Einsatz, damit fortw├Ąhrend abzurufende Anweisungen zwischengespeichert werden k├Ânnen. Cache-Memory zeichnet sich allgemein dadurch aus, unmittelbar mit der CPU verkn├╝pft zu sein. Aufgrund dieser N├Ąhe zu CPU ist Cache-Memory noch deutlich schneller als RAM-Zwischenspeicher.
Beim sogenannten Flash-Cache kommt es zur Zwischenspeicherung von Informationen auf NAND-Flash. Anfragen und Abrufe lassen sich auf diese Weise deutlich schneller bearbeiten, als es der regul├Ąre Festplatten-Zwischenspeicher k├Ânnte.

Zusammenhang mit Suchmaschinen

Auch Suchmaschinen nutzen einen Puffer-Speicher f├╝r ihre Suchergebnislisten (SERP). Cache kommt hier aufgrund mehrerer Funktionen zum Einsatz. Zum einen speichern Suchmaschinen wie Google s├Ąmtliche Webseiten-Inhalte tempor├Ąr, die im Hinblick auf Suchanfragen relevant sind. Zum anderen beinhaltet der Zwischenspeicher der Suchmaschine einen Index, in dem die Suchmaschinen-Server nach den relevanten Inhalten suchen. Diese Form von Zwischenspeicher erm├Âglicht es der Suchmaschine erst, innerhalb weniger Sekundenbruchteile f├╝r den User interessanten Content in den Suchergebnislisten zu liefern. Zum Auffinden wichtiger Inhalte kommen Webcrawler zum Einsatz. Nach jedem Webcrawling-Prozess speichert die Suchmaschine den gegenw├Ąrtigen Stand einer Internetseite im Cache-Speicher ab.


Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG


Weitere Inhalte