Skip to main content

Byte

Was ist ein Byte?

Der Begriff Byte steht für eine Maßeinheit im Bereich der Digitaltechnik sowie der Informatik und spielt so eine entscheidende Rolle bei der Datenspeicherung und bei Computern im Allgemeinen. Auf Computern werden große Mengen an Buchstaben und Zahlen gespeichert. Um diese Menge überschauen zu können, wird zu Maßeinheiten gegriffen, mit denen mehrere Einheiten gebündelt werden können. Ein Byte fasst demnach mehrere Bits zu einer Speichereinheit zusammen. Bit steht für ,,binary digit” und ist die kleinste elektronische Speichereinheit. 8 Bits ergeben ein B.

Somit ist ein Byte die kleinstmögliche Datenmenge, die es gibt. Aufgrund der zwei möglichen Zustände bei einem Bit (1 und 0) entstehen bei 8 Bits unterschiedliche Kombinationsmöglichkeiten. Jede diese Kombinationen steht dann für eine bestimmte Anzahl an Buchstaben oder für eine bestimmte mehrstellige Zahl. Eine mögliche Kombination wäre z. B.: 00000001. Diese Kombination könnte dann beispielsweise für den Buchstaben A stehen. Bytes lassen sich wiederum in größere Datenmengen umrechnen bzw. zusammenfassen:

Umrechnungen

  • 1024 Bytes entsprechen 1 Kilobyte (KB)
  • 1024 Kilobytes ergeben 1 Megabyte (MB)
  • 1024 Megabyte sind 1 Gigabyte (GB)
  • 1024 Gigabyte stehen für 1 Terabyte (TB)

Beispiel bei einer maximalen Download-Geschwindigkeit:

Bei den Datentransferraten finden Messungen normalerweise in Bits pro Sekunde statt. Die Angabe steht somit dann für die Menge an Bits, die innerhalb von 1 Sekunde von einem Speichermedium auf ein anderes übertragen werden. Die Raten werden beispielsweise bei der Geschwindigkeit einer Internetverbindung angegeben. Um diese Geschwindigkeit nun von Bits pro Sekunde in Byte pro Sekunde umzurechnen, muss die Bit-Menge durch acht geteilt werden (da 1 B = 8 Bit).

Beispiel: maximale Download-Geschwindigkeit

  • 16.000 Kilobit pro Sekunde = 2.000 Kilobytes pro Sekunde
  • 50 Megabits pro Sekunde = 6,25 Megabytes pro Sekunde
  • 1 Gigabit pro Sekunde = 0,125 Gigabytes pro Sekunde

Der Hintergrund des Begriffs

Werner Buchholz prägte erstmals im Juni 1956 den Begriff. Die Schreibweise änderte sich von Bite zu Byte, um Verwechslungen mit Bit zu vermeiden. Buchholz wollte mit dem Begriff zunächst eine Datenmenge von 1 bis 6 Bits beschreiben, jedoch hat er die Menge 2 Monate später auf 8 Bits erhöht. Dies ermöglichte erstmalig die Speicherung von Sonderzeichen in Quelltexten von Programmen. In Europa war anstelle von Bytes die Bezeichnung Oktade (aufgrund der Anzahl) geläufig, welche erstmals vom Hersteller Phillips verwendet wurde. Bis in die 1980er Jahre waren Heim-PCs mit 8-Bit-Prozessoren ausgestattet. Deren Erstellung fand dabei mit zwei hexadezimalen Ziffern statt. Diese Computer hatten zur damaligen Zeit eine weitaus geringere Rechenleistung im Vergleich zu heute.

Jedoch bestand damals nicht das Internet in seiner heutigen Form und auch Lieder und Videos waren noch nicht in ihrer digitale Fassung wie heute vorhanden, sodass diese Prozessoren vollkommen ausreichend für die gewöhnliche Verwendung waren. Danach fand rasch eine Verdopplung der Datenwörterbreite von Hardwares statt, die heute 128 Bit beträgt (von 8 auf 16, auf 32…). Mittlerweile übersteigt die Leistung von Heimcomputer die der damaliger PCs um ein Vielfaches.

Sie haben noch Fragen?

Kontaktieren Sie uns