Skip to main content

ASCII-Code

Was ist ein ASCII-Code?

Der Begriff ASCII steht als Abkürzung für “American Standard Code for Information Interchange” und stammt aus dem IT-Umfeld. Es handelt sich um ein Vorgehen, mit dem natürliche Sprache in Binärcode umgewandelt werden kann. Unter Binärcode versteht man eine computerlesbare Sprache, eine Kombination der Bits 0 und 1. Nur mit diesen beiden Bits können Informationen von einem Prozessor verarbeitet und auf einem Datenträger gespeichert werden. Natürliche Sprache besteht dagegen aus Buchstaben, etwa dem lateinischen Alphabet. Das Ziel besteht nun darin, Buchstaben in Form von aneinandergereihten Bits auszudrücken.

ASCII-Code als Standardisierung

In der IT-Welt haben sich Entwickler darauf geeinigt, Buchstaben des Alphabets nach festen Regeln in Binärform zu repräsentieren. So soll eine Folge von 7 Bits bestehend aus einer 0 oder einer 1 genau einen Buchstaben repräsentieren. Mit 7 Bits ergeben sich 128 Möglichkeiten. Damit können alle Buchstaben, Satzzeichen und Sonderzeichen unterschieden werden. Jedem Buchstaben wird eine Kombination zugeordnet. ASCII ist eine Standardisierung zur Unterscheidung von 128 Zeichen, die die American Standards Association (ASA) im Jahr 1963 entwickelt hat.

Die Zeichenkodierung unterteilt sich in 95 druckbare und 33 nicht druckbare Zeichen. Die druckbaren Zeichen codieren das lateinische Alphabet jeweils in Groß- und Kleinschreibung. Hinzu kommen 10 arabische Ziffern zur Wiedergabe von Zahlen und Interpunktionszeichen, insbesondere Satzzeichen und Wortzeichen. Zuletzt zählen zu den druckbaren Zeichen der ASCII-Standardisierung auch einige Sonderzeichen. Bei den nicht druckbaren Zeichen handelt es sich um Steuerzeichen. Dazu zählt der Zeilenvorschub und der Tabulator. Hinzu kommen Protokollzeichen, die etwa Übertragungsbeginn und Übertragungsende kennzeichnen.

Beispiel

Der Buchstabe ‘S’ wird in ‘01110011’ umgewandelt.
‘01110011 01101111 01110011’ ist ein bekannter Binärausdruck und steht für ‘SOS’.

Erweiterungen

Zwar benötigt der ASCII-Code nur 7 Bits zur Codierung, allerdings wurden Zeichen in ASCII stets mit 8 Bits übertragen. Ursprünglich diente das achte Bit als Paritätsbit. Bei einem Paritätsbit handelt es sich um eine Fehlerkorrektur, mit der eine fehlerhafte Übertragung geprüft werden konnte. In den Jahren 1967 und 1968 hat man den ASCII-Code aktualisiert, um mehr Zeichen repräsentieren zu können. Dazu wurde das achte Bit zur Codierung von 128 weiteren Zeichen eingesetzt. Dennoch reicht der Zeichenvorrat nicht aus, um alle Zeichen der menschlichen Schriftkultur unterzubringen. Daraus ergaben sich verschiedene Erweiterungen. Verbreitet ist der Unicode, der 32 Bit verwendet und über 4 Milliarden Zeichen unterscheiden kann. Mit dem Transformationsprotokoll lässt sich Unicode in eine 8-Bit-Kodierung umwandeln und damit wieder in ASCII-Code wiedergeben.

Sie haben noch Fragen?

Kontaktieren Sie uns

Kostenloser SEO-Check der OSG