Dies ist eine alte Version des Dokuments!
Codierung von Informationen
Darstellung von Zeichen im Computer
Aus dem Informatikunterricht sind dir die digitalen Speichereinheiten bekannt. Als kleinste Einheit kennst du das Bit, welches die Werte 0 und 1 annehmen kann.
$$\begin{array}{rcl} 8 \text{Bit} & = & 1 \text{Byte} \\ 1024 \text{ Byte} & = & 1 \text{ KByte} \\ 1024 \text{ KByte} & = & 1 \text{ MByte} \\ 1024 \text{ MByte} & = & 1 \text{ GByte} \\ 1024 \text{ GByte} & = & 1 \text{ TByte} \\ \end{array}$$
Die Speichereinheit 1 Byte entstand ursprünglich, um ein Zeichen der der amerikanischen Tastatur darzustellen. Dazu verwendete man den ASCII-Code. Zur Zeichendarstellung verwendete man nur die letzten sieben Bits. Das erste Bit war ein sogenanntes Kontrollbit. Es wurde so gesetzt, dass in einem Byte zur Zeichendarstellung immer eine gerade Anzahl von Einsen vorkommt.
Später mussten weitere Zeichen (z.B. die deutschen Umlaute) dargestellt werden. Deshalb verwendete man auch das erste Bit zur Zeichendarstellung. Wenn das erste Bit auf Null gesetzt ist, werden die bisherigen 128 Zeichen des ASCII-Codes codiert.
In der folgenden PDF-Datei sind die ersten 128 Zeichen des ASCII-Codes dargestellt: