Bevor wir uns der Darstellung von Zeichen und Zahlen im Detail widmen, müssen wir zuerst verstehen, wie Daten im Rechner allgemein abgelegt werden. Bei Digitalrechnern erfolgt die Informationsdarstellung in binärer Form. Die kleinste Informationseinheit ist das Bit (engl. binary digit). Es kann zwei Zustände annehmen, die mit 0 und 1 bezeichnet werden. Technisch realisiert werden diese Zustände z.B. durch zwei unterschiedliche Spannungspegel auf einer Signalleitung oder zwei verschiedene Magnetisierungsrichtungen auf einem Informationsträger (Speichermedium). Mehrere Bits werden zu größeren Informationseinheiten zusammengefaßt. So besteht ein Halbbyte (nibble) aus 4 Bits und ein Byte aus 8 Bit. Das Byte ist heute in der Regel auch die kleinste adressierbare Speichereinheit (Speicherzelle).
Bei der Darstellung von Informationseinheiten werden die einzelnen Bits von rechts nach links, beginnend mit Null, durchnumeriert. Bit 0 wird als niedrigstwertiges Bit (LSB -- engl. least significant bit), das Bit mit dem höchsten Index als höchstwertiges Bit (MSB -- engl. most significant bit) bezeichnet:
|
Da ein Bit genau zwei verschiedene
Zustände annehmen kann, gibt es für ein Byte
genau verschiedene
Zustände (Bitmuster). Mit
Hilfe eines
Bytes lassen sich also 256 verschiedene
Gegenstände, wie Zeichen, Kommandos
oder Zahlen bezeichnen.