Bit

Dieser Artikel beschäftigt sich mit dem Bit als Informationseinheit. Für weitere Bedeutungen des Wortes Bit siehe Bit (Begriffsklärung)


Das Bit ist die kleinste Einheit der Information. Es ist ein Kurzwort aus binary digit (Binärziffer). Der Begriff wurde von dem Mathematiker John W. Tukey (vermutlich 1946, nach anderen Quellen schon 1943) vorgeschlagen. Schriftlich wurde der Begriff 1948 zum ersten Mal auf Seite 1 von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication erwähnt.

Jede Information ist an einen Informationsträger gebunden. Die Informationsmenge 1 Bit entspricht einer einfachen Ja-Nein-Entscheidung, die man sich auch durch

  • die Stellung eines Schalters mit zwei Zuständen (Lichtschalter, EIN oder AUS),
  • den Schaltzustand eines Transistors (leitend oder nichtleitend),
  • das Vorhandensein einer Spannung (größer oder kleiner als vorgegebene Grenzwerte),
  • die logischen Wahrheitswerte (Wahr oder Falsch, high oder low, H oder L)

repräsentiert denken kann.

Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet, da ein Bit in der Anwendung von einem physikalischen Element (z.B. dem erwähnten Transistor) dargestellt wird, welches einen bestimmten Zustand besitzt. Werden mehrere Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit vom Zustand jedes einzelnen Elements ab und es ergeben sich wiederum mehrere verschieden Zustände dieser Einheit.

Mit n Bits lassen sich 2n verschiedene Zustände darstellen, so ergeben bspw. 2 Bits 4 verschieden Zustände: 00, 01, 10 und 11
Weiters ergeben 4 Bits 16 mögliche Zustände, 8 Bits 256, usw.
Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände. Repräsentieren diese Zustände (ganze) Zahlen, so ist ein Bit umso gewichtiger (höherwertiger), je weiter links es in der Bitfolge steht (siehe auch Stellenwert).

Allgemein gilt in der digitalen Welt, dass es keine "unwichtigen" Bits gibt. Beispiele:

  • zwei 64 Bit-Zahlen sind ungleich, wenn sie sich auch nur im niederwertigsten Bit unterscheiden. Das führt z.B. zu einem Vertrauensproblem, wenn zwei digitalisierte Fingerabdrücke verglichen werden.
  • eine ausführbare Datei wird unbrauchbar, wenn auch nur ein Bit "kippt" (aus 0 wird fälschlich 1 oder umgekehrt).
  • Nur ein einziger Fehler in der Bitfolge eines 2048 Bit langen Schlüssels zu einem verschlüsselten Text führt unweigerlich dazu, dass sich der Text nicht mehr entschlüsseln lässt (siehe Kryptologie).
  • Bitfehler auf einer Audio-CD können toleriert werden und führen maximal zu Geräuschfehlern; auf einer Daten-CD sind sie fatal.

So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, Sein oder Nichtsein...

Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, wird damit begegnet, dass auf einigen Datenträgern und bei der Datenübertragung Informationen redundant gespeichert werden, so dass einzelne Fehler korrigiert werden können (so ist zB. auf einer CD jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen nochmal daneben als Quersumme oder Prüfsumme abgespeichert, so dass beliebige 1 mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist). Ein Nachteil dieser Speichermethode ist allerdings, dass etwas Speicherplatz verschwendet wird (CDs wären ca. 17% größer, Netzwerke 40% schneller, Mobiltelefone 200% (bei den letzten beiden unterschiedlich je nach Typ)). Später kann der Empfänger anhand dieser gespeicherten und ebenfalls mitgeteilten Prüfsumme durch erneute Berechnung verifizieren, dass die Datei oder Nachricht nicht manipuliert oder durch einen Übertragungsfehler beschädigt wurde und ggf. die Originalinformation rekonstruieren.

Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits, so dass andere Einheiten üblich sind. Die nächst größere Einheit ist das Byte (8 Bit, gelegentlich auch als Oktett bezeichnet). Allgemein gebräuchlich das Byte und die Verwendung der SI-Bezeichnungen Kilo, Mega, Giga und Tera um entsprechend große Informationsmengen und Adressräume zu bezeichnen. Allerdings wird hier nicht jeweils in Vielfachen von 1000 (kilo), sondern in Vielfachen von 210, also von 1024(Kilo) gerechnet (manchmal wird dieser geringe Unterschied aber nicht so genau genommen).

Ein Beispiel aus der Praxis:

die Kapazität einer CD-ROM wird z. B. mit 640 MB (Mega-Byte) angegeben. Das wären 640 × 1024 × 1024 × 8 = 5.368.709.120 Bit.

Tatsächlich wird auf der CD jedes einzelne Bit durch eine kleine, eingeprägte (oder mit einem Laser-Strahl erzeugte) Vertiefung (Pit) dargestellt. Das Nicht-Vorhandensein oder Vorhandensein solcher Vertiefungen (Land) an bestimmten Stellen entspricht hier aber nicht den Bit-Informationen 0 und 1, sondern der Übergang von Pit zu Land kennzeichnet eine 1. Damit längere gleiche Folgen hierbei keine Probleme machen, besteht ein Byte auf einer CD aus 14 Bits.

Genau genommen muss man aber für die Verwendung der SI-Präfixe Kilo, Mega, Giga und Tera jeweils einen Faktor von 1000 annehmen, nicht 1024. Will man 1024 Bytes angeben, so kann man dafür 1 KiB (Kibibyte), für 1024 × 1024 Bytes 1 MiB (Mebibyte), für 1024 × 1024 × 1024 1 GiB (Gibibyte) und für 1024 × 1024 × 1024 × 1024 1 TiB (Tebibyte) angeben. Jedoch hat sich diese Notation noch nicht durchgesetzt.

Das Bit muss unterschieden werden vom Qubit, das in der Quanteninformationstheorie verwendet wird.