Was ist Informationstheorie?
Die Informationstheorie, 1948 von Claude Shannon begründet, ist die mathematische Untersuchung der Quantifizierung, Speicherung und Übertragung von Information.
Warum ist das wichtig? Jede Textnachricht, jeder Anruf, jedes Streaming-Video und jede WLAN-Verbindung beruht auf Shannons Theoremen.
📖 Vertiefung
Analogie 1
Stellen Sie sich vor, Sie spielen 20 Fragen. Wenn jemand an ein Tier denkt, besteht die beste Strategie darin, Fragen zu stellen, die die Möglichkeiten jedes Mal in zwei Hälften teilen: „Ist es ein Säugetier?“ eliminiert die Hälfte der Optionen. Die Informationstheorie misst genau, wie viele Ja/Nein-Fragen Sie benötigen. Für einen fairen Münzwurf ist 1 Frage (1 Bit) erforderlich. Ein Würfelwurf benötigt etwa 2,6 Fragen (2,6 Bit). Je überraschender das Ergebnis, desto mehr Informationen enthält es.
Analogie 2
Denken Sie an einen lauten Telefonanruf. Sie sind in einem lauten Restaurant und versuchen, Ihren Freund zu hören. Shannon zeigte, dass es eine mathematische Geschwindigkeitsbegrenzung gibt – die Kanalkapazität – dafür, wie schnell man sprechen und trotzdem verstanden werden kann. Unterhalb dieser Grenze sorgt eine clevere Codierung (z. B. langsames Sprechen und Wiederholen von Schlüsselwörtern) dafür, dass Ihre Botschaft perfekt ankommt. Darüber hinaus sind Fehler unvermeidbar, egal was Sie tun. Jeder WLAN-Router, 5G-Turm und Streaming-Dienst befolgt dieses Gesetz.
🎯 Simulator-Tipps
Anfänger
Senden Sie eine einfache Nachricht und beobachten Sie, wie die Entropie den Informationsgehalt misst – mehr Überraschung bedeutet mehr Bits.
Mittelstufe
Fügen Sie dem Kanal Rauschen hinzu und beobachten Sie, wie Fehlerkorrekturcodes die Nachrichtenintegrität aufrechterhalten.
Experte
Steigern Sie die Übertragungsraten in Richtung der Shannon-Grenze und erkunden Sie den Kompromiss zwischen Kapazität und Fehler.
📚 Glossar
🏆 Schlüsselpersonen
Claude Shannon (1948)
Begründete die Informationstheorie mit „A Mathematical Theory of Communication“ und definierte Entropie und Kanalkapazität
Richard Hamming (1950)
Erstellte Hamming-Codes zur Fehlererkennung/-korrektur, die für die digitale Kommunikation von grundlegender Bedeutung sind
Solomon Kullback (1951)
Mitentwickelte KL-Divergenz, ein grundlegendes Maß, das häufig beim maschinellen Lernen verwendet wird
Abraham Lempel & Jacob Ziv (1977)
Erfand LZ-Komprimierungsalgorithmen (LZ77, LZ78), die den Formaten ZIP, GIF und PNG zugrunde liegen
David Huffman (1952)
Erfand als MIT-Student die optimale präfixfreie Codierung (Huffman-Codierung).
🎓 Lernressourcen
- A Mathematical Theory of Communication [paper]
Das Gründungspapier der Informationstheorie (Bell System Technical Journal, 1948) - Elements of Information Theory [paper]
Das Standardlehrbuch zur Informationstheorie, das weltweit in Graduiertenprogrammen verwendet wird - Information Theory Society [article]
IEEE-Gesellschaft, die sich der Forschung und Ausbildung im Bereich Informationstheorie widmet - Visual Information Theory [article]
Wunderschön visualisierte Einführung in die Konzepte der Informationstheorie