🔬

Visualisator Teori Informasi

Explore Shannon's entropy, channel capacity, and the mathematics that powers all digital communication

🔬 Coba sekarang

What Is Information Theory?

Information theory, founded by Claude Shannon in 1948, is the mathematical study of quantifying, storing, and communicating information. It defines entropy as the measure of uncertainty in a message — the more surprising an outcome, the more information it carries. Shannon proved that every communication channel has a maximum capacity, and that reliable transmission is possible at any rate below this limit using clever encoding.

Mengapa ini penting? Every text message, phone call, streaming video, and Wi-Fi connection relies on Shannon's theorems. Compression algorithms (ZIP, MP3, JPEG) exploit entropy to shrink data. Error-correcting codes (used in satellites, QR codes, 5G) add strategic redundancy so data survives noise. Information theory even connects to thermodynamics, machine learning, and the fundamental limits of computation.

📖 Pelajari lebih dalam

Analogi 1

Bayangkan Anda sedang memainkan 20 Pertanyaan. Jika seseorang berpikir tentang binatang, strategi terbaik Anda adalah dengan mengajukan pertanyaan yang membagi kemungkinan menjadi dua setiap kali — 'Apakah itu mamalia?' menghilangkan separuh pilihan. Teori informasi mengukur dengan tepat berapa banyak pertanyaan ya/tidak yang Anda perlukan. Pelemparan koin yang adil membutuhkan 1 pertanyaan (1 bit). Pelemparan dadu membutuhkan sekitar 2,6 pertanyaan (2,6 bit). Semakin mengejutkan hasilnya, semakin banyak informasi yang dibawanya.

Analogi 2

Bayangkan panggilan telepon yang berisik. Anda berada di restoran yang bising mencoba mendengarkan teman Anda. Shannon menunjukkan bahwa ada batas kecepatan matematis - kapasitas saluran - untuk seberapa cepat Anda dapat berbicara dan tetap dapat dipahami. Di bawah batas tersebut, pengkodean yang cerdas (seperti berbicara perlahan dan mengulangi kata kunci) memungkinkan pesan Anda tersampaikan dengan sempurna. Di atasnya, kesalahan tidak dapat dihindari, apa pun yang Anda lakukan. Setiap router Wi-Fi, menara 5G, dan layanan streaming mematuhi undang-undang ini.

🎯 Tips Simulator

Pemula

Kirim pesan sederhana dan lihat bagaimana entropi mengukur konten informasi — lebih banyak kejutan berarti lebih banyak bit.

Menengah

Tambahkan gangguan pada saluran dan amati bagaimana kode koreksi kesalahan menjaga integritas pesan.

Ahli

Dorong tingkat transmisi menuju batas Shannon dan jelajahi pertukaran kapasitas vs kesalahan.

📚 Glosarium

Entropy
Ukuran ketidakpastian atau isi informasi dalam sebuah pesan. Entropi yang lebih tinggi = lebih banyak informasi per simbol.
Bit
Digit biner — unit informasi dasar, mewakili satu pilihan biner (0 atau 1).
Shannon's Channel Capacity
Kecepatan maksimum di mana informasi dapat dikirimkan dengan andal melalui saluran komunikasi yang berisik.
Compression
Mengurangi ukuran data dengan memanfaatkan redundansi. Lossless (ZIP) menyimpan semua informasi; lossy (JPEG) membuang beberapa.
Redundancy
Informasi tambahan melebihi kebutuhan minimum, memungkinkan deteksi/koreksi kesalahan namun mengurangi efisiensi.
Mutual Information
Ukuran informasi yang dibagikan antara dua variabel — seberapa banyak pengetahuan yang satu dapat menjelaskan tentang variabel lainnya.
Kullback-Leibler Divergence
Mengukur perbedaan suatu distribusi probabilitas dengan distribusi referensi. Dasar dalam ML.
Error Correction
Menambahkan bit berlebihan untuk mendeteksi dan memperbaiki kesalahan transmisi (kode Hamming, Reed-Solomon, LDPC).
Source Coding Theorem
Teorema Shannon: data dapat dikompresi hingga tingkat entropinya tetapi tidak lebih rendah tanpa kehilangan informasi.
Noisy Channel Theorem
Teorema Shannon: komunikasi yang andal dimungkinkan pada kecepatan di bawah kapasitas saluran.

🏆 Tokoh Utama

Claude Shannon (1948)

Mendirikan teori informasi dengan 'A Mathematical Theory of Communication', yang mendefinisikan entropi dan kapasitas saluran

Richard Hamming (1950)

Membuat kode Hamming untuk deteksi/koreksi kesalahan, dasar komunikasi digital

Solomon Kullback (1951)

Divergensi KL dikembangkan bersama, ukuran mendasar yang digunakan secara luas dalam pembelajaran mesin

Abraham Lempel & Jacob Ziv (1977)

Menemukan algoritma kompresi LZ (LZ77, LZ78) yang mendasari format ZIP, GIF, PNG

David Huffman (1952)

Menemukan pengkodean bebas awalan yang optimal (pengkodean Huffman) sebagai mahasiswa MIT

🎓 Sumber Belajar

💬 Pesan untuk Pelajar

Jelajahi dunia visualisator teori informasi yang menakjubkan. Setiap penemuan dimulai dengan rasa ingin tahu!

Mulai

Gratis, tanpa daftar

Mulai →