🔬

Lý thuyết thông tin

Explore Shannon's entropy, channel capacity, and the mathematics that powers all digital communication

🔬 Thử ngay

What Is Information Theory?

Information theory, founded by Claude Shannon in 1948, is the mathematical study of quantifying, storing, and communicating information. It defines entropy as the measure of uncertainty in a message — the more surprising an outcome, the more information it carries. Shannon proved that every communication channel has a maximum capacity, and that reliable transmission is possible at any rate below this limit using clever encoding.

Why does this matter? Every text message, phone call, streaming video, and Wi-Fi connection relies on Shannon's theorems. Compression algorithms (ZIP, MP3, JPEG) exploit entropy to shrink data. Error-correcting codes (used in satellites, QR codes, 5G) add strategic redundancy so data survives noise. Information theory even connects to thermodynamics, machine learning, and the fundamental limits of computation.

📖 Tìm hiểu sâu

Ví dụ 1

Hãy tưởng tượng bạn đang chơi 20 câu hỏi. Nếu ai đó nghĩ về một con vật, chiến lược tốt nhất của bạn là đặt những câu hỏi chia đôi khả năng mỗi lần - 'Đó có phải là động vật có vú không?' loại bỏ một nửa các lựa chọn. Lý thuyết thông tin đo lường chính xác số lượng câu hỏi có/không mà bạn cần. Việc lật đồng xu công bằng cần có 1 câu hỏi (1 bit). Một lần tung xúc xắc cần khoảng 2,6 câu hỏi (2,6 bit). Kết quả càng đáng ngạc nhiên thì càng mang nhiều thông tin.

Ví dụ 2

Hãy nghĩ về một cuộc điện thoại ồn ào. Bạn đang ở trong một nhà hàng ồn ào, cố gắng lắng nghe bạn mình. Shannon đã chỉ ra rằng có một giới hạn tốc độ toán học – dung lượng kênh – đối với tốc độ bạn có thể nói mà vẫn có thể hiểu được. Dưới giới hạn đó, tính năng mã hóa thông minh (như nói chậm và lặp lại các từ khóa) sẽ giúp thông điệp của bạn được truyền tải một cách hoàn hảo. Trên hết, dù bạn có làm gì thì cũng không thể tránh khỏi sai sót. Mọi bộ định tuyến Wi-Fi, tháp 5G và dịch vụ phát trực tuyến đều tuân theo luật này.

🎯 Mẹo sử dụng

Người mới

Gửi một tin nhắn đơn giản và xem cách entropy đo lường nội dung thông tin - càng ngạc nhiên nghĩa là càng nhiều bit.

Trung cấp

Thêm nhiễu vào kênh và quan sát cách mã sửa lỗi duy trì tính toàn vẹn của tin nhắn.

Chuyên gia

Đẩy tốc độ truyền về phía giới hạn Shannon và khám phá sự cân bằng giữa dung lượng và lỗi.

📚 Thuật ngữ

Entropy
Đo độ không chắc chắn hoặc nội dung thông tin trong tin nhắn. Entropy cao hơn = nhiều thông tin hơn trên mỗi ký hiệu.
Bit
Chữ số nhị phân - đơn vị thông tin cơ bản, biểu thị một lựa chọn nhị phân (0 hoặc 1).
Shannon's Channel Capacity
Tốc độ tối đa mà thông tin có thể được truyền đi một cách đáng tin cậy qua kênh liên lạc ồn ào.
Compression
Giảm kích thước dữ liệu bằng cách khai thác sự dư thừa. Lossless (ZIP) lưu giữ tất cả thông tin; lossy (JPEG) loại bỏ một số.
Redundancy
Thông tin bổ sung vượt quá mức tối thiểu cần thiết, cho phép phát hiện/sửa lỗi nhưng làm giảm hiệu quả.
Mutual Information
Đo lường thông tin được chia sẻ giữa hai biến - mức độ hiểu biết của một biến về biến kia.
Kullback-Leibler Divergence
Đo lường mức độ khác biệt của một phân bố xác suất với một phân bố tham chiếu. Cơ bản trong ML.
Error Correction
Thêm bit dư thừa để phát hiện và sửa lỗi truyền tải (Mã Hamming, Reed-Solomon, LDPC).
Source Coding Theorem
Định lý Shannon: dữ liệu có thể được nén tới tốc độ entropy nhưng không thể thấp hơn mà không bị mất thông tin.
Noisy Channel Theorem
Định lý Shannon: có thể thực hiện liên lạc đáng tin cậy ở tốc độ dưới dung lượng kênh.

🏆 Nhân vật chính

Claude Shannon (1948)

Lý thuyết thông tin được thành lập với 'Lý thuyết toán học về truyền thông', xác định entropy và dung lượng kênh

Richard Hamming (1950)

Đã tạo mã Hamming để phát hiện/sửa lỗi, nền tảng cho truyền thông kỹ thuật số

Solomon Kullback (1951)

Phân kỳ KL được đồng phát triển, một thước đo cơ bản được sử dụng rộng rãi trong học máy

Abraham Lempel & Jacob Ziv (1977)

Các thuật toán nén LZ được phát minh (LZ77, LZ78) làm cơ sở cho các định dạng ZIP, GIF, PNG

David Huffman (1952)

Đã phát minh ra mã hóa không có tiền tố tối ưu (mã hóa Huffman) khi còn là sinh viên MIT

🎓 Tài nguyên học tập

💬 Lời nhắn cho người học

Khám phá thế giới hấp dẫn của công cụ trực quan hóa lý thuyết thông tin. Mọi khám phá đều bắt đầu bằng sự tò mò!

Bắt đầu

Miễn phí, không cần đăng ký

Bắt đầu →