TIN HỌC ĐẠI CƯƠNG (TẬP 1)

Chia sẻ bởi Đỗ Trung Thành | Ngày 14/10/2018 | 28

Chia sẻ tài liệu: TIN HỌC ĐẠI CƯƠNG (TẬP 1) thuộc Tư liệu tham khảo

Nội dung tài liệu:

CHƯƠNG 1
THÔNG TIN VÀ XỬ LÝ THÔNG TIN
 
I. THÔNG TIN
1. Khái niệm về thông tin, phân loại thông tin
Dữ liệu (data) là các sự kiện không có cấu trúc, không có ý nghĩa rõ ràng, cho đến khi chúng được tổ chức theo một tiến trình tính toán nào đó.
Thông tin (Information) là một khái niệm trừu tượng được thể hiện qua các thông báo, các biểu hiện ... đem lại một nhận thức chủ quan cho một đối tượng nhận tin. Thông tin là dữ liệu đã được xử lý xong, mang ý nghĩa rõ ràng. Thông tin cũng có thể bị diễn đạt sai lệch, xuyên tạc do tác động cố ý hay vô ý của con người hay sinh vật khác.
Một hệ thống thông tin (information system) là một tiến trình ghi nhận dữ liệu, xử lý nó và cung cấp tạo nên dữ liệu mới có ý nghĩa thông tin, liên quan một phần đến một tổ chức, để trợ giúp các hoạt động liên quan đến tổ chức. 

2. Ðơn vị đo thông tin
Ðơn vị dùng để đo thông tin gọi là bit. Một bit tương ứng với một chỉ thị hoặc một thông báo nào đó về 1 sự kiện có trong 2 trạng thái có số đo khả năng xuất hiện động thời là Tắt(Off) / Mở(On) hay Ðúng(True) / Sai(False).
Ví dụ 1. Một mạch đèn có 2 trạng thái là:
- Tắt (Off) khi mạch điện qua công tắc là hở
- Mở (On) khi mạch điện qua công tắc là đóng
Số học nhị phân (sẽ giới thiệu ở chương 3) sử dụng hai số hạng 0 và 1. Vì khả năng sử dụng hai số 0 và 1 là như nhau nên một chỉ thị chỉ gồm 1 chữ số nhị phân có thể xem như là chứa đơn vị thông tin nhỏ nhất.
Bit là chữ viết tắt của Binary digiT. Trong tin học, người ta thường sử dụng các đơn vị đo thông tin lớn hơn sau:
Bảng 1. Bảng đơn vị đo thông tin
Tên gọi
Ký hiệu
Giá trị

Byte
KiloByte
MegaByte
GigaByte
TetraByte
B
KB
MB
GB
TB
8 bit
210 B = 1024 Bytes
220 B
230 B
240 B

  Năm 1948, nhà bác học Shannon đã đưa ra công thức sau để tính lượng thông tin, bằng cách đo khả năng xuất hiện các sự kiện trong một thông báo, ký hiệu là H và gọi là Entropi :  

trong đó : 
                n là số sự kiện lớn nhất có khả năng xuất hiện
Ví dụ 2. Gieo ngẫu nhiên 1 đồng xu, có thể xảy ra 1 trong 2 sự kiện trong mỗi lần gieo là khả năng xuất hiện mặt sấp hoặc mặt ngữa. Vì đồng xu xem như đồng chất, nên xác suất xuất hiện của mỗi sự kiện là p = 1/2 . Vậy lượng tin sẽ là :

Ví dụ 3. Tương tự như trên nếu ta gieo 1 con súc sắc, thì n = 6 và p = 1/6
Lượng tin H sẽ là : 0

Ví dụ 4. Một trạm khí tượng X bằng việc phân tích nhiều số liệu khác nhau đã đưa ra dự đoán khả năng có mưa rơi một vùng nào đó vào ngày mai là 75%.
Suy ra khả năng không có mưa sẽ là 100% - 75% = 25%. Như vậy thông báo trên có lượng tin theo Shannon là :

So sánh 3 ví dụ trên, ta thấy xác suất xuất hiện một tin càng thấp thì lượng tin càng cao vì mức độ bất ngờ của nó càng lớn và ngược lại. Tuy nhiên, không phải lúc nào ta cũng xác định được xác suất xuất hiện sự kiện nên việc áp dụng công thức Shannon bị hạn chế.
3. Mã hóa thông tin rời rạc
Tất cả các thông tin ở dạng văn bản (text), chữ (character), số (number), ký hiệu (symbol), đồ họa (graphic), hình ảnh (image) hoặc âm thanh (sound) ... đều được gọi là các tín hiệu (signals). Tín hiệu có thể là liên tục hay rời rạc. Máy tính tương tự (Analog Computer) là máy tính chuyên dụng xử lý môt số các tín hiệu liên tục như tín hiệu điện, âm thanh... Trong khi đó, hầu hết các dữ liệu mà chúng ta có được thường ở dạng các tín hiệu rời rạc để diễn tả các tín hiệu liên tục qua các số đo hữu hạn. Khi đưa các tín hiệu này vào máy tính, chúng được mã hóa theo các tín hiệu số (digital signal) nhằm giúp máy tính có thể hiểu được thông tin đưa vào. Ðây là cơ sở thực tiễn của nguyên lý mã hoá thông tin rời rạc. Nguyên lý này tập trung các điểm chủ yếu sau :
            - Tín hiệu liên tục có thể xem như một chuỗi xấp xỉ các tín hiệu
* Một số tài liệu cũ có thể bị lỗi font khi hiển thị do dùng bộ mã không phải Unikey ...

Người chia sẻ: Đỗ Trung Thành
Dung lượng: 730,50KB| Lượt tài: 0
Loại file: doc
Nguồn : Chưa rõ
(Tài liệu chưa được thẩm định)