tft每日頭條

 > 圖文

 > 通信原理知識整理大全

通信原理知識整理大全

圖文 更新时间:2025-02-08 20:56:22
前言

在上篇文章中我們介紹了下通信系統,按照信道中傳輸的是模拟信号還是數字信号,通信系統可分為模拟通信系統和數字通信系統;此外我們還介紹了廣播、點-點、單工通信、半雙工通信、全雙工通信、并行傳輸、串行傳輸這些通信方式。在這篇文章裡,我們将介紹信息量和平均信息量

上文鍊接:《通信原理》(1):初識通信系統

1.信息的度量:信息量

通信的目的在于傳輸信息,傳輸信息的多少可用“信息量”來進行衡量,信息量是對消息中“不确定性”的度量。我們先來看個例子:

中國男子乒乓球隊獲得冠軍 中國男子足球隊獲得冠軍

顯然,這兩條信息發生的概率完全不同,一個接近1,一個幾乎為0(狗頭保命),那麼哪條信息包含的信息量大呢?答案是第二條消息中信息量與消息發生的概率相關,消息出現的概率越小,消息中包含的信息量就越大,且概率為零時(不可能發生事件)信息量為無窮大,概率為1時(必然事件)信息量為0。所以大家知道為什麼第二條信息量更大了吧

現在我們用函數的方式來表示信息量I與消息出現概率P(x)之間的關系:

通信原理知識整理大全(通信原理2)1

消息出現的概率越小,所含信息量越大,反之信息量越小:

通信原理知識整理大全(通信原理2)2

若幹個互相獨立事件構成的消息,其所含信息量等于各獨立事件信息量的和

通信原理知識整理大全(通信原理2)3

信息量I與消息出現的概率P(x)之間的關系為:

通信原理知識整理大全(通信原理2)4

其中,信息量的單位與對數底數a有關:

  • a=2時, 信息量的單位為比特(bit)
  • a=e時, 信息量的單位為奈特(nit)
  • a=10時,信息量的單位為叫哈特萊(hartley)

來看一道例題::設不同進制離散信源,試計算二進制符号等概率(以相等的概率發送數字0或1)和多進制(M進制)等概率時每個符号的信息量

通信原理知識整理大全(通信原理2)5

由此可以得到:

  • 傳送等概率的二進制波形之一的信息量為1比特
  • 傳送等概率的四進制波形之一的信息量為2比特
  • 傳送等概率的八進制波形之一的信息量為3比特
2.平均信息量

平均信息量等于各個符号信息量乘以各自出現的概率之和,描述每個符号所含信息量的統計平均值

設離散信源是一個由n個符号組成的符号集,每個符号xi(i=1,2,…,n)出現概率為P(xi),且ΣP(xi)=1, 則平均信息量為:

通信原理知識整理大全(通信原理2)6

與熱力學中的熵形式一樣,所以稱它為信息源的熵,單位為bit/符号

當離散信息源中的每個符号等概率出現時,而且各符号的出現為統計獨立時,該信息源的信息量最大,此時最大熵(平均信息量)為:

通信原理知識整理大全(通信原理2)7

下面來看兩道例題:例1:設由5個符号組成的信息源,其相應概率為

通信原理知識整理大全(通信原理2)8

試求信源的平均信息量

解:利用平均信息量公式得:

通信原理知識整理大全(通信原理2)9

如果5個符号等概率出現時,平均信息量為:

通信原理知識整理大全(通信原理2)10

可以看到平均信息量的确更大

例2:設一離散信源由0, 1, 2, 3四個符号組成,它們出現的概率分别為3/8, 1/4, 1/4, 1/8,且每個符号的出現都是獨立的。試求某消息201020130213001203210100321010023102002010312032100120210的信息量以及每個符号的平均信息量

解:方法1:求消息中每個符号的個數,然後再乘以其信息量,最後求和

通信原理知識整理大全(通信原理2)11

很明顯,當符号數目巨大時,這種方法并不合适,一個一個的數工作量太大了

方法2:先求平均信息量,再乘以符号總數

通信原理知識整理大全(通信原理2)12

可見,兩種算法結果有一定誤差,但當消息很長時,用熵的概念來計算比較方便,随着消息序列長度的增加,兩種計算誤差将趨于零

3.連續信号的信息量和信源熵

對于連續消息,信息論中有一個重要結論,就是任何形式的待傳信息都可以用二進制形式表示而不失主要内容。抽樣定理告訴我們:一個頻帶受限的連續信号,可以用每秒一定數目的抽樣值代替,而每個抽樣值可以用若幹個二進制脈沖序列來表示。因此,以上信息量的定義和計算同樣适用于連續信号

信源熵(平均信息量):

通信原理知識整理大全(通信原理2)13

,

更多精彩资讯请关注tft每日頭條,我们将持续为您更新最新资讯!

查看全部

相关圖文资讯推荐

热门圖文资讯推荐

网友关注

Copyright 2023-2025 - www.tftnews.com All Rights Reserved