百味书屋 导航

信息论与编码试卷及答案2

来源网站:百味书屋 2016-10-19 16:10:00
经典文章

篇一:信息论与编码期末考试题(全套)

(一)

7、某二元信源

一、判断题共 10 小题,满分 20 分.

1. 当随机变量X和Y相互独立时,条件熵H(X|Y)等于信源熵H(X). ( )

2. 由于构成同一空间的基底不是唯一的,所以不同的基

1??X??0

?P(X)???1/21/2?,其失真矩阵????

?0a?

,则该信源的Dmax= D????a0?

三、本题共 4 小题,满分 50 分.

1、某信源发送端有2种符号xi(i?1,2),p(x1)?a;接收端

底或生成矩阵有可能生成同一码集.符号 y( j ? 1 ,2) ,转移概率矩阵为 有3 种,3() 3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( )

4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通

( ) 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( ) 6. 连续信源和离散信源的熵都具有非负性. ( )

7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0

. ( )

10.必然事件和不可能事件的自信息量都是0. ( )

二、填空题共 6 小题,满分 20 分.

1

于 .

2、信源编码的目的是的目的是 .

3、把信息组原封不动地搬到码字前k位的(n,k)码就叫做 .

4、香农信息论中的三大极限定理

是、、. 5、设信道的输入与输出随机序列分别为X和Y,则

I(XN,YN)?NI(X,Y)成立的

条件

6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 .

iP???1/21/20?

?1/21/41/4?. ?

(1) 计算接收端的平均不确

定度H(Y); (2) 计算由于噪声产生的不

确定度H(Y|X); (3) 计算信道容量以及最佳入口分布. 2、一阶马尔可夫信源的状态转移

图2-13

图如右图所示, 信源X的符号集为{0,1,2}. (1)求信源平稳后的概率分布;

(2)求此信源的熵;

( 3 )近似地认为此信源为无记忆时,符号的概率分布为 平 X )

稳分布.求近似信源的熵H(并与H?进行比较.

4 、设二 元( 7 , 4 ) 线

性分组码的生成矩阵为??1101000?G??

0110100???1110010??

. ?1010001?

?

(1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式;

(2)若接收矢量v?(0001011

),试计算出其对应的伴随式S并按照最小距离译码准则

试着对其译码. (二)

一、填空题(共15分,每空1分)

1、信源编码的主要目的是 ,信道编码的主要目的是 。

2、信源的剩余度主要来自两个方面,一是 ,二

是。 XY

3、三进制信源的最小熵为 ,最大熵为。 4、无失真信源编码的平均码长最小理论极限制为 。

5、当时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为

和 。

7、根据是否允许失真,信源编码可分为

和 。

8、若连续信源输出信号的平均功率为?2,则输出信号幅度

的概率密度是 时,信源具有最大熵,其值为值 。 9、在下面空格中选择填入数学符号“?,?,?,?”或“?”

(1)当X和Y相互独立时,H(XY)H(X)+H(X/Y) H(Y)+H(X)。

(2)H??H?X1X2?

H?X1X2X3?2?X2H3?X??3

(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y) 0,

H(Y/X) 0,I(X;Y)H(X)。

三、(16分)已知信源

??S??s1s2s3s4s5s6??P?????0.20.20.20.20.10.1??

(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L;(4分)

(3)计算编码信息率R?;(2分)

(4)计算编码后信息传输率R;(2分) (5)计算编码效率?。(2分)

四、(10分)某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5?s。计算: (1)信息传输速率Rt。(5分)

五、(16分)一个一阶马尔可夫信源,转移概率为

P?S|S23|S1

11??,P?S21??3

,P?S1|S2??1,P?S2|S2??0。

(1) 画出状态转移图。(4分)

(2) 计算稳态概率。(4分)

(3) 计算马尔可夫信源的极限熵。(4分)

(4) 计算稳态下H1,H2及其对应的剩余度。(4分) 六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。

七、(16分)设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) H?X?,H?Z?;

(2) H?XY?,H?XZ?;

(3) H?X|Y?,H?Z|X?;

(4) I?X;Y?,I?X;Z?;

八、(10分)设离散无记忆信源的概率空间为

??X????x1x2?

P?0.80.2?,通过干扰信道,信道输出端的接收符号????

集为Y??y1,y

2?,信道传输概率如下图所示。

x1

y1

x2

y2

(1) 计算信源X中事件x1包含的自信息量; (2) 计算信源X的信息熵; (3) 计算信道疑义度H?X|Y?; (4) 计算噪声熵H?Y|X?;

(5) 计算收到消息Y后获得的平均互信息量。

《信息论基础》2参考答案

一、填空题(共15分,每空1分) 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。

3、三进制信源的最小熵为0,最大熵为log3

2 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= Hr(S))。

5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。

8、若连续信源输出信号的平均功率为?2

,则输出信号幅度2的概率密度是高斯分布或正态分布或f?

x??

2??x时,

信源具有最大熵,其值为值1

log2?e?22

9、在下面空格中选择填入数学符号“?,?,?,?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。

(2)HH?X1X2?

H?X1X2X3?2?X??2?H3?X??

3

(3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)<H(X)。 三、(16分)已知信源

??S??????s1s2s3s4s5s6?

P??0.20.20.20.20.10.1??

(1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L;(4分)

(3)计算编码信息率R?;(2分)

(4)计算编码后信息传输率R;(2分) (5)计算编码效率?。(2分)

(1)

S10.200

S20.21S1.030.20

S140.21

S0

50.11

S6

0.1

1

编码结果为:

S1?00S2?01S3?100S4?101 S5?110S6?111

6

(2)L??Pi?i?0.4?2?0.6?3?2.6码元

i?1

(3)R??logr=2.6

(4)R?

H?S?

?

2.53

?0.973bit2.6

其中,H?S??H?0.2,0.2,0.2,0.2,0.1,0.1??2.53

(5)??

H?S??S?logr

?

H?0.973

评分:其他正确的编码方案:1,要求为即时码 2,平均码长

最短 四、(10分)某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5?s。计算: (1)信息传输速率Rt。(5分)

(1)R1

t?t??

H?X??H?X?

??

H?X???

18log18?4?112log2?1log8?1

log2 22

?31

2log2?2log2?2log2?2bitR?2bitt?s

?4?1060.5bps

五、(16分)一个一阶马尔可夫信源,转移概率为

P?S21

1|S1??3,P?S2|S1??3

,P?S1|S2??1,P?S2|S2??0。

(1) 画出状态转移图。(4分)

(2) 计算稳态概率。(4分)

(3) 计算马尔可夫信源的极限熵。(4分)

(4) 计算稳态下H1,H2及其对应的剩余度。(4分) 解:(1)

1

(2)由公式P?Si???2

P?Si

|Sj

?P?Sj

?

j?1

?

2

?P?S1??PS|SPS?2P?S1??P?S2?

??1i??i??i?13?2

?

P?

?S1

2???P?S2|Si?P?Si??P?S1? i?13??P?S1??P?S2??1?

?

P?S??3得??1?4

???P?S12

??4

(3)该马尔可夫信源的极限熵为:

22

H?????P?Si?P?Sj|Si?logP?Sj|Si?

i?1j?1

??34?23?log2311

3?4?3?log

3?1

2?0.578?1

4?1.599?0.681bit符号?0.472nat符号?0.205hart(4)在稳态下:

2

???P?x?3

311?i?logP?xi???i?1

??4?log4?4?log4???0.811bit符号

H2?H??0.205hart符号?0.472nat?0.681bit

对应的剩余度为

??H10.811

1?1H?1??0.189

0???1?2log??1?1?1??

?2???2log??2????

?2?1?

H20.681H?1??0.319 0???1?1?2log???2???1?1??

2log??2????

六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。

X

Y

解:信道传输矩阵如下

??1

1?2200???011?P220??Y|X

????1??001 ?22???11??2

2??

可以看出这是一个对称信道,L=4,那么信道容量为

C?log4?H??11?

?2,2,0,0?

?

L

?logL??p?yj|xi?logp?yj|xi?

j?1

?log4?2?11

2log

2

?1bit

七、(16分)设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) H?X?,H?Z?; (2) H?XY?,H?XZ?; (3) H?X|Y?,H?Z|X?; (4) I?X;Y?,I?X;Z?;

H?X??H??1?2,1?

2???1bit

H(2)?H??3?4,1?

4??

?0.8113bit

(2) H?XY??H?X??H?Y??1?1?2bit对

H?XZ??H?X??H?Z|X??1?11?12H?1,0??1?

2H??2,2??

?1.5bit对

(3) H?X|Y??H?X??1bit

H?Z|X??

112H?1,0??2H??11?

?2,2??

?0.5bit

(4) I?X,Y??H?Y??H?Y|X??H?Y??H?Y??0 I?X,Z??H?Z??H?Z|X??0.8113?0.5?0.3113bit

八、(10分)设离散无记忆信源的概率空间为

??X??x1x2?

?P?????0.80.2?,通过干扰信道,信道输出端的接收符号?

集为Y??y1,y2?,信道传输概率如下图所示。

x1

y1

x2

y2

(6) 计算信源X中事件x1包含的自信息量; (7) 计算信源X的信息熵; (8) 计算信道疑义度H?X|Y?; (9) 计算噪声熵H?Y|X?;

(10) 计算收到消息Y后获得的平均互信息量。

解:

(1) I?x1???log0.8?0.322bit?0.0969hart?0.223nat (2) H?X??H?0.8,0.2??0.722bit?0.5nat?0.217hart符号 (3)

H?XY??H??2?3,215,320,1?

20?

??1.404bit符号

?0.973nat?0.423hartH?Y??H?49/60,11/60??0.687bit?0.476nat?0.207hart符号

H?X|Y??H?XY??H?Y??0.717bit?0.497nat?0.216hart

(4)

H?Y|X??H?XY??H?X??0.682bit?0.473nat符号?0.205hart符号

(5)

I?X;Y??H?X??H?X|Y??0.00504bit符号?0.00349nat符号?0.00152hart

(三)

一、 选择题(共10分,每小题2分)

1、有一离散无记忆信源X,其概率空间为

??X??x1

x2x3x4??P?????0.50.250.1250.125?,则其无记忆二?次扩展信源的熵H(X2)=( ) A、1.75比特/符号; B、3.5比特/符号; C、9比特/符号; D、18比特/符号。 2、信道转移矩阵为

??P(1y/1

x)2

P(

1

y/x)0

??00P3

y(/?2x4P)2y(x??0

0P?

50y3x??

其中P(yj/xi)两两不相等,则该信道为

3、A、一一对应的无噪信道

B、具有并归性能的无噪信道 C、对称信道

D、具有扩展性能的无噪信道

3、设信道容量为C,下列说法正确的是:()

A、互信息量一定不大于C B、交互熵一定不小于C

C、有效信息量一定不大于C D、条件熵一定不大于C

4、在串联系统中,有效信息量的值()

A、趋于变大 B、趋于变小 C、不变 D、不确定

5、若BSC信道的差错率为P,则其信道容量为:() A、

H?p?

p

log?1?p

?2??1?B、

?p??p?

??

篇二:信息论与编码试卷及答案

信息论 考试题,考前必看

一、(11’)填空题

(1) 1948年,美国数学家 香农发表了题为“通信的数学理论”的长篇论文,从而创

立了信息论。

(2) 必然事件的自信息是 0 。

(3) 离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。

(4) 对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。

(5) 若一离散无记忆信

源的信源熵H(X)

等于2.5,对信源进

行等长的无失真二

进制编码,则编码

长度至少为

(6) 对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是 香农编码。

(7) 已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,

最多能纠正___1__个码元错误。

(8) 设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大

于、小于或者等于),

则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。

(9) 平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方

法___有关

二、(9?)判断题

(1) 信息就是一种消息。 ( ?)

(2) 信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠

性。 ( ?)

(3) 概率大的事件自信息量大。 ( ?)

(4) 互信息量可正、可负亦可为零。( ? )

(5) 信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。( ?)

(6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 ( ?)

(7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 ( ? )

(8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。

( ? )

(9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ?)

三、(5?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。

假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则

P(A)=0.25 p(B)=0.5 p(B|A)=0.75(2分)

故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375(2分)

I(A|B)=-log0.375=1.42bit (1分)

四、(5?)证明:平均互信息量同信息熵之间满足

I(X;Y)=H(X)+H(Y)-H(XY)

证明:

I?X;Y????p?xiyj?log

XYpxiyjpxi??

????????p?xiyj?logp?xi??????p?xiyj?logpxiyj?(2分)

XY?XY?

?H?X??H?XY?

同理

I?X;Y??H?Y??HYX (1分)

则 ??

HYX?H?Y??I?X;Y?

因为

H?XY??H?X??HYX (1分)

故 ????

H?XY??H?X??H?Y??I?X;Y?

I?X;Y??H?X??H?Y??H?XY? (1分)

五、(18’).黑白气象传真图的消息只有黑色和白色两种,求:

1) 黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵H?X?;

2) 假设黑白消息出现前后有关联,其依赖关系为

,,求其熵H??X?。 ,

,3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。

解:1)信源模型为 (1分)

(2分)

2)由题意可知该信源为一阶马尔科夫信源。 (2分)

(4分)

得极限状态概率

(2分)

(3分)

3)

?1?1?H(X)?0.119log22 (1分)

H?(X)?0.447log22(1分) ?2?1?

?2??1。说明:当信源的符号之间有依赖时,信源输出消息的不确定性减弱。而信源冗余度正是反映信源符号依赖关系的强弱,冗余度越大,依赖关系就越大。(2分)

六、(18’).信源空间为

x2x3x4x5x6x7?X??x1??P(X)??0.20.190.180.170.150.10.01???

曼码,计算其平均码长和编码效率(要求有编码过程)。

??,试分别构造二元香农码和二元霍夫?

L??p(ai)li?3.14i?17R?H(X)2.61??0.8313.14L

篇三:与答案信息论与编码试题集考试必看 2

1.一阶齐次马尔可夫信源消息集X?{a1,a2,a3},

状态集S?{S1,S2,S3},且令Si?ai,i?1,2,3,条件转移概率为

?

?

??442?

P(a?3?,(1)画出该马氏链的状态转移图; j/Si)??30?

???

(2)计算信源的极限熵。 解:(1)

??w1?w2?w3?w1?4w1?3w2?3w3?w2?w1?0.4

(2)??2w1?3w2

?w3→?

?w2?0.3

???

w1?w2?w3?1?w3

?0.3H(X|S1) =H(1/4,1/4,1/2)=1.5比特/符号 H(X|S2)=H(1/3,1/3,1/3)=1.585比特/符号

H(X|S3)=H(2/3,1/3)= 0.918比特/符号

H???3

wHX|S?0.4?1.5?0.3?1.585?0.3?0.918?1.351比特/符号 i?1

i?i

?

三、计算题

某系统(7,4)码

c?(c6c5c4c3c2c1c0)?(m3m2m1m0c2c1位与信息位的关系为:

??

c2?m3?m1?m0?c1?m3?m2?

m?1 ?c0

?m2?m1?m

0(1)求对应的生成矩阵和校验矩阵;

(2)计算该码的最小距离;

(3)列出可纠差错图案和对应的伴随式; (4)若接收码字R=1110011,求发码。

c0)其三位校验

?1?0

解:1. G??

?0??0

0100

0010

0001

1011

1?0

?1

1?1? H??1

?1?1

???0

0?1

011111101100

0?01? ? 00??1

2. dmin=3 3.

4. RHT=[001]接收出错

E=0000001 R+E=C= 1110010 (发码)

四、计算题

已知?X,Y?的联合概率p?x,y?为: 求H?X?,H?Y?,H?X,Y?,I?X;Y?

X01

01/30

11/31/3

?1/ 3 解: p(x?0)?2/3 p(x?1)p(y?0)?1/3 p(y?1)?2/ 3

H?X??H?Y??H(1/3,2/3)?0.918 bit/symbol H?X,Y??H(1/3,1/3,1/3)=1.585 bit/symbolI?X;Y??H(X)?H(Y)?H(X,Y)?0.251 bit/symbol

?1/21/31/6?

??1. 设有DMC,其转移矩阵为?PY|X??1/61/21/3,若信道输入概率为????1/31/61/2??

?PX???0.5

0.250.25?,试确定最佳译码规则和极大似然译码规则,并计算出相应

的平均差错率。

?1/41/61/12???解:[PXY]?1/241/81/12 ????1/121/241/8??

?F(b1)?a1

?

最佳译码规则:?F(b2)?a1,平均差错率为1-1/4-1/6-1/8=11/24;

?F(b)?a

33??F(b1)?a1

?

极大似然规则:?F(b2)?a2,平均差错率为1-1/4-1/8-1/8=1/2

?F(b)?a

33?

1.设信源为?

x2??X??x1

,试求(1)信源的熵、信息含量效率以及冗余度; ????

?PX??1/43/4?

(2) 求二次扩展信源的概率空间和熵。 解: (1)

H(X)?1/4log24?3/4log2(4/3)

??H(X)/log22?H(X)??1???1?H(X)

(2)二次扩展信源的概率空间为:

H(XX)?1/16log216?3/16log2(16/3)?3/16log2(16/3)?9/16log2(16/9)

4,.信源空间为

x2x3x4x5x6x7?X??x1

??P(X)??0.20.190.180.170.150.10.01

???

其平均码长和编码效率(要求有编码过程)。

?

?,试构造二元霍夫曼码,计算?

七、计算题

两个BSC信道的级联如右图所示: (1)写出信道转移矩阵; (2)求这个信道的信道容量。

解: (1)

1

???1?????(1??)2??2?1??

P?PP??12?????1?????1????2?(1??)??

2

2

2?(1??)?

22?(1??)???

(2)C?log2?H((1??)??)

?000111??

011001九、(18?)设一线性分组码具有一致监督矩阵H??????101011??

1)求此分组码n=?,k=?共有多少码字? 2)求此分组码的生成矩阵G。

3)写出此分组码的所有码字。

4)若接收到码字(101001),求出伴随式并给出翻译结果。

解:1)n=6,k=3,共有8个码字。(3分) 2)设码字

?

C??C5C4C3C2C1C0?

由HC

T

?0T得

令监督位为

?C2?C1?C0?0?

?C4?C3?C0?0?C?C?C?C?0

310?5

(3分)

?C2C1C0?,则有

?C2?C5?C3

?

?C1?C5?C4?C?C?C

43

?0 (3分) ?100110?

?010011????001101?? (2分) 生成矩阵为?

3)所有码字为000000,001101,010011,011110,100110,101011,110101,111000。(4分)

4)由S?HR得

T

T

S??101?,(2分)该码字在第5位发生错误,(101001)纠正为(101011),即译码为

(101001)(1分)

一、 1.答:平均自信息为

表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息

表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

信息论与编码试卷及答案2》出自:百味书屋
链接地址:http://m.850500.com/news/6446.html 转载请保 留,谢谢!

相关文章

推荐文章

百味书屋

© 百味书屋 m.850500.com 版权所有 广告合作:ainglaoda@qq.com