-
Notifications
You must be signed in to change notification settings - Fork 2
/
tutorium12.tex
266 lines (257 loc) · 10.3 KB
/
tutorium12.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
\include{includes/common_start}
\include{includes/tutBlatt_methods}
\include{amsmath}
\tutnr{12}
\section{Begriffe der Informationstheorie}
\subsection{Erklärung}
\begin{frame}
\frametitle{Shannonscher Informationsbegriff}
\begin{itemize}
\item Jede Information bzw. Nachricht besitzt eine Quelle
\begin{itemize}
\item Oft randomisiert a.k.a. Zufallsquellen
\item Wenn alle gesendete Nachrichten unabhängig voneinander sind, ist die Quelle gedächtnislos
\end{itemize}
\item Es gibt immer einen Empfänger, der die Nachrichten beobachtet
\item Je unvorhersehbarer die Nachricht, desto mehr Informationsgehalt
\begin{itemize}
\item Wird deshalb auch manchmal Überraschungswert genannt
\end{itemize}
\item Entropie ist ein Begriff für die Dichte der Informationen
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Etwas genauer}
\begin{itemize}
\item Informationsgehalt soll nicht negativ sein
\item Ein sicheres Ergebnis (p = 1) enthält keine Information
\item Informationen von unabhängigen Nachrichten sollen sich addieren
\item Kleine Änderungen der Wahrscheinlichkeit $\Rightarrow$ kleine Änderung des Informationsgehalts
\item $I(x) = -log_b(p(x)) = log_b(\frac{1}{p(x)})$ erfüllt diese Bedingungen
\begin{itemize}
\item Meist wird als Basis b = 2 verwendet
\end{itemize}~\\~\\
\item Entropie ist entsprechend definiert~\\ $H(X) = \sum\limits_{x \in X} (p(x) \cdot log_2(\frac{1}{p(x)})) = \sum\limits_{x \in X} (p(x) \cdot I(x))$
\end{itemize}
\end{frame}
\begin{frame}
\frametitle{Beispiele}
\begin{itemize}
\item Zufallsquelle 1: p(A) = $\frac{1}{2}$, p(B) = $\frac{1}{2}$
\item I(A) = $log_2(\frac{1}{0.5}) = log_2(2) = 1$ = I(B)
\item H(X) = $(p(A) \cdot I(A)) + (p(B) \cdot I(B)) = 0.5 + 0.5 = 1$~\\~\\~\\~\\
\item Zufallsquelle 2: p(A) = $\frac{1}{16}$, p(B) = $\frac{15}{16}$
\item I(A) = $log_2(\frac{1}{0.0625}) = log_2(16) = 4$
\item I(B) = $log_2(\frac{1}{0.9375}) = log_2(\frac{16}{15}) = 0.0931\ldots$
\item H(X) = $(p(A) \cdot I(A)) + (p(B) \cdot I(B))$~\\$= (\frac{1}{16} \cdot 4) + (\frac{15}{16} \cdot 0.0931) = \frac{1}{4} + 0.873 = 0.337$
\end{itemize}
\end{frame}
%Explaining "Ordnung von Zeichenketten would be Bogus"
\subsection{Aufgabe B11 A1}
\begin{frame}
\frametitle{Aufgabe B11 A1}
\begin{enumerate}
\item Wie gro"s sind der Informationsgehalt und die Entropie, wenn eine Quelle mit
dem Alphabet $\{0,1\}$ nur aus dem Zeichen $0$ bestehende Folgen sendet?
\item An einer Quelle mit $n$ Zeichen tritt jedes Zeichen gleichverteilt auf. Wie
gro"s sind der Informationsgehalt und die Entropie eines einzelnen Zeichens?
\item Berechnen Sie die Entropie des Wurfes eines idealen W"urfels mit 8 Seiten,
dessen Wahrscheinlichkeit f"ur jede Seite $p = \frac{1}{8}$ ist!
\item Was ist der Unterschied zwischen den beiden Folgen, die aus verschiedenen
ged"achtnislosen Quellen mit der gleichen Wahrscheinlichkeit f"ur $0$ und $1$
gesendet werden, wenn man sie unter dem Aspekt Entropie und Ordnung betrachtet?
\begin{enumerate}
\item ...10101010101010101010...
\item ...01101100110111000010...
\end{enumerate}
\end{enumerate}
\end{frame}
\section{Mehr Begriffe der Informationstheorie}
%Erklären: Empfänger, Kanäle, Verbundentropie, Äquivokation, Transinformation, Fehlinformation(="inverse Äquivokation"=Irrelevanz?), Totalinformation (=Verbundentropie?)
\begin{frame}
\frametitle{Übertragung von Information}
Daten können über einen Kanal von der Quelle zu einem Empfänger gesendet werden. Dieser Kanal ist in der Regel nicht störungsfrei, dass heißt die gesendeten Daten können ungleich zu den empfangenen sein.\\
Ein gestörter Kanal kann durch seine Übertragungswahrscheinlichkeiten $P(r|q)$, welche angeben wie wahrscheinlich es ist, dass r beim Empfänger ankommt, wenn q aus der Quelle gesendet wurde, charakterisiert werden.\\
Damit ergibt sich der Zusammenhang \[P(R=r)=\sum_{q \in Q} P(Q=q)P(R=r|Q=q)\] und für die Wahrscheinlichkeit das r und q gleichzeitig auftreten: \[P(Q=q,R=r)=P(Q=q)P(R=r|Q=q).\]
\end{frame}
\begin{frame}
\frametitle{Einige Definitionen}
\emph{Totalinformation} oder auch Verbundentropie H(Quelle $Q$, Empfänger $R$) ist die gesamte von Quelle und Empfänger erzeugte Entropie
\[H(Q,R)=-\sum_{q \in Q} \sum_{r \in R} P(Q=q,R=r)\log(P(Q=q,R=r))\]
\emph{Äquivokation} $H$(Quelle $Q|$ Empfänger $R$) gibt dem Entropieverlust durch die Übertragung an.\\
\[H(Q|R)=H(Q,R)-H(R)\]
\emph{Fehlinformation} H(Empfänger $R|$ Quelle $Q$) entspricht dem anscheinenden Entropiegewinn durch die Übertragung.
\[H(R|Q)=H(Q,R)-H(Q)\]
\emph{Transinformation} I(Quelle $Q$, Empfänger $R$) ist die richtig empfangene Informationsmenge.
\[I(Q,R)= H(Q)-H(Q|R)=H(R)-H(R|Q)=H(Q)+H(R)-H(Q,R)\]
\end{frame}
\begin{frame}
\frametitle{Bild zur Veranschaulichung}
\begin{center}
\includegraphics[scale=0.35]{images/Entropie_XY}
\end{center}
\end{frame}
\subsection{Erklärung}
\subsection{Aufgabe B11 A2}
\begin{frame}
\frametitle{Aufgabe B11 A2}
\only<1>{
Studieren Sie den Fall eines asymmetrischen bin"aren Kanals mit Quelle $X$ und
Empf"anger $Y$. Die "Ubertragungswahrscheinlichkeiten $P(Y|X)$ seien durch das
folgende Diagramm gegeben:
}
\only<2->{
\vspace{-0.6cm}
}
\begin{center}
\begin{tikzpicture}
\draw (0,0) circle (10pt);
\draw (0,0) node {$1$};
\draw (0,2) node {$X$};
\draw (0,4) circle (10pt);
\draw (0,4) node {$0$};
\draw (4,0) circle (10pt);
\draw (4,0) node {$1$};
\draw (4,2) node {$Y$};
\draw (4,4) circle (10pt);
\draw (4,4) node {$0$};
\draw [->] (0.35,0) -- (3.65,0);
\draw (2,0.3) node {$0.9$};
\draw [->] (0.35,4) -- (3.65,4);
\draw (2,3.7) node {$0.8$};
\draw [->] (0.25,0.25) -- (3.75,3.75);
\draw (1.5,1) node {$0.1$};
\draw [->] (0.25,3.75) -- (3.75,0.25);
\draw (1.5,3) node {$0.2$};
\end{tikzpicture}
\end{center}
\only<2,3>{
\begin{enumerate}
\only<2>{
\item Wie gro"s ist die Wahrscheinlichkeit daf"ur, dass die Bitkette ``$1100$'' als
``$1001$'' "ubertragen wird?
\item Wenn die Entropie der Quelle $H(X) = 1 \; \mbox{bit}$ ist, wie gro"s ist dann
$H(Y)$?
\item Wie gro"s muss $H(X)$ sein, damit $H(Y) = 1 \; \mbox{bit}$ gilt?
}
\only<3>{
\item Wie gro"s ist die Verbundentropie $H(X,Y)$ des "Ubertragungssystems? Gehen Sie
ab dieser Teilaufgabe von der Situation der 2. Teilaufgabe aus!
\item Wie gro"s ist die sog. Irrelevanz $H(Y|X)$? Und wie gro"s ist die sog.
"Aquivokation $H(X|Y)$?
\item Wie gro"s ist schlie"slich die Transinformation $I(X;Y)$?
}
\end{enumerate}
}
\end{frame}
\subsection{Aufgabe B11 A4}
\begin{frame}
\frametitle{Aufgabe B11 A4}
Gegeben sei eine ged"achtnislose Quelle $Q$, die mit Wahrscheinlichkeit $p_0 =
\frac{1}{4}$ eine $0$ und mit Wahrscheinlichkeit $p_1 = \frac{3}{4}$ eine $1$ sendet.
Gegeben sei zudem ein Empf"anger $R$, der die Zeichen von $Q$ zu empfangen versucht.
Dieser Empf"anger empf"angt eine $0$ immer richtig. Sendet die Quelle $Q$ jedoch
eine $1$, so empf"angt $R$ mit Wahrscheinlichkeit $\frac{1}{2}$ eine $1$ und mit
Wahrscheinlichkeit $\frac{1}{2}$ eine $0$.
\begin{enumerate}
\item Berechnen Sie die Information $I(0)$ und $I(1)$ bez"uglich der Quelle $Q$!
\item Berechnen Sie die Entropie der Quelle $Q$!
\item Die Quelle $Q$ sendet die Zeichenfolge $0110$. Wie hoch ist der
Informationsgehalt dieser Zeichenfolge?
\item Berechnen Sie die Totalinformation $H(Q,R)$, die Fehlinformation $H(R|Q)$,
die "Aquivokation $H(Q|R)$ und die Transinformation $I(Q;R)$!
\end{enumerate}
\end{frame}
\section{Huffman-Codierung}
\subsection{Erklärung}
\begin{frame}
\frametitle{Huffman-Codierung}
Die Huffman-Codierung ist ein Algorithmus zur verlustfreien Datenkompression.
\begin{block}{Problemdefinition}
\begin{itemize}
\item Gegeben
\begin{itemize}
\item Ein Alphabet $A = \{a_0, a_1, ..., a_n\}$ der Größe $n$
\item Gewichte $W = \{w_0, w_1, ..., w_n\}$ für alle $a \in A$. \\
Meist die Wahrscheinlichkeit, dass ein Zeichen auftritt.
\end{itemize}
\item Gesucht
\begin{itemize}
\item Eine binäre Codierung für alle Zeichen aus $A$, sodass die erwartete Code-Wortlänge in Bezug auf die Gewichte minimal ist.
\end{itemize}
\end{itemize}
\end{block}
\only<2> {
Lässt sich sowohl auf konkrete Wörter anwenden als auch auf Quellen, von denen man weiß, wie wahrscheinlich sie welches Zeichen sendet.
}
\end{frame}
\begin{frame}
\frametitle{Huffman-Codierung Beispiel}
Gegeben sei das Wort \textbf{\textcolor{red}{a}\textcolor{blue}{b}\textcolor{red}{a}\textcolor{green}{c}\textcolor{red}{a}\textcolor{blue}{b}\textcolor{red}{a}d\textcolor{red}{a}\textcolor{blue}{b}\textcolor{red}{a}\textcolor{green}{c}\textcolor{red}{a}\textcolor{blue}{b}\textcolor{red}{a}}. Wie lautet eine Huffman-Codierung? \\
\visible<2->{
\begin{itemize}
\item \textcolor{red}{\#a = 8}
\item \textcolor{blue}{\#b = 4}
\item \textcolor{green}{\#c = 2}
\item \textcolor{brown}{\#d = 1}
\end{itemize}
}
\only<3>{
\begin{center}
\includegraphics[scale=0.4]{images/Huffman}
\end{center}
}
\end{frame}
\subsection{Aufgabe B11 A3}
\begin{frame}
\frametitle{Aufgabe B11 A3}
Gegeben sei eine Quelle mit Alphabet $\{A,B,C,D\}$ und mit den folgenden
Wahrscheinlichkeiten:\\
$P(A)=\frac{1}{2}, P(B)=\frac{1}{4}, P(C)=\frac{1}{8}, P(D)=\frac{1}{8}$
\begin{itemize}
\only<1>{
\item Berechnen Sie die Entropie der Quelle!
\item Erstellen Sie eine entsprechende Huffman-Codierung!
\item Was ist die mittlere Codewortl"ange? Gibt es einen Zusammenhang zur Entropie?
}
\only<2>{
\item Gegeben sei der folgende Huffman-Baum:
\begin{center}
\begin{tikzpicture}
\node[circle,draw]{}
child{
node[circle,draw]{}
child{
node[circle,draw]{$A$}
edge from parent
node[left]{\textbf{$0$}}
}
child{
node[circle,draw]{$B$}
edge from parent
node[right]{\textbf{$1$}}
}
edge from parent
node[left]{\textbf{$0$}}
}
child{
node[circle,draw]{$C$}
edge from parent
node[right]{\textbf{$1$}}
};
\end{tikzpicture}
\end{center}
Dekodieren Sie $011011101100101011$! Ist der Huffman-Code geeignet?
}
\end{itemize}
\end{frame}
\section{Schluss}
\subsection{Schluss}
\begin{frame}
\frametitle{Bis zum nächsten Mal!}
%TODO change the comic
\begin{center}
\includegraphics[height=0.85\textheight]{images/password_strength_936}
\end{center}
\end{frame}
\include{includes/common_end}