Mathe 2
Entropie

Entropie

Formel: H(X)=i=1np(xi)log2p(xi)H(X) = - \sum_{i=1}^{n} p(x_i) \cdot \log_2 p(x_i)

Auf deutsch: H(X)H(X) ist die Entropie von XX und wird berechnet Dabei ist p(xi)p(x_i) die Wahrscheinlichkeit, dass XX den Wert xix_i annimmt. Dies wird mit dem Logarithmus zur Basis 2 (Logarithmus Dualis) multipliziert und negiert.

Die Entropie ist ein Maß für die Unordnung oder den Informationsgehalt einer Zufallsvariablen.

In der Prfüng auf die Wahrscheinlichkeiten achten, und manchmal wird der Logarithmus zur Basis 2 nicht verwendet.

Was ist Entropie?

Entropie misst den Informationsgehalt bzw. die Ungewissheit eines Zufallsprozesses.

  • Viel Entropie = viele Möglichkeiten → große Überraschung.
  • Wenig Entropie = sehr vorhersehbar → wenig Überraschung.

Ziel der Entropie

Wie viel Information (in Bits) gewinne ich im Durchschnitt, wenn ich ein zufälliges Ereignis beobachte?

Herleitung der Entropie-Formel

Schritt 1: Informationsgehalt eines einzelnen Ereignisses

Wir definieren:

I(p)=log2(1p)=log2(p)I(p) = \log_2\left(\frac{1}{p}\right) = -\log_2(p)

Schritt 2: Warum log₂(1/p)?

  • 1p\frac{1}{p} gibt die Anzahl möglicher Fälle an.
  • log2\log_2 zählt die Anzahl an Bits (Ja/Nein-Entscheidungen), um ein Ereignis zu identifizieren.

Schritt 3: Erwartungswert über alle Ereignisse

H=pilog2(pi)H = -\sum p_i \cdot \log_2(p_i)

Beispiel

Ein fairer Würfel:

  • 6 Seiten → (p = \frac16)
  • Entropie:
H=6(16log2(16))2,585 BitsH = -6 \cdot \left( \frac{1}{6} \cdot \log_2\left( \frac{1}{6} \right) \right) \approx 2{,}585 \text{ Bits}

Merksätze für die Klausur

  • Entropie misst, wie überraschend ein Zufallsergebnis ist.
  • Je gleichmäßiger die Verteilung, desto höher die Entropie.
  • log2(1/p)\log_2(1/p) → „Wie viele Ja/Nein-Fragen brauche ich?“
  • Die Entropie ist der Durchschnitt aller Informationsgehalte.

Beispiel

Entropie für ein Gacha Game

Generell

  • 3 Sterne3 \text{ Sterne}: p(xi)=9441000p(x_i) = \frac{944}{1000} (94.4%)
  • 4 Sterne4 \text{ Sterne}: p(xi)=501000p(x_i) = \frac{50}{1000} (5%)
  • 5 Sterne5 \text{ Sterne}: p(xi)=61000p(x_i) = \frac{6}{1000} (0.6%)

H(X)=(9441000log29441000+501000log2501000+61000log261000)=0.206H(X) = - \left( \frac{944}{1000} \cdot \log_2 \frac{944}{1000} + \frac{50}{1000} \cdot \log_2 \frac{50}{1000} + \frac{6}{1000} \cdot \log_2 \frac{6}{1000} \right) = 0.206

Anwendungen

  • Datenkompression
  • Kryptographie
  • Maschinelles Lernen

Viel Erfolg bei der Klausur!