Entropie
Formel:
Auf deutsch: ist die Entropie von und wird berechnet Dabei ist die Wahrscheinlichkeit, dass den Wert annimmt. Dies wird mit dem Logarithmus zur Basis 2 (Logarithmus Dualis) multipliziert und negiert.
Die Entropie ist ein Maß für die Unordnung oder den Informationsgehalt einer Zufallsvariablen.
In der Prfüng auf die Wahrscheinlichkeiten achten, und manchmal wird der Logarithmus zur Basis 2 nicht verwendet.
Was ist Entropie?
Entropie misst den Informationsgehalt bzw. die Ungewissheit eines Zufallsprozesses.
- Viel Entropie = viele Möglichkeiten → große Überraschung.
- Wenig Entropie = sehr vorhersehbar → wenig Überraschung.
Ziel der Entropie
Wie viel Information (in Bits) gewinne ich im Durchschnitt, wenn ich ein zufälliges Ereignis beobachte?
Herleitung der Entropie-Formel
Schritt 1: Informationsgehalt eines einzelnen Ereignisses
Wir definieren:
Schritt 2: Warum log₂(1/p)?
- gibt die Anzahl möglicher Fälle an.
- zählt die Anzahl an Bits (Ja/Nein-Entscheidungen), um ein Ereignis zu identifizieren.
Schritt 3: Erwartungswert über alle Ereignisse
Beispiel
Ein fairer Würfel:
- 6 Seiten → (p = \frac16)
- Entropie:
Merksätze für die Klausur
- Entropie misst, wie überraschend ein Zufallsergebnis ist.
- Je gleichmäßiger die Verteilung, desto höher die Entropie.
- → „Wie viele Ja/Nein-Fragen brauche ich?“
- Die Entropie ist der Durchschnitt aller Informationsgehalte.
Beispiel
Entropie für ein Gacha Game
Generell
- : (94.4%)
- : (5%)
- : (0.6%)
Anwendungen
- Datenkompression
- Kryptographie
- Maschinelles Lernen
Viel Erfolg bei der Klausur!