On jest modelowanie hasła jako wyniku działania algorytmu losowego podobnego do tego:
- Wybierz jedno słowo równomiernie losowo ze słownika zawierającego 65 536 (= 16 bitów) słów. (Zakładamy, że słownik jest znany napastnikowi.)
- Rzuć monetą (= 1 bit); w przypadku głowy, odwróć wielką literę pierwszej litery wyrazu.
- Dla każdej samogłoski w słowie, rzuć monetą; jeśli wyląduje orzeł, zastąp samogłoskę jej „zwykłą substytucją”. Munroe upraszcza tutaj, zakładając, że słowa w słowniku zazwyczaj mają trzy samogłoski (więc otrzymujemy łącznie ~ 3 bity).
- Wybierz losowo cyfrę (~ 3 bity) i symbol interpunkcji (~ 4 bity). Rzuć monetą (= 1 bit); jeśli orzeł, dodaj najpierw cyfrę do hasła, a następnie symbol; jeśli reszki, dołącz je w drugiej kolejności.
Entropia jest funkcją r andom wybory dokonane w algorytmie; obliczasz go, identyfikując losowe wybory dokonywane przez algorytm, ile alternatyw jest dostępnych dla każdego losowego wyboru oraz względne prawdopodobieństwo tych alternatyw. W powyższych krokach zanotowałem liczby, a jeśli je dodasz, otrzymasz łącznie około 28 bitów.
Możesz zobaczyć, że procedura Munroe w żaden sposób nie jest naukowa, ale nie jest też nierozsądnym oszacowaniem. Ćwiczy sztukę szybkiego i brudnego oszacowania, którą bardzo często demonstruje w swojej pracy – niekoniecznie uzyskując odpowiednią liczbę, ale tworząc szybkie wyobrażenie o jej przybliżonej wielkości.
Każdy mały kwadrat to trochę entropii, która jest rozliczana.
- 16 bitów na samo słowo
- 1 na pierwszą literę: wielkie litery czy nie?
- 1 za każde zastąpienie O i 0, A i 4
- 4 za użycie symbolu, który nie jest tak często
- 3 w przypadku używania liczby
- 1 dla nieznanej kolejności symbolu + numer lub liczba + symbol.
Jest pewne powody Na przykład, gdy hasło wymaga wielkich liter, prawie wszyscy umieszczają je w pierwszej literze. Więc nie dostajesz z tego nic więcej niż tylko odrobinę entropii.
Komentarze