El modelarea parolei ca ieșire a unui algoritm randomizat similar cu acesta:
- Alegeți un cuvânt uniform la întâmplare dintr-un dicționar cu 65.536 (= 16 biți) cuvinte. (Presupunem că dicționarul este cunoscut de atacator.)
- Întoarceți o monedă (= 1 bit); dacă capete, întoarceți cu majusculă prima literă a cuvântului.
- Pentru fiecare vocală din cuvânt, întoarceți o monedă; dacă aterizează capete, înlocuiți vocala cu „substituția comună”. Munroe simplifică aici presupunând că cuvintele din dicționar au de obicei trei vocale (deci obținem ~ 3 biți în total).
- Alegeți o cifră (~ 3 biți) și un simbol de punctuație (~ 4 biți) la întâmplare. Întoarceți o monedă (= 1 bit); dacă capete, adăugați mai întâi numărul la parolă și simbolul la al doilea; dacă cozi, adăugați-le în cealaltă ordine.
Entropia este o funcție a r andom alegeri făcute în algoritm; îl calculați identificând ce alegeri aleatoare face algoritmul, câte alternative sunt disponibile pentru fiecare alegere aleatorie și probabilitatea relativă a alternativelor. Am „adnotat numerele din pașii de mai sus și, dacă le adăugați, veți obține aproximativ 28 de biți în total.
Puteți vedea că procedura lui Munroe nu este o știință dificilă, dar este Nici nu este o estimare nerezonabilă. El „practică arta estimării rapide și murdare, pe care o demonstrează foarte des în lucrarea sa – nu obține neapărat numărul potrivit, ci formează o idee rapidă despre magnitudinea sa aproximativă.
Fiecare pătrat mic este un pic de entropie care este contabilizat.
- 16 biți doar pentru cuvânt
- 1 pentru prima literă: majuscule sau nu?
- 1 pentru fiecare înlocuire a lui O și 0, A și 4
- 4 pentru utilizarea unui simbol care „nu este atât de comun
- 3 pentru utilizarea unui număr
- 1 pentru ordinea necunoscută a simbolului + număr sau număr + simbol.
Există unele raționamente De exemplu, atunci când parola necesită majuscule, aproape toată lumea pune majusculele în prima literă. Deci nu veți obține mult mai mult decât un pic de entropie din ea.
Comentarii