Él «s modelando la contraseña como el resultado de un algoritmo aleatorio similar a este:
- Elija una palabra uniformemente al azar de un diccionario con 65,536 (= 16 bits) palabras (asumimos que el diccionario es conocido por el atacante.)
- Lanza una moneda (= 1 bit); si sale cara, lanza la primera letra de la palabra en mayúscula.
- Para cada vocal de la palabra, lanza una moneda; si cae cara, sustituye la vocal con su «sustitución común». Munroe simplifica aquí al asumir que las palabras del diccionario suelen tener tres vocales (por lo que obtenemos ~ 3 bits en total).
- Elige un número (~ 3 bits) y un símbolo de puntuación (~ 4 bits) al azar. Lanza una moneda (= 1 bit); si sale cara, agrega el número a la contraseña primero y el símbolo después; si sale cruz, añádelos en el otro orden.
La entropía es una función de la r elecciones de andom realizadas en el algoritmo; se calcula identificando qué elecciones aleatorias hace el algoritmo, cuántas alternativas están disponibles para cada elección aleatoria y la probabilidad relativa de las alternativas. He anotado los números en los pasos anteriores, y si los suma, obtiene un total de 28 bits.
Puede ver que el procedimiento de Munroe no es una ciencia sólida de ninguna manera, pero Tampoco es una estimación irrazonable. Está practicando el arte de la estimación rápida y sucia, que muy a menudo demuestra en su trabajo, no necesariamente obteniendo el número correcto, pero formándose una idea rápida de su magnitud aproximada.
Cada cuadrado pequeño es un poco de entropía que se está contando.
- 16 bits para la palabra sola
- 1 para la primera letra: mayúsculas o no?
- 1 para cada sustitución de O y 0, A y 4
- 4 para usar un símbolo que «no es eso común
- 3 para usar un número
- 1 para el orden desconocido de símbolo + número o número + símbolo.
Hay cierto razonamiento al respecto. Por ejemplo, cuando la contraseña requiere mayúsculas, casi todo el mundo pone mayúsculas en la primera letra. Así que no obtienes mucho más que un poco de entropía.
Comentarios