Los usuarios de Windows habrán podido comprobar que cuando requieren comprimir archivos es incluso más rápido utilizar una versión antigua de WinZip een lugar del sistema incorporado en las versiones incluso más recientes de Windows. Microsoft ha decidido explicar por qué el sistema de compresión de Windows es tan deficiente.
Raymond Chen, ingeniero de Microsoft, explica en el blog de Windows Developers que cuando la solución de compresión fue diseñada, fue necesario basarla en la arquitectura para procesadores más débil de ese entonces. Asimismo, era necesario que el algoritmo de compresión funcionase independientemente del sistema operativo. De esa forma, los archivos comprimidos en un sistema podrían ser descomprimidos en otro. Si este no hubiese sido el caso, no habría sido posible trasladar un disco de un sistema a otro y poder leer los archivos sin dificultades.
Uno de los factores que definitivamente impuso el límite para la capacidad y velocidad del algoritmo de compresión fue el procesador Alpha AXP de DEC/Compaq. “Uno de mis colegas, ahora jubilado, que trabajaba con compresión en tiempo real, me dijo que el procesador Alpha AXP incorporaba instrucciones muy débiles para la manipulación de bits. El algoritmo que finalmente fue escogido, nibble [nota de redacción: 4 bits], representaba la unidad más pequeña de codificación en el flujo comprimido. Cualquier cosa inferior al nibble frenaría demasiado el proceso de compresión”, escribe Chen.
Microsoft y Compaq abandonaron el soporte para la arquitectura Alpha poco antes del lanzamiento de Windows 2000. Chen concluye que, al menos en teoría, no había impedimento para adoptar un algoritmo de compresión más avanzado. “Sin embargo, no se hizo”, escribe Chen, quien agrega que actualmente los discos duros son tan grandes y baratos (menciona el caso de un disco de 5TB que puede ser adquirido por USD 120), que la compresión en sí no constituye un problema. “Vivimos en un mundo post-compresión de archivos”, concluye señalando Chen.