Historia de la Informática. Capítulo 77. 2000

Nos vamos hasta el año 2000. En este año el mundo de la informática se sumía en una profunda incertidumbre, nos acechaba el “Efecto 2000”!!

Como todos sabemos, este efecto, también conocido como error del milenio, es un bug o error del software que deriva de la costumbre que se había adoptado por muchos diseñadores de software, de situar el último año para el almacenamiento de fechas, en los que comienzan por “19”, así el último año sería el 1999. Este suceso se convirtió en una noticia más que comentada debido también al echo de que la gente ajena al mundo informático, le dio mucha coba, hasta el punto de pensarnos que la mayoría de los ordenadores del mundo fallarían ese día. Como era de esperar a nivel cierto, muchas aplicaciones y ordenadores fallaron al situarnos en el año 2000, unos de inmediato, y otros al arrancar susodichas aplicaciones. Se sucedieron diversos fallos a lo largo del todo planeta, unos con mayor importancia que otros; desde centrales nucleares cuyas alarmas fallaban justo al entrar en el año 2000, hasta errores como el sucedido en la red de comunicación móvil mas grande de japón (NTT Docomo) la cual comunicó que muchos terminales de móvil suprimían los mensajes nuevos en vez de los antiguos al llenarse la bandeja de entrada…

Curiosos efecto que quedo en una experiencia, y cuya incertidumbre volverá en el año 3000.

Este mismo año, Microsoft, lanzaba su nueva versión de Windows 2000, lo que supuso un cambio de nomenglatura para el sistema NT. Salieron varias versiones de este Windows. Se incorporaron mejoras como verdadero soporte para “plug and play”, servicio de directorio y integración de Internet e intranet. Microsoft realizaba un doble avance, lanzando también su versión de Windows ME, sucesor de Windows 98. Como no, no se esperaba un gran triunfo con este sistema, por lo que fue definido en importantes artículos, como el “cuarto peor avance tecnológico de todos los tiempos”, ya que a raíz de su venta, los usuarios experimentaron, aún más si cabe, problemas con la instalación, arranque, parada… en fin errores más que conocidos.

Este mismo año Apple seguía avanzando en su sistema operativo, lanzando la nueva versión Mac OS X. Este contenía diversos avances como el tener en su arquitectura, el subsistema “Darwin”, el cual dotaba a Mac OS de prestaciones modernas, como la memoria protegida o la gestión avanzada de memoria.

En este año ,y como en todos, se intentaban realizar avances que marcasen para siempre la historia de la informática. Surge un concepto de computadora totalmente nuevo y que en la actualidad aún es motivo de muchos estudios, y una posible salida al futuro de las computadoras modernas, este concepto es, “La computación cuántica”. La computación convencional tiene como unidad básica de almacenamiento el “bit”, el cuál puede estar en un estado discreto y alternativo a la vez, la diferencia con la computación cuántica consiste, en que en esta, cada bit, puede tener múltiples estados simultáneamente en un instante determinado, reduciendo así el tiempo de ejecución de algunos algoritmos de miles de años, a segundos., y pasando a llamarse, “Qbit” Para que nos hagamos una idea, un qbit, es un estado cuántico en un espacio vectorial complejo bidimensional. Debido a que en la actualidad la velocidad de nuestras computadoras está comenzando a estar limitado por la velocidad de los relojes de cuarzo, está sin duda es una alternativa más que viable a la computación que todos conocemos.

Enlaces de interes: