MI
ÚLTIMO PROYECTO INFORMÁTICO:
GUTENBERG 3.0 es un sencillo y potente software Gestor Documental para Windows (x86/x64) completamente gratuito:
![gutenberg 3.0](img/gutenberg30-small.jpg)
... y ya a está listo !!!
· · · · · · · · · · · · · · · · · · · · ·
· · · · · · · |
Esta obra está bajo una licencia
de Creative Commons.
![Licencia Creative Commons de obligado reconocimiento y citación del autor en caso de distribución de sus contenidos](img/cc.gif)
![](img/cita2.gif)
![](img/bar2.gif)
¿Podría la
ciencia calcular qué
capacidad
de computación
tendrán los
ordenadores en
un plazo
de tan "sólo"
20 años?
![](img/bar2.gif)
Hipótesis basada en la aplicación de un coeficiente
evolutivo calculado a partir de la trayectoria histórica conocida de
los ordenadores.
NOTA
de interés:
Este
artículo fue publicado en el hoy desaparecido
portal vertical informático elpatron.com el
21 de mayo de 2000, lo que ha permitido contrastar
con la realidad parte de las previsiones que
en su momento se hicieron, habiendo sido revisado
varias veces desde entonces únicamente en su
forma, nunca en su contenido ni en su algortimo
básico de cálculo.
|
Dedicado a
todos aquellos que un día soñaron
con un QL de ®Sinclair, con poder acariciar
sus duras teclas de plástico negro y
oír el susurro de sus microdrives .
- - - o - - -
Rafael
Lomena Varo © 2000![](img/cursor.gif)
|
![](img/ql.jpg)
Probablemente la ciencia, cuando
menos la ficción, jamás pueda anticiparse, ni
siquiera en un plazo de tiempo tan corto como
pueden ser dos décadas, a pronosticar la
capacidad de computación de los ordenadores
futuros. La trayectoria histórica de la
informática ha demostrado que nada sirve cuando
se trata de medir y calcular la línea evolutiva
en cuanto a capacidad computacional de las
máquinas se refiere. Tal vez por ello, todos los
intentos de pronóstico, muchos de ellos llevados
al cine con éxito rotundo (2001, una odisea
espacial), con intención o sin ella han
fallado en su pretensión.
Soy
nostálgico en estado puro, pero no puedo dejar
de mirar al futuro que tal vez no llegue a
conocer, y es que no deja de ser curioso y
paradójico que algunos nostálgicos sintamos una
especial atracción por el futuro en lo que
podríamos llamar un curioso equilibrio entre
neofilia y neofobia. Por eso quiero en esta
ocasión, de la forma más empírica y objetiva
que me resulta posible, acometer un sencillo y a
la vez exhaustivo análisis que nos permita,
cuando menos, rozar la realidad futura a corto
plazo en lo que a computadoras se refiere. Con un
poco de imaginación viajaremos al tiempo futuro
de la informática en los años 20 de
nuestro joven siglo XXI.
La
historia vive en nuestra memoria
|
A nuestras espaldas quedaba una
irrepetible década, los 80, marcada
fuertemente por la ola de los microordenadores
gobernados por CPUs de 8 bits. La resaca
siempre pesa pero a veces es momento de
reflexión y ante nosotros amanecía una nueva
era, el último tramo del milenio que nos
impulsaría con fuerza hasta superar la mítica
barrera del año 2000. Los supuestos efectos del Y2K
aún no preocupaban a nadie.
El
cine de principio de los 80 se encargó de
convertir a los años 90 en la década de
los "sueños eléctricos".
"Tron", "Juegos de
guerra", "Rescate en Nueva York
1997" y series como "Espacio
1999" entre otras, habían visualizado
años antes una década cargada de sorpresas y
trepidantes aventuras para los jóvenes de
finales del milenio, plenamente convencidos y
ansiosos de poder abrazar el futuro.
Pero
eso no ocurrió, y una vez más el cine no fue
fiel mensajero de lo que nos auguraba el futuro
inminente y aquella generación creció y hubo de
resignarse al comprobar que no celebraría la
nochevieja del nuevo milenio en la luna ni en
ninguna estación espacial. Lejos quedaron los
sueños de la realidad. Tal vez algunos jamás
llegamos a asumir el desengaño y ello nos
convirtió en soñadores para el resto de
nuestras vidas. Nuestra fascinación por el
espacio, las computadoras, la inteligencia
artificial y la ciencia, tal vez naciera allí,
en esa maravillosa e irrepetible década de los
80.
Mientras
tanto, al otro lado del Atlántico, lo que algún
día llegaría a dominar el mundo comenzaba a dar
su primeros pasos, La Red. Hasta entonces, sólo
los BBS (Bulletin Board System) habían
podido saciar el hambre comunicativa entre los
usuarios de ordenadores.
En
mi mesa, un monitor de fósforo ámbar destellaba
en la penumbra de mi habitación
dibujando de forma sosegada los
ficheros y directorios de un disquete mientras,
sin despegar la vista del monitor, apuraba una
taza de café leyendo con atención el texto de
la pantalla. Un single de Radio
Futura suena.
Transcurre el largo
invierno de 1990 y las estrategias de IBM, Intel
y Microsoft parecen haber consolidado ya definitivamente
a la plataforma PC (Personal Computer)
como el sistema estándar por excelencia dentro del mundo
de los ordenadores para usuarios. Algunos todavía piensan
que Apple ó la increíble plataforma Amiga de
Commodore disponen de argumentos sólidos para disputar
el liderazgo. No en vano, la capacidad del PC compatible
del momento era especialmente pobre para llevar a cabo determinadas
tareas y era fácilmente ridiculizada y superada por otras
plataformas. En este sentido, un viejo y gran amigo intentando
convencerme de las limitadas posibilidades del PC frente
al todo poderoso Commodore Amiga 2000, me comentaba:
"el PC es compatible y punto. Ahí acaban sus posibilidades",
pero obviamente se equivocaba. Las guerras independientes
de plataformas no compatibles con tecnología muy superior
como Amiga, Atari ST, incluso el monstruoso NEXT
y otros muchos inventos dignos de todos los elogios,
se tornaban en esfuerzos sin sentido en la conquista de
un terreno que día a día se les iba escapando de las manos
ante las pretensiones de los gigantes monopolistas y ante
un mercado ya definido. En sus intentos por sobrevivir pudimos
ver auténticos prodigios propios del museo del silicio.
Los
cruces que condujeron a plataformas
híbridas fueron una de las fallidas estrategias
de Commodore que llego a comercializar
ordenadores como el Amiga 2000-PC, todo un
Amiga 2000 que integraba en su interior
una tarjeta emuladora PC en versiones XT (intel
8088) ó AT (intel 80286 ó 80386) y que
otorgaban a la bestia la tan deseada
Compatibilidad. Finalmente, las plataformas no
compatibles quedaron aferradas a minorías muy
reducidas que las utilizaban para el desempeño
de tareas muy específicas principalmente
enfocadas al terreno audiovisual, una materia
prohibida para el PC del momento si no era a
través de suculentas inversiones en software y
en hardware. Algunas resistieron en el dormitorio
de muchos jóvenes que prefirieron seguir
jugando con aquellas máquinas ya
condenadas a la extinción.
El
mundo abrió las puertas a la compatibilidad al
ver la posibilidad de conseguir un mercado global
de mayores perspectivas y posibilidades y no
estaba dispuesto a volver bajo ningún concepto a
la "Torre de Babel" de los años
anteriores, un panorama que había predominado en
los '80 con las numerosas e incompatibles
plataformas de 8 bits (Spectrum, Commodore 64,
Amstrad 6128, MSX) y algunos de 16 (Atari
ST, Commodore Amiga, Sinclair QL). Y así
ocurre, de modo que los viejos microordenadores
que habían reinado durante la época de los '80,
algunos de ellos de potencia superior a un PC
compatible de la época, fueron enterrados y
olvidados en los trasteros para siempre sin
ninguna perspectiva de resurrección. Si bien
algunas de las plataformas más avanzadas y con
microprocesadores de 16 bits resistieron algunos
años más en los hogares como máquinas
lúdicas, el mundo de los ordenadores ya era
compatible en 1990. Podía haber sido cualquier
otra plataforma pero tal vez llegaron tarde a la
fiesta o no supieron animarla jugando sus bazas.
Calculando
el futuro desde el suelo
|
Así, entre la curiosidad y la
paradoja el recuerdo nos llevará hoy al futuro a
través de la predicción basada en la historia y
en nuestra propia experiencia. No, no estoy
hablando de futurología, al menos desde un punto
de vista esotérico, estoy hablando de algo muy
distinto, establecer un pronóstico basado en
sencillas reglas matemáticas y en hechos
objetivos. ¿Dispuestos a seguirme? ¡Adelante!
En
esta primera TABLA 1ª podemos apreciar, con un
esfuerzo de memoria de los que ya empezamos a ser
antiguos en este mundo de la informática
personal, la evolución que ha sufrido nuestro
ordenador de sobremesa desde 1990 hasta el
mítico año 2000, es decir, durante toda una
década:
Características
técnicas básicas
|
Equipo
PC compatible en configuración de gama
baja en el año 1990
(procesador intel 8086)
|
Equipo
PC compatible en configuración de gama
baja en el año 2000
(procesador intel Celeron ó AMD K6-2
500)
|
Indice
multiplicador evolutivo estimado
|
CPU
(Velocidad en MHz) |
10 MHz |
500 MHz |
x50 |
CPU
(Arquitectura interna en bits) |
16 bits |
32 bits |
x2 |
RAM
(Kilobytes) |
640 KB |
32000 KB (=32 Mb) |
x50 |
Disco
duro (Megabytes) |
20
MB |
20000
MB (=20 GB) |
x1000 |
Memoria
Video (Kilobytes) |
256
KB |
16000
KB (=16 MB) |
x62 |
Todas las cifras reflejadas en esta tabla
son aproximativas
Todas las unidades de medidas utilizadas
se hallan descritas en el glosario de
unidades... |
Una vez completada esta primera
tabla, ¿Por qué no obtener el índice
multiplicador de estas diferencias? Este índice
será sin lugar a dudas nuestro protagonista, al
que llamaremos índice multiplicador evolutivo
evolutivo. No deja de ser un valor estimado pues
esta evolución nunca podrá ser totalmente
lineal, pero nadie negará que resulta tentador
como para no aprovechar el poder de pronóstico
que nos brinda. Podremos imaginar con datos casi
reales la capacidad de los equipos que ocuparán
nuestros escritorios en un plazo de
sólo 10 años o incluso 20, y eso en
informática puede suponer toda una era. Los
resultados se encuentran reflejados en la
siguiente TABLA:
Características
técnicas
(cifras aproximativas)
|
Equipo
PC compatible en configuración de gama
baja en el año 2000
(procesador intel Celeron ó AMD K6-2
500)
|
Equipo
PC compatible en configuración de gama
baja en el año 2010 ,
según índice multiplicador evolutivo
estimado
|
Equipo
PC compatible en configuración de gama
baja en el año 2020 ,
según índice multiplicador evolutivo
estimado
|
CPU
(Velocidad en MHz) |
500 MHz x50 |
25000 MHz
(=25 GHz) x50 |
1250000 MHz
(=1125 GHz =1,125 THz) |
CPU
(Arquitectura interna en bits) |
32 bits x2 |
64 bits x2 |
128 bits |
RAM
(Kilobytes) |
32000 KB
(=32 MB) x50 |
1600000 KB
(=1600 MB =1.6 GB) x50 |
80000000 KB
(=80000 MB =80 GB) |
Disco
duro (Megabytes) |
20000 MB
(=20 GB) x1000 |
20000000 MB
(=20000 GB =20 TB) x1000 |
20000000000 MB
(=20000000 Gb =20 PB) |
Memoria
Video (Kilobytes) |
16000 KB
(=16 MB) x62 |
1000000 KB
(=1000 MB =1 GB) x62 |
62000000 KB
(=62000 MB =62 GB) |
Todas las cifras reflejadas en esta tabla
son aproximativas y estimadas
Todas las unidades de medidas utilizadas
se hallan descritas en el glosario |
Como habrán observado los equipos
no son precisamente lo mejor de cada época. Los
motivos que me han llevado a tomar como
referencia un equipo de gama baja no es otro que
el de utilizar sistemas accesibles a todo el
mundo por su bajo coste así como evitar entrar
en cuestiones técnicas que podrían desvirtuar
el verdadero potencial del pronóstico. De esta
forma, considero que se transmite un modelo mucho
más cercano a todo el mundo.
Si
bien los más optimistas pueden augurar
resultados aún más espectaculares que los aquí
descritos amparados en lo que podríamos
denominar la hipótesis fuerte, los
pronósticos más desfavorables argumentan una
hipótesis débil y nos conducen a
pensar que las limitaciones físicas de la
tecnología actual están muy cerca y podrían
constituir la causa de un estancamiento
evolutivo, en cuanto a capacidad de proceso, que
nos costará superar durante plazos
indeterminados. En cualquier caso, cualquiera de
estas líneas de hipótesis, aseveran que
cualquier mortal del año 2020 dispondrá a un
precio asequible (eso espero;) de sistemas de
computación con capacidades monstruosas que
esperarán nuestras órdenes (seguramente
verbales) sobre nuestro escritorio.
Estos
cálculos son obviamente aproximados y deben ser
tomados como tal. Probablemente no se
materialicen en la forma descrita ya que el
desarrollo de nuevas tecnologías basadas en el
procesamiento paralelo así como el empleo de
nuevos materiales y técnicas en la construcción
de procesadores o modificaciones y
replanteamientos en sus arquitecturas internas
podrían derivar en nuevas generaciones con
índices de rendimiento superiores a frecuencias
aparentemente similares.
De
hecho, esta hipótesis para el cálculo de la
capacidad futura de los ordenadores basada en el
índice multiplicador evolutivo fue desarrollada
en el año 2000, por lo que parte de ella podría
ser contrastada en el plazo de 3 años y a juzgar
por el ritmo de avance actual, podría cumplirse
en gran parte de su contenido. En el caso de los
procesadores vuelvo a insistir que, llegado el
año 2010, a pesar de que las frecuencias
pudieran no corresponderse con las reflejadas en
los pronósticos, sí podría hacerlo el índice
de rendimiento y la prueba de ello la tenemos ya
en los procesadores de doble e incluso cuádruple
núcleo que ya se están comercializando y que
operando a la misma frecuencia que otro
procesador pueden doblar su rendimiento.
En
lo que respecta a memoria de trabajo (RAM y
sistema de video) y unidades de almacenamiento,
la hipótesis continua siendo perfectamente
sostenible y a fecha de hoy ha soportado el paso
de 8 años, casi una década, que en
informática, no es poca cosa. Sin embargo, no
debemos olvidar que aún cuando los pronósticos
se cumplieran con la más rigurosa fidelidad toda
vez alcanzados los plazos previstos en el
presente estudio, la fórmula para calcular el
futuro de los ordenadores aquí planteada nunca
dejaría de ser una mera hipótesis (del latín hypothêsis),
una suposición de algo posible o imposible para
sacar de ello una consecuencia según la R.A.E.,
pues la aplicación de algoritmos lineales nunca
sería efectiva sin un estudio pormenorizado y
contextualizado de otras muchas variables
implicadas en los procesos evolutivos
tecnológicos.
Volviendo
a la realidad, y conclusiones del autor
|
Es seguro que campos como la
Inteligencia Artificial se beneficien de las
enormes capacidades de procesamiento derivando en
nuevas formas de inteligencia basadas
en el tratamiento del conocimiento masivo, pero
los que un día soñamos con un QL de Sinclair
y que inducidos por el cine visualizamos
nuestro futuro en el siglo XXI surcando el
espacio, no debemos dejarnos llevar por la
ensoñación. El hardware evoluciona pero el
software también lo hace y sus direcciones
evolutivas parecen ser opuestas en lo que a
tiempos de ejecución se refiere, lo cual
implicará mayores retardos derivados de un nivel
de procesamiento mucho más complejo y, en no
pocas ocasiones, de un código menos optimizado.
Si entre los principales factores considerables
en la evolución del hardware destacamos la
miniaturización y el aumento de velocidad, en el
caso del software estos dos factores suelen
evolucionar en sentido opuesto. Es inevitable, el
hardware se miniaturiza y acelera, el software
crece haciéndose cada vez más complejo y pesado
y en la mayoría de ocasiones, menos optimizado.
Por ello, nuestro flamante ordenador compatible
adquirido en el año 2010 con un procesador
operando a 25 GHz de velocidad y 1,6 GB de RAM
por unos 600 euros, podría mostrarse igual de
rápido que un sistema actual y probablemente no
se terminen de erradicar por completo los
tediosos tiempos de espera para el usuario si no
es a través de las configuraciones más
avanzadas y costosas del momento.
Quizá
la mejor muestra de ello sea la continua
ralentización de los sistemas operativos
Windows, que si bien a veces ofrecen ciertas
mejoras en su aspecto, siempre es a costa de un
notable aumento de proceso y peso. Sirva la
siguiente tabla para ofrecer una idea aproximada
de las causas:
Versión
de sistema operativo |
Millones
de líneas de código compiladas |
Año
de lanzamiento |
Microsoft Windows 95 |
15 |
1995 |
Microsoft Windows NT 4.0 |
25 |
1998 |
Microsoft Windows 2000 |
29 |
1999 |
Microsoft Windows XP |
36 |
2001 |
Microsoft Windows Vista |
50 |
2007 |
Por ello, debemos asumir que las imponentes cifras para
el hardware reflejadas en la 2ª tabla irán irremediablemente
asociadas a tasas de transferencia igualmente desmesuradas
pero que seguramente se vean ralentizadas por mastodónticos
programas movidos en pesados sistemas operativos con interfaces sumamente complejas y no precisamente
para el usuario. Por citar algún otro ejemplo, sírvanos
conocer que el reconocimiento de voz es una de las asignaturas
pendientes que madurará en los próximos 10 años para dar
más tarde paso al reconocimiento de patrones (imágenes),
tareas ambas que requieren una capacidad de cálculo inmenso
y que devorarán cuantos GHz de frecuencia podamos imaginar.
![](graficos/separa.gif)
![](img/firma2.gif)
Rafael Lomeña Varo © 2000
![](img/bar2.gif)
Glosario
de unidades de medida empleadas |
Megahercio (MHz): Unidad de medida
de frecuencia. Su unidad base es el
hercio. En los procesadores expresa el
número de pulsos eléctricos
desarrollados en un segundo
(Mega=millón). Sus múltiplos empleados
son el Gigahercio (GHz) y el Terahercio (THz). |
Gigahercio (GHz): Unidad de medida
de frecuencia múltiplo del hercio que
equivale a mil millones de hercios. |
Terahercio
(THz): Unidad de medida de
frecuencia múltiplo del hercio que
equivale a un billón de hercios. Otros
múltiplos superiores serían el Petahercio (PHz), el Exahercio (EHz) y el
Zetahercio (ZHz) hoy por hoy no
utilizados. |
Bit: Unidad de medida
de almacenamiento de información. Unidad
mínima de memoria obtenida del sistema
binario y representada por 0 ó 1. Posee
capacidad para almacenar sólo dos
estados diferentes, encendido (1) ó
apagado (0). |
Byte: Unidad de medida
de almacenamiento de información. Unidad
de memoria equivalente a 8 bits. |
Kilobyte
(KBytes): [Abrev. KB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 bytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos).
* No confundir esta unidad
con Kilobits (=1024 bits), empleada
frecuentemente para designar tasas de
transferencia de datos en dispositivos de
redes y comunicaciones. |
Megabyte
(MBytes): [Abrev. MB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 Kilobytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos)
* No confundir esta unidad
con Megabits (=1024 Kilobits), empleada
frecuentemente para designar tasas de
transferencia de datos en dispositivos de
redes y comunicaciones. |
Gigabyte
(GBytes): [Abrev. GB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 Megabytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos) |
Terabyte
(TByte): [Abrev. TB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 Gigabytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos) |
Petabyte
(PByte): [Abrev. PB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 Terabytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos) |
Exabyte
(EByte): [Abrev. EB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 Petabytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos) |
Zetabyte
(ZByte): [Abrev. ZB ] Unidad de
medida de almacenamiento de información.
Unidad de memoria equivalente a 1024 Exabytes (en las tablas
se toma el valor 1000 para clarificar el
resultado de los cálculos) |
BIBLIOGRAFÍA
Y OTRAS FUENTES
DICCIONARIO DE
INFORMÁTICA E INTERNET de Enrique de
Alarcón Álvarez. Grupo Anaya, S.A.© 2000
Agradecimientos
especiales a:
Miguel Ángel Armijo Pazos
|