www.calentamientoglobalacelerado.net/gutenberg30 © 2016

:: Hipótesis desarrollada: CAPACIDAD FUTURA DE LOS ORDENADORES

MI ÚLTIMO PROYECTO INFORMÁTICO:

GUTENBERG 3.0 es un sencillo y potente software Gestor Documental para Windows (x86/x64) completamente gratuito:

gutenberg 3.0

... y ya a está listo !!!

Open Project GUTENBERG 3.0

· · · · · · · · · · · · · · · · · · · · · · · · · · · ·

Licencia de Creative Commons Esta obra está bajo una licencia de Creative Commons.  Licencia Creative Commons de obligado reconocimiento y citación del autor en caso de distribución de sus contenidos

Imprimir Página Documento completo PDF ¡actualizado!

¿Podría la ciencia calcular qué capacidad

de computación tendrán los

ordenadores en un plazo

de tan "sólo" 20 años?

Hipótesis basada en la aplicación de un coeficiente evolutivo calculado a partir de la trayectoria histórica conocida de los ordenadores.

NOTA de interés:

Este artículo fue publicado en el hoy desaparecido portal vertical informático elpatron.com el 21 de mayo de 2000, lo que ha permitido contrastar con la realidad parte de las previsiones que en su momento se hicieron, habiendo sido revisado varias veces desde entonces únicamente en su forma, nunca en su contenido ni en su algortimo básico de cálculo.

 

Dedicado a todos aquellos que un día soñaron con un QL de ®Sinclair, con poder acariciar sus duras teclas de plástico negro y oír el susurro de sus microdrives .

- - - o - - -

Rafael Lomena Varo © 2000

Preámbulo

Probablemente la ciencia, cuando menos la ficción, jamás pueda anticiparse, ni siquiera en un plazo de tiempo tan corto como pueden ser dos décadas, a pronosticar la capacidad de computación de los ordenadores futuros. La trayectoria histórica de la informática ha demostrado que nada sirve cuando se trata de medir y calcular la línea evolutiva en cuanto a capacidad computacional de las máquinas se refiere. Tal vez por ello, todos los intentos de pronóstico, muchos de ellos llevados al cine con éxito rotundo (2001, una odisea espacial), con intención o sin ella han fallado en su pretensión.

Soy nostálgico en estado puro, pero no puedo dejar de mirar al futuro que tal vez no llegue a conocer, y es que no deja de ser curioso y paradójico que algunos nostálgicos sintamos una especial atracción por el futuro en lo que podríamos llamar un curioso equilibrio entre neofilia y neofobia. Por eso quiero en esta ocasión, de la forma más empírica y objetiva que me resulta posible, acometer un sencillo y a la vez exhaustivo análisis que nos permita, cuando menos, rozar la realidad futura a corto plazo en lo que a computadoras se refiere. Con un poco de imaginación viajaremos al tiempo futuro de la informática en los años ’20 de nuestro joven siglo XXI.

La historia vive en nuestra memoria

A nuestras espaldas quedaba una irrepetible década, los ‘80, marcada fuertemente por la ola de los microordenadores gobernados por CPU’s de 8 bits. La resaca siempre pesa pero a veces es momento de reflexión y ante nosotros amanecía una nueva era, el último tramo del milenio que nos impulsaría con fuerza hasta superar la mítica barrera del año 2000. Los supuestos efectos del Y2K aún no preocupaban a nadie.

El cine de principio de los ’80 se encargó de convertir a los años ‘90 en la década de los "sueños eléctricos". "Tron", "Juegos de guerra", "Rescate en Nueva York 1997" y series como "Espacio 1999" entre otras, habían visualizado años antes una década cargada de sorpresas y trepidantes aventuras para los jóvenes de finales del milenio, plenamente convencidos y ansiosos de poder abrazar el futuro.

Pero eso no ocurrió, y una vez más el cine no fue fiel mensajero de lo que nos auguraba el futuro inminente y aquella generación creció y hubo de resignarse al comprobar que no celebraría la nochevieja del nuevo milenio en la luna ni en ninguna estación espacial. Lejos quedaron los sueños de la realidad. Tal vez algunos jamás llegamos a asumir el desengaño y ello nos convirtió en soñadores para el resto de nuestras vidas. Nuestra fascinación por el espacio, las computadoras, la inteligencia artificial y la ciencia, tal vez naciera allí, en esa maravillosa e irrepetible década de los ’80.

Mientras tanto, al otro lado del Atlántico, lo que algún día llegaría a dominar el mundo comenzaba a dar su primeros pasos, La Red. Hasta entonces, sólo los BBS (Bulletin Board System) habían podido saciar el hambre comunicativa entre los usuarios de ordenadores.

En mi mesa, un monitor de fósforo ámbar destellaba en la penumbra de mi habitación “dibujando” de forma sosegada los ficheros y directorios de un disquete mientras, sin despegar la vista del monitor, apuraba una taza de café leyendo con atención el texto de la pantalla. Un “single” de Radio Futura suena.

Transcurre el largo invierno de 1990 y las estrategias de IBM, Intel y Microsoft parecen haber consolidado ya definitivamente a la plataforma PC (Personal Computer) como el sistema estándar por excelencia dentro del mundo de los ordenadores para usuarios. Algunos todavía piensan que Apple ó la increíble plataforma Amiga de Commodore disponen de argumentos sólidos para disputar el liderazgo. No en vano, la capacidad del PC compatible del momento era especialmente pobre para llevar a cabo determinadas tareas y era fácilmente ridiculizada y superada por otras plataformas. En este sentido, un viejo y gran amigo intentando convencerme de las limitadas posibilidades del PC frente al todo poderoso Commodore Amiga 2000, me comentaba: "el PC es compatible y punto. Ahí acaban sus posibilidades", pero obviamente se equivocaba. Las guerras independientes de plataformas no compatibles con tecnología muy superior como Amiga, Atari ST, incluso el monstruoso NEXT y otros muchos inventos dignos de todos los elogios, se tornaban en esfuerzos sin sentido en la conquista de un terreno que día a día se les iba escapando de las manos ante las pretensiones de los gigantes monopolistas y ante un mercado ya definido. En sus intentos por sobrevivir pudimos ver auténticos prodigios propios del museo del silicio.

Los “cruces” que condujeron a plataformas híbridas fueron una de las fallidas estrategias de Commodore que llego a comercializar ordenadores como el Amiga 2000-PC, todo un Amiga 2000 que integraba en su interior una tarjeta emuladora PC en versiones XT (intel 8088) ó AT (intel 80286 ó 80386) y que otorgaban a la bestia la tan deseada Compatibilidad. Finalmente, las plataformas no compatibles quedaron aferradas a minorías muy reducidas que las utilizaban para el desempeño de tareas muy específicas principalmente enfocadas al terreno audiovisual, una materia prohibida para el PC del momento si no era a través de suculentas inversiones en software y en hardware. Algunas resistieron en el dormitorio de muchos jóvenes que prefirieron seguir “jugando” con aquellas máquinas ya condenadas a la extinción.

El mundo abrió las puertas a la compatibilidad al ver la posibilidad de conseguir un mercado global de mayores perspectivas y posibilidades y no estaba dispuesto a volver bajo ningún concepto a la "Torre de Babel" de los años anteriores, un panorama que había predominado en los '80 con las numerosas e incompatibles plataformas de 8 bits (Spectrum, Commodore 64, Amstrad 6128, MSX) y algunos de 16 (Atari ST, Commodore Amiga, Sinclair QL). Y así ocurre, de modo que los viejos microordenadores que habían reinado durante la época de los '80, algunos de ellos de potencia superior a un PC compatible de la época, fueron enterrados y olvidados en los trasteros para siempre sin ninguna perspectiva de resurrección. Si bien algunas de las plataformas más avanzadas y con microprocesadores de 16 bits resistieron algunos años más en los hogares como máquinas lúdicas, el mundo de los ordenadores ya era compatible en 1990. Podía haber sido cualquier otra plataforma pero tal vez llegaron tarde a la fiesta o no supieron animarla jugando sus bazas.

Calculando el futuro desde el suelo

Así, entre la curiosidad y la paradoja el recuerdo nos llevará hoy al futuro a través de la predicción basada en la historia y en nuestra propia experiencia. No, no estoy hablando de futurología, al menos desde un punto de vista esotérico, estoy hablando de algo muy distinto, establecer un pronóstico basado en sencillas reglas matemáticas y en hechos objetivos. ¿Dispuestos a seguirme? ¡Adelante!

En esta primera TABLA 1ª podemos apreciar, con un esfuerzo de memoria de los que ya empezamos a ser antiguos en este mundo de la informática personal, la evolución que ha sufrido nuestro ordenador de sobremesa desde 1990 hasta el mítico año 2000, es decir, durante toda una década:

Características técnicas básicas

Equipo PC compatible en configuración de gama baja en el año 1990 (procesador intel 8086)

Equipo PC compatible en configuración de gama baja en el año 2000 (procesador intel Celeron ó AMD K6-2 500)

Indice multiplicador evolutivo estimado

CPU (Velocidad en MHz) 10 MHz 500 MHz x50
CPU (Arquitectura interna en bits) 16 bits 32 bits x2
RAM (Kilobytes) 640 KB 32000 KB (=32 Mb) x50
Disco duro (Megabytes) 20 MB 20000 MB (=20 GB) x1000
Memoria Video (Kilobytes) 256 KB 16000 KB (=16 MB) x62
Todas las cifras reflejadas en esta tabla son aproximativas
Todas las unidades de medidas utilizadas se hallan descritas en el glosario de unidades...

Una vez completada esta primera tabla, ¿Por qué no obtener el índice multiplicador de estas diferencias? Este índice será sin lugar a dudas nuestro protagonista, al que llamaremos índice multiplicador evolutivo evolutivo. No deja de ser un valor estimado pues esta evolución nunca podrá ser totalmente lineal, pero nadie negará que resulta tentador como para no aprovechar el poder de pronóstico que nos brinda. Podremos imaginar con datos casi reales la capacidad de los equipos que ocuparán nuestros escritorios en un plazo de “sólo” 10 años o incluso 20, y eso en informática puede suponer toda una era. Los resultados se encuentran reflejados en la siguiente TABLA:

Características técnicas
(cifras aproximativas)

Equipo PC compatible en configuración de gama baja en el año 2000 (procesador intel Celeron ó AMD K6-2 500)

Equipo PC compatible en configuración de gama baja en el año 2010 , según índice multiplicador evolutivo estimado

Equipo PC compatible en configuración de gama baja en el año 2020 , según índice multiplicador evolutivo estimado

CPU (Velocidad en MHz) 500 MHz x50 25000 MHz
(=25 GHz)
x50
1250000 MHz
(=1125 GHz =1,125 THz)
CPU (Arquitectura interna en bits) 32 bits x2 64 bits x2 128 bits
RAM (Kilobytes) 32000 KB
(=32 MB)
x50
1600000 KB
(=1600 MB =1.6 GB)
x50
80000000 KB
(=80000 MB =80 GB)
Disco duro (Megabytes) 20000 MB
(=20 GB)
x1000
20000000 MB
(=20000 GB =20 TB)
x1000
20000000000 MB
(=20000000 Gb =20 PB)
Memoria Video (Kilobytes) 16000 KB
(=16 MB)
x62
1000000 KB
(=1000 MB =1 GB)
x62
62000000 KB
(=62000 MB =62 GB)
Todas las cifras reflejadas en esta tabla son aproximativas y estimadas
Todas las unidades de medidas utilizadas se hallan descritas en el glosario

Como habrán observado los equipos no son precisamente lo mejor de cada época. Los motivos que me han llevado a tomar como referencia un equipo de gama baja no es otro que el de utilizar sistemas accesibles a todo el mundo por su bajo coste así como evitar entrar en cuestiones técnicas que podrían desvirtuar el verdadero potencial del pronóstico. De esta forma, considero que se transmite un modelo mucho más cercano a todo el mundo.

Si bien los más optimistas pueden augurar resultados aún más espectaculares que los aquí descritos amparados en lo que podríamos denominar la “hipótesis fuerte”, los pronósticos más desfavorables argumentan una “hipótesis débil” y nos conducen a pensar que las limitaciones físicas de la tecnología actual están muy cerca y podrían constituir la causa de un estancamiento evolutivo, en cuanto a capacidad de proceso, que nos costará superar durante plazos indeterminados. En cualquier caso, cualquiera de estas líneas de hipótesis, aseveran que cualquier mortal del año 2020 dispondrá a un precio asequible (eso espero;) de sistemas de computación con capacidades monstruosas que esperarán nuestras órdenes (seguramente verbales) sobre nuestro escritorio.

Estos cálculos son obviamente aproximados y deben ser tomados como tal. Probablemente no se materialicen en la forma descrita ya que el desarrollo de nuevas tecnologías basadas en el procesamiento paralelo así como el empleo de nuevos materiales y técnicas en la construcción de procesadores o modificaciones y replanteamientos en sus arquitecturas internas podrían derivar en nuevas generaciones con índices de rendimiento superiores a frecuencias aparentemente similares.

De hecho, esta hipótesis para el cálculo de la capacidad futura de los ordenadores basada en el índice multiplicador evolutivo fue desarrollada en el año 2000, por lo que parte de ella podría ser contrastada en el plazo de 3 años y a juzgar por el ritmo de avance actual, podría cumplirse en gran parte de su contenido. En el caso de los procesadores vuelvo a insistir que, llegado el año 2010, a pesar de que las frecuencias pudieran no corresponderse con las reflejadas en los pronósticos, sí podría hacerlo el índice de rendimiento y la prueba de ello la tenemos ya en los procesadores de doble e incluso cuádruple núcleo que ya se están comercializando y que operando a la misma frecuencia que otro procesador pueden doblar su rendimiento.

En lo que respecta a memoria de trabajo (RAM y sistema de video) y unidades de almacenamiento, la hipótesis continua siendo perfectamente sostenible y a fecha de hoy ha soportado el paso de 8 años, casi una década, que en informática, no es poca cosa. Sin embargo, no debemos olvidar que aún cuando los pronósticos se cumplieran con la más rigurosa fidelidad toda vez alcanzados los plazos previstos en el presente estudio, la fórmula para calcular el futuro de los ordenadores aquí planteada nunca dejaría de ser una mera hipótesis (del latín hypothêsis), una suposición de algo posible o imposible para sacar de ello una consecuencia según la R.A.E., pues la aplicación de algoritmos lineales nunca sería efectiva sin un estudio pormenorizado y contextualizado de otras muchas variables implicadas en los procesos evolutivos tecnológicos.

Volviendo a la realidad, y conclusiones del autor

Es seguro que campos como la Inteligencia Artificial se beneficien de las enormes capacidades de procesamiento derivando en nuevas formas de “inteligencia” basadas en el tratamiento del conocimiento masivo, pero los que un día soñamos con un QL de Sinclair y que inducidos por el cine visualizamos nuestro futuro en el siglo XXI surcando el espacio, no debemos dejarnos llevar por la ensoñación. El hardware evoluciona pero el software también lo hace y sus direcciones evolutivas parecen ser opuestas en lo que a tiempos de ejecución se refiere, lo cual implicará mayores retardos derivados de un nivel de procesamiento mucho más complejo y, en no pocas ocasiones, de un código menos optimizado. Si entre los principales factores considerables en la evolución del hardware destacamos la miniaturización y el aumento de velocidad, en el caso del software estos dos factores suelen evolucionar en sentido opuesto. Es inevitable, el hardware se miniaturiza y acelera, el software crece haciéndose cada vez más complejo y pesado y en la mayoría de ocasiones, menos optimizado. Por ello, nuestro flamante ordenador compatible adquirido en el año 2010 con un procesador operando a 25 GHz de velocidad y 1,6 GB de RAM por unos 600 euros, podría mostrarse igual de rápido que un sistema actual y probablemente no se terminen de erradicar por completo los tediosos tiempos de espera para el usuario si no es a través de las configuraciones más avanzadas y costosas del momento.

Quizá la mejor muestra de ello sea la continua ralentización de los sistemas operativos Windows, que si bien a veces ofrecen ciertas mejoras en su aspecto, siempre es a costa de un notable aumento de proceso y peso. Sirva la siguiente tabla para ofrecer una idea aproximada de las causas:

Versión de sistema operativo Millones de líneas de código compiladas Año de lanzamiento
Microsoft Windows 95 15 1995
Microsoft Windows NT 4.0 25 1998
Microsoft Windows 2000 29 1999
Microsoft Windows XP 36 2001
Microsoft Windows Vista 50 2007


Por ello, debemos asumir que las imponentes cifras para el hardware reflejadas en la 2ª tabla irán irremediablemente asociadas a tasas de transferencia igualmente desmesuradas pero que seguramente se vean ralentizadas por mastodónticos programas movidos en pesados sistemas operativos
con interfaces sumamente complejas y no precisamente para el usuario. Por citar algún otro ejemplo, sírvanos conocer que el reconocimiento de voz es una de las asignaturas pendientes que madurará en los próximos 10 años para dar más tarde paso al reconocimiento de patrones (imágenes), tareas ambas que requieren una capacidad de cálculo inmenso y que devorarán cuantos GHz de frecuencia podamos imaginar.

Rafael Lomeña Varo © 2000

Glosario de unidades de medida empleadas
Megahercio (MHz): Unidad de medida de frecuencia. Su unidad base es el hercio. En los procesadores expresa el número de pulsos eléctricos desarrollados en un segundo (Mega=millón). Sus múltiplos empleados son el Gigahercio (GHz) y el Terahercio (THz).
Gigahercio (GHz): Unidad de medida de frecuencia múltiplo del hercio que equivale a mil millones de hercios.
Terahercio (THz): Unidad de medida de frecuencia múltiplo del hercio que equivale a un billón de hercios. Otros múltiplos superiores serían el Petahercio (PHz), el Exahercio (EHz) y el Zetahercio (ZHz) hoy por hoy no utilizados.
Bit: Unidad de medida de almacenamiento de información. Unidad mínima de memoria obtenida del sistema binario y representada por 0 ó 1. Posee capacidad para almacenar sólo dos estados diferentes, encendido (1) ó apagado (0).
Byte: Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 8 bits.
Kilobyte (KBytes): [Abrev. KB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 bytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos).
* No confundir esta unidad con Kilobits (=1024 bits), empleada frecuentemente para designar tasas de transferencia de datos en dispositivos de redes y comunicaciones.
Megabyte (MBytes): [Abrev. MB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Kilobytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos)
* No confundir esta unidad con Megabits (=1024 Kilobits), empleada frecuentemente para designar tasas de transferencia de datos en dispositivos de redes y comunicaciones.
Gigabyte (GBytes): [Abrev. GB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Megabytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos)
Terabyte (TByte): [Abrev. TB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Gigabytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos)
Petabyte (PByte): [Abrev. PB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Terabytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos)
Exabyte (EByte): [Abrev. EB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Petabytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos)
Zetabyte (ZByte): [Abrev. ZB ] Unidad de medida de almacenamiento de información. Unidad de memoria equivalente a 1024 Exabytes (en las tablas se toma el valor 1000 para clarificar el resultado de los cálculos)

BIBLIOGRAFÍA Y OTRAS FUENTES

DICCIONARIO DE INFORMÁTICA E INTERNET de Enrique de Alarcón Álvarez. Grupo Anaya, S.A.© 2000

Agradecimientos especiales a:

Miguel Ángel Armijo Pazos

:: Notas de interés
Cita legal necesaria a incluir en la divulgación de cualquier contenido de este website de acuerdo con lo estipulado para obras amparadas por licencias Creative Commons:


DONATIVO DE APOYO


El reconocimiento al trabajo y al esfuerzo es la única forma de que el hombre llegue a superarse a sí mismo. Para ello, usted puede contribuir a la continuidad de esta web y al desarrollo de su contenido y aplicaciones gratuitas a través de un simbólico donativo a su autor por el que siempre le estaré agradecido.

Enlaces diversos recomendados por el autor ...


Trabajo divulgativo dirigido a coleccionistas de vintage informático e investigadores de la computación (1 MB) Probablemente el mayor recopilatorio de manuales técnicos originales que hayas visto jamás para computadoras clásicas en formato digital.

.: Marketing Digital Multiplataforma
Técnica publicitaria para la fidelización de clientes mediante obsequio publicitario digital gratuito para el profesional y la PYME

.: Marketing Atracción
Técnicas de captación de clientes/usuarios a través de software gratuito.
MARKETING ATRACTION

.: Recurso publicitario gratuito
Recursos gratuitos de publicidad directa para PYMEs y Profesionales autónomos.
Promoción de empresa a COSTE CERO.

.: Publicidad Directa Gratuita para empresas
Fidelización y retención de clientes a través del obsequio publicitario definitivo para PYMEs y Profesionales.
MARKETING RETENTION

.: EuroSuite Utilities
El mayor paquete integrado de utilidades 100% GRATUITO considerada por miles de usuarios como una herramienta imprescindible en cualquier ordenador.
La aplicación gratuita
EuroSuite Utilities le permitirá por ejemplo realizar facturas en 3 minutos con los nuevos tipo de IVA.

SAT cambio climático
Sistema de Alerta Temprana

Iniciativa desarrollada por el autor de Mis Hipótesis con el objeto de incrementar el nivel de concienciación global sobre el fenómeno del calentamiento global.

www.fundacionpiesdescalzos.com
Algunas personas influyentes desarrollan una labor entrañable a la vez que constituyen un ejemplo para toda la humanidad, y en especial para el colectivo más pudiente. La Fundación Pies Descalzos es el mejor ejemplo de ello.

Web oficial de Alberto Vázqez-Figueroa
Debo reconocer que me resulta complicado definir mi admiración por su trabajo, igual que resulta difícil definir el carisma y la solidaridad de uno de los periodistas y escritores de habla hispana más relevantes del siglo XX y XXI

www.teaming.info
Uno de los más sensatos e ingeniosos proyectos para construir un mundo mejor de la mano del incombustible Jil Van Eyle Ver video explicativo

noticiasdelcosmos.com
Web de referencia para apasionados del cosmos. Contenidos de calidad actualizados. Probablemente uno de las mayores bases documentales temáticas sobre el universo y la astronomía

casanchi
Web de referencia en la publicación de contenido científico en español. El rigor, la constancia y su carácter no comercial, han permitido a su autor consolidarla entre los más importantes centros documentales de publicaciones científicas. Matemáticas, astronomía, filosofía, física, etc.
* Varias de Mis Hipótesis están publicadas en casanchi

Anillo informativo AON
Anillo informativo sobre este plan de choque contra la crisis española y la dependencia energética, basado en el desarrollo e implementación del sistema combinado de desalación/hidroeléctrico diseñado por el periodista e inventor Alberto Vázquez-Figueroa.
©© Rafael Lomeña

Inteligencia Artificial
Portal informativo (con software y material de interés) de introducción a este apasionante área multidisciplinar que abarca ciencias tan dispares como la psicología, neurología, ingeniería robótica y computacional. El desarrollo de vida artificial o sistemas expertos inteligentes se hallan entre sus objetivos
©© Rafael Lomeña

Euro Suite Utilities
De la mano del autor de Mis Hipótesis, llega la que probablemente sea la mejor aplicación gratuita, portable, multiplataforma y multifuncional, destinada tanto al usuario profesional como personal. Una suite con más de 40 utilidades integradas en un único programa.

Euro Suite Utilities es personalizable gratuitamente para su utilización como obsequio publicitario y de promoción de marca e imagen corporativa de empresa, dentro y fuera de La Red
©© Rafael Lomeña

©© 2016

Contacto