Definiciones y evolución de la edición digital y multimedia –
La evolución y el desarrollo de la informática
 

 Las Cuatro Generaciones de ordenadores

La Primera Generación de ordenadores se desarrolló entre los años 1946 y 1958, y se caracterizó por el uso de válvulas para procesar información. De esta época podemos mencionar el ENIAC o el UNIVAC I.

La invención del transistor en 1947 por parte de John Bardeen, Walter Brattain y William Shockley hizo posible la sustitución de las válvulas de los ordenadores. Su contribución científica les valió el premio Nobel de Física en 1956. Con el transistor se inició la Segunda Generación de ordenadores (1959-1964).

La Tercera Generación llegó con la aparición, en febrero de 1959, de los circuitos integrados, más conocidos como chips (1964-1971). La compañía DEC, para evitar competir con IBM, que disponía del 70 % del mercado, desarrolló en esta época ordenadores menos potentes pero más baratos, destinados a la gestión de empresas pequeñas.

Los actuales ordenadores, pertenecientes a la Cuarta Generación, están compuestos por microprocesadores y chips de silicio. El primer microordenador apareció en 1978. Fue el Apple, que se comercializó como un conjunto de piezas que el propio usuario debía montar. No obstante, el primer ordenador personal que alcanzó cierto grado de popularidad fue el denominado PC (Personal Computer u Ordenador Personal), de la empresa IBM, lanzado en 1981. Posteriormente, en 1984, Apple se introdujo en la informática doméstica a gran escala con la serie Macintosh, que incorporaba una interfaz gráfica (GUI o Graphic User Interface).

 En la Cuarta Revolución Tecnológica

Los imparables avances en la tecnología de los microprocesadores: la ley de Moore

Gordon Moore, en una entrevista para la revista Electronics, pronosticó en 1965 que el número de los transistores por pulgada en los circuitos se duplicaría cada año. Él mismo reformuló su afirmación poco tiempo después y sentenció que la capacidad de los microprocesadores se duplicaría cada 18 meses. Esta afirmación, conocida como «ley de Moore» sigue vigente tres décadas después de su formulación.

La consecuencia directa de esta evolución exponencial es que el potencial de los ordenadores se incrementa año tras año. Al mismo tiempo, los procesos de fabricación de microchips se optimizan y su precio de producción disminuye. Así, la misión del Apollo XI, que llevó al hombre a la luna en 1969, se realizó con un sistema que disponía de menor potencia de cálculo que cualquiera de los ordenadores domésticos actuales; evidentemente, supuso un coste muy superior a cualquiera de nuestros ordenadores personales.

 
Bibliografía sugerida

La espectacular evolución experimentada por la informática es descrita de manera muy gráfica por M. Barceló (1995, 11) que, recordando las palabras de Tom Forester, escribe:

Cita de autor


    «Si la automoción hubiera experimentado un desarrollo parecido a la informática, se podría disponer de un Rolls-Royce por menos de 300 pesetas y, además, el vehículo dispondría de la potencia de un trasatlántico como el Queen Elizabeth para ser capaz de recorrer un millón de kilómetros (unas 25 vueltas al mundo) con sólo un litro de gasolina».

    BARCELÓ, M. (1995). Prólogo de «El Mundo Digital» de Nicholas Negroponte, 7-14. Ediciones B, Barcelona.


La popularización de los sistemas informáticos, junto con el rápido desarrollo de la tecnología de este sector, propició la fabricación de productos multimedia y la edición digital. Debido a la popularización de la informática, empezaron a desarrollarse medios técnicos para acercar el lenguaje del sistema al usuario (interfaces gráficas), iniciándose la era multimedia. El sector detectó rápidamente que este tipo de comunicación mediante interfaces gráficas podía orientarse a satisfacer otras necesidades del público; el usuario no sólo pretende comunicarse con el sistema, sino que quiere recibir información, utilizarla, jugar, divertirse... De esta manera, las interfaces gráficas empezaron a aplicarse a todos los productos informáticos como una manera de comunicación viable y necesaria con el usuario.

La era de la integración de sistemas

Adell (1997, Web), siguiendo las propuestas de numerosos autores, que dividen la historia humana en períodos caracterizados por la tecnología dominante de codificación, almacenamiento y recuperación de la información (como Levinson, Harnad o Bosco), habla de cuatro revoluciones tecnológicas: la aparición del lenguaje, la aparición de la escritura, la aparición de la imprenta y, finalmente, el uso de los medios electrónicos y la digitalización. Esta cuarta revolución tecnológica se caracteriza por «un nuevo código más abstracto y artificial (necesitamos aparatos para producirlo y descifrarlo) de representación de la información».

Por tanto, en esta cuarta revolución tecnológica, el conocimiento del nuevo código se hace imprescindible para poder desarrollar cualquier tipo de producto comunicativo basado en el lenguaje multimedia, nacido «de la convergencia del lenguaje verbal y el audiovisual en medios interactivos e interconectados» (Gutiérrez Martín, 2000, 4).

 Hacia el ordenador ubicuo: los paradigmas de la computación

Weiser y Seely (1996) apuntan que, tras la época de los grandes ordenadores, que compartían sus recursos con un gran número de usuarios conectados a él mediante terminales (uno para muchos) y la época de los ordenadores personales, en los que cada usuario dispone de su propio sistema (uno para uno), se llegará, tras un período de transición dominado por Internet y el acceso distribuido a la información, a la era de los ordenadores ubicuos (muchos para uno).

El «tercer paradigma de la computación», como se ha venido llamando, se opone frontalmente a la filosofía que propone la tecnología de la realidad virtual. En lugar de pretender que el usuario «se introduzca» en un mundo virtual para actuar sobre él, se pretende que los ordenadores se integren en el entorno cotidiano de las personas, defendiendo la evidente afirmación de que «el mundo no es un escritorio» (Weiser, 1994).

 
Bibliografía complementaria

Se pueden distinguir tres grandes etapas en la evolución de la informática, que se corresponden con el pasado, el presente y el futuro (no muy lejano):

  • La etapa de los recursos compartidos (un macroordenador para muchos usuarios).

  • La etapa del ordenador personal (un ordenador para cada usuario).

  • La etapa del ordenador ubicuo (muchos microordenadores para un usuario).

Inicio