Anexo

Breve historia de las comunicaciones y las redes
  • Ramon Musach Pi

     Ramon Musach Pi

    Licenciado en Ciencias Matemáticas e Ingeniero Superior en Informática por la Universidad Autónoma de Barcelona (UAB). Desarrolla su actividad entre estas dos disciplinas, desde la vertiente docente y de investigación. Autor de diversos materiales didàcticos multimedia, de formación y de soporte a la tarea docente.

PID_00221230
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea este eléctrico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita del titular de los derechos.

1.Breve historia de las comunicaciones y las redes

Para llegar a disponer de una buena perspectiva de las tecnologías asociadas a las telecomunicaciones y a las redes, hace falta conocer su evolución histórica, con los hitos más relevantes.
En 1878, Alexander Graham Bell patenta el teléfono, con el cual se puede mantener una conversación a distancia entre dos aparatos unidos por un hilo eléctrico. Con el teléfono nace la idea de red de comunicaciones. Teniendo en cuenta que el modelo de interconexión de “todos con todos” era inviable, aparecieron las compañías telefónicas que ofrecían servicios de conmutación: cada teléfono quedaba conectado por cable a una central de conmutación. En los inicios, en las centrales de conmutación, las operadoras conectaban los cables de los teléfonos que se querían comunicar. Posteriormente estos procesos se fueron sustituyendo por centralitas más automatizadas.
Las redes telefónicas constituyen una red de conmutación de circuitos, en la que para llevar a cabo una comunicación había que establecer un circuito entre los dos extremos mediante la red. Mientras la comunicación se está produciendo, hay unos recursos que se están utilizando de forma exclusiva, a pesar de que no haya un flujo constante de intercambio de información. En la conmutación de circuitos se dan tres fases: establecimiento de la llamada, comunicación y liberación de los recursos. Con esta tecnología la ocupación del canal es exclusiva mientras dura la conexión. Presenta el inconveniente de que para el uso real que se hacía (no todo el tiempo de conexión se estaba transmitiendo), las facturas eran muy elevadas.
A partir de mediados del siglo XX la historia de las telecomunicaciones va ligada a la historia de la informática.
A mediados de los años sesenta, los grandes fabricantes informáticos de la época, como IBM, Univac y Honeywell, empezaron a desarrollar los primeros sistemas de comunicación entre ordenadores. Se trata de unos años en los que cada empresa diseñaba sus procesadores, su software y, por lo tanto, su propia arquitectura de comunicaciones, haciendo prácticamente imposible la interconexión de equipos de fabricantes diferentes. Inicialmente la topología empleada era la de estrella, con estructura centralizada. Un ordenador central era el que gestionaba la interconexión del resto de los ordenadores o terminales de pantalla y/o impresión con él; supervisando también la conexión directa entre estos ordenadores.
En esta década de los sesenta estos primeros ordenadores comerciales eran caros y, comparados con los actuales, poco potentes. Solo grandes empresas, organismos oficiales o universidades podían adquirirlos. Eran ordenadores con sistemas operativos multitarea y multiusuario, y el acceso a estos ordenadores se hacía mediante terminales sin capacidad de procesamiento. La necesidad de conectarse de forma remota surgió pronto, y en los inicios los ingenieros optaron por emplear la red telefónica existente, puesto que se ahorraban tener que extender nuevas infraestructuras. El dispositivo o aparato que adapta los bits a la red es el módem. Módem es un acrónimo de modulador-demodulador, que se refiere a su función de modular y demodular, es decir, generar señales según los valores de los bits y generar bits a partir de las señales que se reciban. Los primeros módems eran de 300 bps y generaban dos tonos diferentes, uno para el 1 y otro para el 0. Los de mayor velocidad eran de 56.000 bps, que es el máximo que permitía la red telefónica convencional. Los módems permitían interconectar los terminales con el ordenador central, y ordenadores entre sí.
Figura 1
Módem USRobotics de 56.000 Kbps y sus conexiones posteriores (a la línea telefónica, al teléfono, al ordenador y a la corriente eléctrica).
Módem USRobotics de 56.000 Kbps y sus conexiones posteriores (a la línea telefónica, al teléfono, al ordenador y a la corriente eléctrica).
Atendiendo al elevado coste de estas comunicaciones utilizando las líneas telefónicas, dado que las tarificaciones son por tiempo, las grandes empresas presionan a las compañías telefónicas para que desarrollen redes pensadas para transportar datos, con velocidades de transmisión más elevadas. Estamos en los orígenes de las llamadas redes de conmutación de paquetes, frente a las tecnologías de conmutación de circuitos desarrolladas originalmente para las comunicaciones telefónicas.
Las redes de conmutación de paquetes se caracterizan por empaquetar los bits que se tienen que transmitir, y enviarlos a la central más cercana que esté disponible para que los envíe cuando pueda a la siguiente, y así sucesivamente hasta que lleguen al destino.
Las compañías telefónicas desarrollaron redes de este tipo, y el CCITT emitió un estándar, el X.25, en 1969.
En la década de los setenta tenemos tres acontecimientos clave para las comunicaciones: se propone el protocolo Ethernet para las redes locales, aparece el sistema operativo UNIX, compatible con todas las plataformas de hardware existentes en aquel momento, y nacen los protocolos TCP/IP. Por lo tanto, podemos afirmar que es cuando empiezan a ser públicos los protocolos, y aparecen los primeros sistemas abiertos, de modo que se separa el fabricante de hardware del proveedor de software.
Tan pronto como fue más habitual disponer de más de un ordenador en una instalación, surge la necesidad de interconectarlos para compartir recursos como impresoras, discos duros, etc. El diseño de las redes locales (LAN) siguió un camino diferente del de las redes de gran alcance (WAN), puesto que la tecnología más adecuada es la de difusión con un medio compartido, con un medio común que las estaciones comparten. Así, la estación emite paquetes que llegan al resto de las estaciones y estas los aceptan o ignoran dependiendo de si son las destinatarias. Se habla de difusión porque los paquetes se difunden por todas las estaciones, y de medio compartido puesto que esta difusión se hace sobre un medio que todas las estaciones comparten.
Las redes de conmutación de paquetes tienen la ventaja de que solo se ocupan los recursos que realmente se utilizan. Como contrapartida, se pueden llegar a producir retardos variables en la llegada de los paquetes al destino, los paquetes pueden perderse, etc.; por lo tanto, se necesitan mecanismos que eviten estas pérdidas y regulen el flujo de información entre los diferentes nodos de conmutación. En cuanto al tema económico, en las redes de datos se paga por bits transmitidos.
En España, la primera red de datos se denominaba Iberpac. Hasta hace pocos años, para comunicaciones de datos se utilizaba Frame Relay, como evolución natural del X.25, que se sustituye cada vez más por ATM, dada la creciente expansión de la fibra óptica. Pero actualmente, a pesar de que todos estos sistemas están conviviendo, MPLS (multiprotocol label switching) está reemplazando a Frame Relay y ATM como tecnología para transmitir datos de alta velocidad y voz digital en una única conexión, puesto que proporciona una gran fiabilidad y un mayor rendimiento.
Frame Relay
Es un protocolo de conmutación de paquetes para redes WAN, que presenta un mínimo control de errores. Es una versión actualizada de X.25 pero en vez de llegar al nivel de red, solo llega al nivel de enlace, incorporando funciones de recuperación y control.
La red delega a las estaciones el control, la detección y la corrección de los errores de transmisión. Este hecho le permite ofrecer velocidades de transmisión de 2 Mbps.
Ofrece una comunicación orientada a conexión. No es del todo fiable, por el hecho de haberse simplificado la tecnología, pero garantiza un mínimo de ancho de banda, o sea, un mínimo de calidad al usuario final.
ATM
Modo de transferencia asíncrona (asynchronous transfer mode) es una tecnología de telecomunicación desarrollada para hacer frente a la gran demanda de capacidad de transmisión para servicios y aplicaciones. Fue la apuesta de la industria tradicional de las telecomunicaciones para las comunicaciones de banda ancha, basada en la conmutación de paquetes.
Es un estándar de la UIT-T, nacido en el ámbito de la XDSI de banda ancha (XDSI-BA). Inicialmente se concibió esta tecnología para la transmisión de voz, datos y vídeo por las redes telefónicas públicas, a pesar de que pronto su uso se extendió también en redes privadas.
ATM sigue un modelo orientado a conexión, transmitiendo la información en pequeños paquetes de datos de tamaño fijo, denominados celdas ATM, cada una de ellas con un tamaño de 53 bytes, 48 para la información de usuario y 5 para la cabecera con la información de control.
Con este tamaño fijo de estos paquetes o celdas, se consigue un flujo continuo en la retransmisión de estos paquetes.
Permite velocidades del orden de Gbps; por lo tanto, necesita medios de transmisión que soporten estas velocidades, como la fibra óptica.
MPLS
MPLS (multiprotocol label switching) es un mecanismo de transporte de datos estándar creado por la IETF y definido en el RFC 3031. Opera entre la capa de enlace de datos y la capa de red del modelo OSI. Fue diseñado para unificar el servicio de transporte de datos para las redes basadas en circuitos y en las basadas en paquetes. Puede ser empleado para transportar diferentes tipos de tráfico, incluyendo voz y paquetes IP.
A partir del año 1977, la Organización Internacional de Estandarización (ISO) empezó a trabajar para unificar los sistemas y las arquitecturas de diferentes fabricantes.
En el año 1983, Day y Zimmermann desarrollan el llamado modelo de referencia OSI (interconexión de sistemas abiertos) de la ISO (Organización Internacional de Normas), como primer paso para la normalización de diferentes protocolos.
Retomando la historia de las comunicaciones y de las redes, nos centraremos en uno de sus hitos más importantes: internet, desde sus orígenes hasta la actualidad.
Internet es en sus orígenes, al igual que ha sucedido con otras muchas tecnologías, un invento militar. Nació en los años sesenta en el ejército norteamericano con el fin de descentralizar la información, consiguiendo comunicaciones fiables.
Podemos establecer cuatro periodos clave en la historia de internet:
  • Primer periodo: 1957-1970. Nacimiento de internet.

  • Segundo periodo: 1970-1990. Del ejército a la universidad.

  • Tercer periodo: 1990-1995. Expansión fuera de los ámbitos militares y universitarios.

  • Cuarto periodo: 1996-hasta la actualidad. Multimedia y centenares de millones de usuarios.

A principios de los años sesenta, desde la vertiente militar se desarrolla un sistema de comunicaciones con una topología más segura que la de estrella, puesto que en esta si se destruye el ordenador central, el sistema de comunicaciones queda del todo inoperativo. La Agencia de Proyectos Avanzados de Investigación (ARPA, Advanced Research Projects Agency) del Departamento de Defensa de los Estados Unidos se propone diseñar un sistema de interconexión de ordenadores en red sin ningún ordenador central. Y de esta idea nace en 1969 la primera red de investigación con esta filosofía, ARPANET, origen de la actual internet.
La primera comunicación entre dos computadoras se produce el 20 de octubre de 1969 entre la UCLA (Universidad de California, en Los Ángeles) y el SRI (Instituto de Investigaciones de Stanford, en San Francisco), que junto con la UCSB (Universidad de California, en Santa Bárbara, Los Ángeles) y la Universidad de Utah conformaban los cuatro nodos que conformaban ARPANET. El autor de este envío fue Charles Kline, de UCLA.
En cuanto al tema de protocolos, inicialmente ARPANET utiliza NCP (network communication protocol, protocolo de comunicación entre redes) como protocolo base para su funcionamiento.
El protocolo TCP/IP en el que se fundamenta internet nace como encargo de la agencia militar norteamericana DARPA (Defense Advanced Research Project Agency) a científicos norteamericanos para poder disponer de una red de alcance mundial fácilmente reconfigurable en el caso de que se llegara a destruir algún nodo o algún enlace. En concreto en 1973, el informático estadounidense Vinton Cerf desarrolla, en el marco de un proyecto de la agencia DARPA, los llamados protocolo de internet (IP, internet protocol) y el protocolo de transmisión (TCP, acrónimo de transmission control protocol). Estos son las bases más importantes de la actual internet.
Pero no será hasta el año 1989 cuando Tim Berners-Lee desarrolló el World Wide Web, un sistema basado en el uso del hipertexto que permite buscar información en internet, acceder a ella y visualizarla. Por aquellos años, internet era una red de ordenadores donde grupos de investigadores y departamentos gubernamentales compartían texto y datos. Este fue un punto de inflexión para popularizar la red.
En estos años se empiezan a editar los primeros RFC (request for comments), que son documentos que normalizan el funcionamiento de las redes de computadores basadas en TCP/IP y sus protocolos asociados. El primer RFC lo editó Steve Crocker de ARPA con el título: “Host Software” (software de servidores).
En este mismo año, la conjunción de varias redes informáticas trabajando con el mismo protocolo TCP/IP (ARPANET, MILNET del ámbito militar y CSNET de la investigación informática) acabó creando internet, la llamada “red de redes”.
A partir de aquí la red internet no ha parado de crecer, junto con nuevas aplicaciones nacidas en torno a internet, entre las que destacaremos el correo electrónico, la World Wide Web y los programas P2P.
El correo electrónico fue creado por Ken Tomlinson en 1972. La World Wide Web (WWW) fue creada en el CERN de Ginebra por Tim Berners-Lee en 1989, uniendo dos tecnologías, internet y el hipertexto. En cuanto a la historia de las aplicaciones P2P, podemos situar sus inicios con Napster en 1999, creado por Shawn Fanning.
En el año 1992 nace la Internet Society, como lugar para pactar protocolos dentro de la red. La mayor parte de los request for comments (RFC) se elaboran dentro del marco de esta organización.
En 1993 sale el primer navegador que se llega a popularizar, Mosaic, el antecesor de Netscape y, por lo tanto, la idea inicial de Berners-Lee va tomando forma, puesto que usuarios de todo el mundo pudieron a empezar a navegar dentro de la red, formándose los primeros grupos de discusión (newsgroups), como lugares de intercambio de opiniones. Aun así, en estos inicios, para poder publicar en la red era necesario disponer de buenos conocimientos de lenguaje HTML y de protocolos de comunicación.
Dentro de este año, en concreto en septiembre de 1993, se publica el primer servidor web de España, el de la Universitat Jaume I de Castellón, con 10 nodos y 15.000 máquinas bajo el dominio .es
En el año 1994 dos estudiantes crean Yahoo! Lycos como directorio de recursos dentro de la red.
En 1995, la empresa Sun crea Java, Microsoft lanza Windows 95, Digital crea el buscador Alta Vista, y nacen la librería Amazon.com y el lugar de subastas eBay.
El origen de las redes sociales lo podemos situar en el año 1995 también, cuando Randy Conrads crea el sitio web classmates.com con el fin de contactar con antiguos compañeros/as de la escuela, instituto, universidad, etc.
En este mismo año, Ward Cunningham crea la primera wiki, llamada WikiWikiWeb. El nombre proviene del “wiki wiki bus”, el autobús lanzadera del aeropuerto de Honolulú. Wiki wiki significa ‘rápido’ en hawaiano. Una wiki es un sistema que permite crear documentos, páginas wiki, interconectadas de manera rápida y colaborativa, utilizando un navegador web y un lenguaje de marcas simple. Wikipedia es el mejor ejemplo de wiki.
Actualmente nos encontramos con lo que hemos denominado el cuarto periodo de internet. En esta etapa, internet está provocando importantes cambios en la mayoría de los sectores económicos, apareciendo nuevos modelos de negocio frente a los modelos tradicionales.
Destacamos algunos de sus acontecimientos clave:
En el año 1996, el navegador empleado en un 98% de los ordenadores es Netscape. Es en este punto cuando Microsoft lanza su navegador Explorer. En esta fecha, algunas grandes empresas empiezan a darse cuenta de la importancia que puede llegar a tener la publicidad en línea. Las webs empiezan a incorporar contenidos multimedia.
En cuanto a la mensajería instantánea, se atribuyen sus orígenes a Mirabilis, una compañía que en 1996 lanzó ICQ, sin olvidar que los sistemas UNIX disponen desde 1983 de una aplicación llamada Talk, que permite establecer una conversación entre dos usuarios, vía telnet o rlogin.
En 1998, Microsoft consigue situarse en el 80% de uso entre el total de navegadores empleados, y empieza a verse demandado por abuso de posición dominante. Es también el año de nacimiento de Google.
En el año 1999, surge Napster, el que será el primer programa de intercambio de ficheros P2P (peer to peer), y el formato de ficheros de sonido MP3 empieza a desestabilizar el mercado musical.
Llegando al año 2000, hay una cierta preocupación sobre los efectos que puede tener en los sistemas de computación este cambio de dígitos. Pero gracias a la previsión de las compañías, estos efectos fueron mitigados. Los operadores de cable empiezan a dar servicio de banda ancha a los hogares españoles.
En el 2001, Napster cierra a raíz de ser acusada de piratería por parte de las empresas discográficas, a pesar de que más adelante vuelve a salir como servicio de pago.
Este mismo año se produce un hito empresarial que marcará la futura evolución de los nuevos medios en línea: America Online compra Time Warner, el grupo mediático más grande del mundo.
En el 2002, se va haciendo evidente la quiebra de algunas empresas de las llamadas “puntocom”. Empieza a crecer el fenómeno de los blogs. Y también aparecen sitios web que promocionan las redes de círculos de amigos en internet, como Myspace o Xing.
En el 2003, Apple presenta su tienda de música iTunes, asociada a su reproductor en aquel momento, el iPod. Las redes inalámbricas toman WiFi como estándar. Sale al mercado LinkedIn, una red social especializada en networking para profesionales, fundada por Reid Hoffman. Esta red experimenta un espectacular crecimiento a lo largo de los próximos años, hasta convertirse en la principal red social de este tipo.
El año 2004 es el año en el que sale a bolsa Google, lanzando su correo web de 1 Gb, llamado Gmail. Se inician las disputas entre buscadores para conseguir el liderazgo dentro del mercado, como Yahoo, Google, MSN Search (el buscador de Microsoft). En este mismo año, Tim O’Reilly populariza el término web 2.0 en una conferencia. Un sitio web 2.0 permite a los usuarios interactuar y colaborar como creadores de contenidos, a diferencia de los sitios web estáticos, donde los usuarios se limitan a ser simples observadores de estos contenidos.
Es interesante la lectura del artículo, publicado en el 2005 por O’Reilly: “What Is Web 2.0 Design Patterns and Business Models for the Next Generation of Software” para entender el concepto de web 2.0. Además, cinco años después, en el 2009, Tim O’Reilly y John Battelle hacen una interesante valoración de la evolución de la web 2.0 en este otro artículo: “Web Squared: Web 2.0 Five Years On”.
Ejemplos de la web 2.0 son wikis, blogs, redes sociales, aplicaciones web, marcadores sociales, etc.
Un sitio web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenidos generados por usuarios en una comunidad virtual, a diferencia de los sitios web estáticos, en los que los usuarios se limitan a observar los contenidos de forma pasiva. Ejemplos de la web 2.0 son las comunidades web, los servicios web, las redes sociales, los servicios de alojamiento de vídeos, las wikis, blogs, mashups...
El navegador Firefox empieza a hacerse un pequeño hueco entre los buscadores, con su primera versión 1.0.
Nuevas empresas van entrando en el mercado de la música de pago, como Wal-Mart, Sony, Virgin, eBay y Microsoft, mientras que iTunes tiene el 70% del mercado.
En el 2005, la red sigue creciendo a buen ritmo, en cuanto a servidores, dominios, páginas web, navegantes... España ocupa la 22.a posición en cuanto a accesos de banda ancha (con unos 2,5 millones) y la 12.ª por total de navegantes (14 millones), a pesar de que está por debajo de la media europea en cuanto a población total que utiliza internet.
El mercado de la publicidad en línea empieza a activarse. A finales de este año 2005, nace YouTube.
Llegando al año 2006, nos encontramos con las primeras aplicaciones responsables de la llamada revolución de la web 2.0: Facebook y Google Earth.
Aparece el término cloud computing, y nuevas tendencias en cuanto a la computación distribuida.
Nace el microblogging como confluencia entre las redes sociales y los blogs, por la necesidad de difundir opiniones, contenidos, de manera muy rápida y sencilla, a menudo con mensajes de menos de 200 caracteres. Este hecho permite aumentar la frecuencia de contacto con los llamados seguidores (lectores). A raíz de estas necesidades surge Twitter como servicio de microblogging. Permite enviar mensajes de texto con una longitud máxima de 140 caracteres (llamados tuits) a través de la propia web de Twitter, por SMS o por aplicaciones externas, como Facebook.
Twitter tiene sus orígenes en marzo del 2006 (con el nombre original del producto: twttr), con el primer tuit emitido por Jack Dorsey: just setting up my twttr (solo montando mi twttr). Inicialmente utilizado como herramienta de comunicación interna de la empresa, a finales del 2006 se hace público y rápidamente se populariza, hasta convertirse actualmente en la red de microblogging mejor posicionada. Posteriormente han ido saliendo servicios similares, a pesar de que no han llegado a popularizarse: Pownce, Jaiku o Hatena Haiku, con funcionalidades adicionales, como transmisión de ficheros o notificación de acontecimientos.
En el año 2006, en concreto en un artículo de Jeffrey Zeldman, especialista en estándares web, nace el término web 3.0, crítico con la llamada web 2.0 y asociado a las nuevas tecnologías emergentes. Las tecnologías asociadas a este término van desde la inteligencia artificial, a la llamada web semántica, la web geoespacial o la web 3D. Está centrado en la idea de que programas inteligentes utilicen datos semánticos para conseguir una manipulación más eficiente de los datos. Por lo tanto, está basado en una internet inteligente donde los usuarios podrán realizar búsquedas cada vez más próximas al lenguaje natural y más contextualizadas. Una web que entiende y relaciona lo que el usuario busca y se adapta a sus necesidades.
En el 2007, nace Android, el sistema operativo para móviles. Google pone al alcance de todos los usuarios Gmail y presenta Google Docs como herramienta de tratamiento de textos en la nube, partiendo de la adquisición de Writely el año anterior.
El año 2008 se puede considerar el año en el que se empieza a extender masivamente el acceso a internet mediante dispositivos móviles. Además, corresponde al año en el que se celebran los 50 años de la red.
En el 2009 se hace evidente la generalización del cloud computing (informática en nube), y cada vez aparecen más servicios en la red. Este mismo año nace WhatsApp, ligado al éxito de los teléfonos inteligentes (smartphones) y las plataformas móviles. Se considera que es la aplicación que destierra a los mensajes SMS.
En el 2010, Facebook consigue superar a Google como servicio web más empleado por los internautas de los Estados Unidos de América. Apple lanza el primer iPad aprovechando todo el desarrollo llevado a cabo con el iPhone.
Durante el 2011 nace Google+, la nueva red social de Google.
En cuanto a algunos de los acontecimientos más relevantes relacionados con telefonía móvil y comunicaciones inalámbricas tenemos los siguientes:
Hasta el año 1983 no se comercializa el primer teléfono móvil, a pesar de que se estaban haciendo pruebas desde el año 1947.
El origen de las WLAN, redes locales inalámbricas, lo tenemos en el año 1979, cuando se publicaron por parte del IEEE unos primeros resultados de un experimento realizado por ingenieros de IBM en Suiza, quienes crearon una red local con infrarrojos en una fábrica.
A principios de la década de los noventa, un consorcio de empresas (en concreto, IBM, Intel, Toshiba, Ericsson y Nokia) crearon la tecnología Bluetooth, que posteriormente se incorporó al grueso de estándares del IEEE, con el estándar 802.15.1.
En cuanto a los orígenes de los smartphones o teléfonos inteligentes, podemos situarlo en 1994, cuando IBM comercializa su modelo “Simon” con pantalla táctil y algunas funciones propias de los ordenadores.
Pero el término smartphone no apareció hasta 1997, cuando la compañía Ericsson describió su prototipo GS 88 Penelope.
Un teléfono inteligente (en inglés, smartphone) es un teléfono móvil con capacidades parecidas a las de un ordenador portátil, con un sistema operativo que permite instalar fácilmente aplicaciones (llamadas apps).
Una de las características más relevantes de los smartphones es la posibilidad de instalar rápidamente aplicaciones (apps) creadas por los fabricantes o por terceros.
El término app es el abreviado de la palabra en inglés application. Una app es un programa, pero con unas características especiales: son fácilmente instalables, son pequeños programas, son específicas, etc.
Figura 3
Modelo Simon de IBM (1994).
Modelo Simon de IBM (1994).
Figura 4
Modelo GS 88 Penelope (1997).
Modelo GS 88 Penelope (1997).
Es en el año 1994 cuando aparece el primer borrador de la norma que rige las comunicaciones inalámbricas, el IEEE 802.11.
En 1995, dos operadoras, Movistar y Airtel, empiezan a operar con tecnología GSM en España. Tres años más tarde se incorpora Amena.
Con la salida al mercado de la PalmPilot, empieza una carrera de desarrolladores centrada en la movilidad de los dispositivos. Dispositivos pequeños, móviles, con aplicaciones sencillas de ejecutar. En el año 2000, la mayoría de estos dispositivos disponen del sistema operativo Palm OS.
En el año 2001, se da servicio sobre GPRS a Europa, y en el 2002 se hace el primer lanzamiento comercial de 3G (UMTS) en la mayoría de los países europeos. A partir del 2005, las redes UMTS evolucionan a partir de las tecnologías HSPA con el objetivo de aumentar la velocidad en las transmisiones de datos.
En el año 2006 sale el primer borrador de 802.11n, que permite velocidades cercanas a los 600 Mbps.
En este gráfico podemos ver el crecimiento de los sistemas operativos para móviles entre los años 2012 y 2014 entre los usuarios de smartphones en Estados Unidos; se evidencian dos claros competidores: Android (de Google) y iOS (de Apple).
Figura 5
Usuarios de smartphones en EE. UU. (en millones), segundo sistema operativo empleado (2012 y 2014). Fuente: eMarketer.
Usuarios de smartphones en EE. UU. (en millones), segundo sistema operativo empleado (2012 y 2014). Fuente: eMarketer.
En el 2012 empieza a popularizarse una forma de pago que previsiblemente se extenderá en años próximos: la que utiliza la tecnología de comunicación de campo cercano (NFC, near field communication). Se trata de una tecnología de comunicación inalámbrica, de corto alcance y alta frecuencia que permite el intercambio de datos entre dispositivos.
En este mismo año se empiezan a hacer las primeras pruebas sobre 4G, tecnología que verá su expansión a partir del 2015.