Conceptualización

  • Jordi Flamarich Zampalo

PID_00245395
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

Introducción

Del «si no estás en internet, no existes» hemos pasado en muy pocos años al «existe una aplicación para eso». El auge de los teléfonos móviles (smartphones) y las tabletas ha favorecido el crecimiento de toda una industria dedicada al desarrollo de aplicaciones, un sector extremadamente dinámico y en constante evolución, en el que las modas se suceden tan rápido como cambian las versiones de sistemas operativos. Un sector donde cada día aparecen –y desaparecen– actores que estaban llamados a ser the next big thing y en el que se introducen nuevos dispositivos que rompen moldes y descubren nuevas formas de interacción con el usuario.
El presente módulo es el primero de una serie de tres en los que nos adentraremos en el proceso del diseño de una aplicación, desde el mismo momento en que tenemos una idea hasta que la podemos poner a prueba y mejorar a través de un prototipo interactivo. El hilo conductor de estos materiales será el móvil (la principal interfaz en este nuevo ecosistema de dispositivos inteligentes), pero también haremos constante referencia a esas otras pantallas que cada vez están ganando más popularidad: relojes, pulseras, televisores inteligentes o incluso gafas de realidad aumentada. Y lo haremos poniendo siempre al usuario en el centro de este proceso. El mercado exige aplicaciones de calidad que se distingan de las demás, y para ello no basta con que sean bonitas: deben ser fáciles de usar y resultar útiles.
Este primer módulo está dedicado a los primeros pasos en el proceso de desarrollo de una idea, su fase de conceptualización. Para ello, nos introduciremos en los aspectos psicológicos de la interacción entre las personas y las nuevas tecnologías, la evolución de las interfaces y los métodos del diseño centrado en el usuario.

Objetivos

Los objetivos que el estudiante deberá alcanzar con el estudio de este módulo son:
  1. Conocer el origen y las disciplinas científicas relacionadas con el diseño de productos interactivos.

  2. Comprender los beneficios del diseño centrado en el usuario (DCU) y los motivos por los que siempre debemos tener en cuenta al usuario en nuestras decisiones de diseño.

  3. Conocer las etapas y métodos del DCU para descubrir las necesidades y motivaciones reales de los usuarios.

  4. Conocer los fundamentos y características de los principales dispositivos y sistemas operativos presentes en el mercado.

  5. Revisar los diferentes enfoques a la hora de diseñar aplicaciones.

1.Introducción a la interacción persona-ordenador (IPO)

Cuando desarrollamos productos tecnológicos corremos el riesgo de centrarnos más en cuestiones técnicas que en las personas que van a acabar usando esa tecnología. No hay que olvidar que, por muy novedosa o técnicamente brillante que sea nuestra solución tecnológica, su éxito vendrá marcado por el grado de satisfacción que sientan los usuarios al utilizarla.
La interacción persona-ordenador (IPO) es la disciplina científica que se encarga de estudiar la relación entre las personas y las nuevas tecnologías.
Según la Association for Computing Machinery, podemos definir la IPO como «la disciplina relativa al diseño, evaluación e implementación de sistemas interactivos para uso humano, con el estudio de los fenómenos que la rodean». Su campo de estudio está en la intersección entre la informática y las ciencias humanas, y abarca disciplinas tan variadas como la psicología, la sociología, el diseño, la ergonomía, la inteligencia artificial y la ciencia cognitiva, entre otras. Es mérito de esta disciplina, por ejemplo, el haber transformado durante el siglo XX los ordenadores en herramientas al alcance de cualquiera (y no solo de los informáticos), haciéndolos imprescindibles para el trabajo, el ocio o la búsqueda de información. El espectacular crecimiento de internet también se debe a la influencia directa de la IPO: desde el nacimiento del hipertexto como fórmula para navegar y relacionar páginas entre sí hasta el desarrollo de las más modernas páginas web.

1.1.Psicología de la IPO

Como acabamos de mencionar, en la IPO confluyen disciplinas tan variadas como la psicología o la ergonomía, pasando por la sociología, el diseño o la inteligencia artificial. Centrándonos en la psicología, resulta interesante observar cómo los esfuerzos de los investigadores se han orientado tradicionalmente a tratar de entender cómo perciben los humanos un sistema, cómo lo procesan a través de modelos mentales preexistentes y cómo se relacionan con él a partir de estos esquemas previos.
La mente humana está diseñada para interpretar y dotar de sentido los estímulos que percibe del mundo real a través de sus sentidos. Basta con una mínima pista, un mínimo elemento reconocible para que la mente humana empiece a realizar las conexiones que le conducirán a la representación, interpretación y comprensión de su entorno. Enfrentado a un sistema interactivo, el usuario intentará siempre realizar procesos similares. El buen diseño, por tanto, será aquel que permita al usuario interpretar y entender fácilmente el sistema proporcionándole las pistas necesarias para ello. El ser humano utiliza representaciones mentales para procesar la información que le llega del mundo exterior e interactuar con él. Las representaciones mentales son representaciones internas, maneras de volver a «representar», en nuestras mentes, el mundo externo. De acuerdo con la psicología cognitiva, las representaciones mentales pueden ser de tres tipos:
  • Representaciones icónicas: se basan en la imagen y no en el lenguaje, lo que permite que sean reconocidas fácilmente por un amplio espectro de personas, aunque no compartan unas normas lingüísticas comunes.

  • Representaciones proposicionales: se basan en el lenguaje (aunque no estén formadas por palabras) y captan el contenido abstracto de la mente.

  • Modelos mentales: mantienen analogías estructurales con el mundo real, lo que permite al individuo inferir el comportamiento de un objeto en determinadas situaciones o como resultado de ciertas acciones. Para comprender un fenómeno desconocido, se trasladan las inferencias de un modelo mental preexistente al nuevo.

Aplicadas al diseño de interfaces, las representaciones mentales nos ayudan a construir las opciones de interacción en el sistema, aplicando para ello representaciones icónicas, proposicionales o de tipo mixto.
Representaciones en la aplicación para iPhone Day One: 1) icónicas, 2) mixtas y 3) proposicionales
Representaciones en la aplicación para iPhone Day One: 1) icónicas, 2) mixtas y 3) proposicionales
Los usuarios de un sistema interactivo generan un modelo mental de este para entender cómo funciona y así poder utilizarlo. Lo más habitual es que intenten traducir de forma espontánea las tareas que realizan en el mundo real dentro del sistema, sin preocuparse demasiado por entender la propia estructura del sistema o sus mecanismos internos de funcionamiento. Lo importante para el usuario es que las acciones realizadas den como resultado el cumplimiento de una tarea o la consecución de un objetivo.
Para el diseñador, el reto estriba en presentar el sistema de manera que el modelo mental que va a emplear el usuario cuando interactúe con la interfaz se corresponda al máximo con el modelo diseñado.
En este punto, conviene no olvidar que los usuarios no son científicos y no se van a aproximar al sistema de forma pausada y meticulosa, sino que buena parte del proceso de aprendizaje va a hacerse mediante uno de estos sistemas:
  • Método del ensayo-error: es decir, combinando arbitrariamente elementos y evaluando el resultado obtenido. Es el método menos efectivo.

  • Método de resultados viables: probando solamente aquello sobre lo que tiene certeza. Un método muy eficiente, pero que solo puede llevarse a cabo si la tarea es muy fácil o previsible.

  • Método combinado: es el más habitual, donde se combinan los dos métodos anteriores.

Teniendo en cuenta estas premisas, el diseño de una interfaz debería tener en cuenta los siguientes aspectos:
  • El proceso de aprendizaje progresa de un nivel básico a uno avanzado y, por tanto, este orden de progreso debe estar cuidadosamente planeado.

  • Los contenidos deben estar estructurados para que el usuario aprenda una serie limitada de cosas por sesión.

  • El sistema debe ofrecer feedback. Sin él, el usuario no sabrá si lo está haciendo bien o mal y, por tanto, no podrá progresar en su aprendizaje. Debe existir respuesta tanto para las acciones correctas como para las incorrectas.

1.2.El proceso de interacción

Si hablamos de interacción persona-ordenador debemos definir qué entendemos por interacción. De acuerdo con Donald Norman (1986), describir las diferentes etapas en que se divide nos puede ayudar a definir este proceso:
  • En primer lugar, el usuario se marca la intención de conseguir un objetivo.

  • El usuario convierte esta intención en una acción concreta sobre la máquina (por ejemplo, pulsar sobre una tecla o tocar la pantalla con el dedo).

  • La acción del usuario provoca una serie de cambios en el sistema, que el usuario percibe e interpreta.

  • El usuario evalúa si los cambios producidos en el sistema son favorables a la consecución de su objetivo.

Así pues, entenderemos por interacción el proceso recíproco de transferencia de información entre el usuario y la máquina, de acuerdo con el siguiente esquema:
m0651_m1_02.gif
En este proceso, pueden darse dos problemas estrechamente relacionados con el diseño de la interfaz del sistema:
1) En el ámbito de la ejecución: que el usuario sepa qué quiere hacer, pero no encuentre la manera de hacerlo.
2) En el ámbito de la evaluación: que el usuario no sepa o pueda interpretar los cambios provocados con su acción.
Siempre que diseñemos interfaces deberemos tener muy presentes estos dos problemas y tratar de evitarlos al máximo, ya que de ellos depende la usabilidad de nuestro producto.

1.3.Concepto de interfaz

Como hemos descrito en el apartado anterior, la interfaz de usuario es el punto de encuentro entre el usuario y el sistema, el elemento que hace posible que se produzca la interacción. En consecuencia, la interfaz es tanto el elemento que otorga al usuario la posibilidad de ejecutar acciones para conseguir sus objetivos como, al mismo tiempo, la «cara visible» del sistema que permite al usuario evaluar las consecuencias de sus acciones.
En este sentido, al diseñar una interfaz buscaremos que sea fácil de interpretar (que se explique por sí misma), que sea eficiente (consiga los objetivos con el mínimo número de acciones) y que sea agradable de manipular.
Ejemplo de línea de comandos en GNOME
Fuente: Wikipedia Commons
Fuente: Wikipedia Commons
En el contexto de la interacción persona-ordenador, donde normalmente la interacción suele realizarse a través de una pantalla, solemos hablar de interfaz gráfica de usuario o GUI (graphical user interface). A diferencia de la interfaz de línea de comandos –donde la interacción se realiza mediante instrucciones a través de líneas de texto–, la interfaz gráfica de usuario proporciona al usuario un entorno gráfico, visual, que hace que la interacción con el sistema informático sea más fácil y amigable.
Interfaz gráfica de usuario
El sistema operativo Mac OS popularizó la metáfora del escritorio como interfaz gráfica de usuario. Fuente: Wikipedia Commons
El sistema operativo Mac OS popularizó la metáfora del escritorio como interfaz gráfica de usuario. Fuente: Wikipedia Commons
El primer ordenador en usar una interfaz gráfica de usuario fue el Xerox Alto, desarrollado en 1973 por Xerox PARC. De hecho, el Xerox Alto también usaba por primera vez la «metáfora del escritorio» para facilitar la interacción de los usuarios con el ordenador mediante un sencillo ratón de tres botones, un gran salto «evolutivo» respecto a la interfaz de línea de comandos que poco después sirvió de «inspiración» para una joven compañía llamada Apple y su sistema operativo Mac OS.
Pero la tecnología avanza cada vez más rápido, y con ella las diferentes maneras que tenemos los usuarios de relacionarnos e interactuar con ella. Así, de las interfaces de línea de comandos, se pasó a las interfaces gráficas de usuario, dominantes hasta la aparición de los dispositivos móviles con pantallas táctiles. Smartphones y tabletas han provocado un importante salto y cambio en el paradigma de interacción dominante hacia las denominadas interfaces naturales de usuario (NUI; natural user interface).
Interfaces naturales de usuario
Con las interfaces naturales, el usuario interactúa directamente con los elementos en pantalla. Fuente: Flickr, Jon Fingas https://www.flickr.com/photos/jfingas/.
Con las interfaces naturales, el usuario interactúa directamente con los elementos en pantalla. Fuente: Flickr, Jon Fingas https://www.flickr.com/photos/jfingas/.
Aunque toda interfaz requiere de un proceso de aprendizaje, en las interfaces naturales de usuario este proceso se realiza de forma espontánea, casi sin que el usuario se dé cuenta. Esto se consigue haciendo que la interfaz sea prácticamente invisible y permitiendo que el usuario interactúe directamente con el sistema sin usar dispositivos de entrada (como sí sucede en las interfaces gráficas de usuario, donde solemos usar un teclado, ratón, lápiz óptico...). Esta interacción puede hacerse mediante el tacto (en pantallas capacitivas multitáctiles), movimientos del cuerpo (por ejemplo, el controlador Kinect para Xbox 360) o sistemas de reconocimiento de voz (por ejemplo, Siri).
Un buen ejemplo de la facilidad de uso de una interfaz natural de usuario lo podemos encontrar observando a un niño de corta edad manejando con destreza aplicaciones en el smartphone de su padre o madre.
Lecturas complementarias

Para profundizar sobre la historia y evolución de la interacción persona-ordenador:

B. A. Myers (1996). A brief history of Human Computer Interaction Technology. Pittsburgh: Carnegie Mellon University School.

Para profundizar sobre la historia del hipertexto y su relación con la IPO:

J. Nielsen (1995). Multimedia and Hypertext: The Internet and Beyond. Boston: Morgan Kaufmann Publishers.

Para profundizar sobre el proceso de interacción:

D. A. Norman; S. W. Draper (1986). User Centered System Design. New Perspectives on Human-Computer Interaction. Nueva Jersey: Lawrence Erlbaum Associates.

2.Diseño centrado en el usuario (DCU)

Comenzar a desarrollar sin conocer las necesidades de quienes van a utilizar nuestra aplicación no es muy recomendable, ya que podemos encontrarnos realizando cambios a última hora, comprometiendo así la viabilidad del proyecto. O peor aún: podemos encontrarnos desarrollando algo que nadie va a utilizar porque realmente nadie lo necesita. Por este motivo, resulta de vital importancia conocer con el máximo detalle posible quiénes van a ser los usuarios de nuestra aplicación, cuáles son sus objetivos, sus motivaciones y sus necesidades. Y lo más importante: cómo va a responder nuestra aplicación de forma eficiente a esos requisitos.
Diseñar situando al usuario en el centro de todo el proceso es lo que se conoce como diseño centrado en el usuario (user-centered design). Este término fue popularizado por Donald A. Norman. Según Norman, el diseño tiene que:
  • Dejar muy claro al usuario qué puede hacer en cada momento.

  • Ser transparente, es decir, poner a la vista tanto las posibles acciones como sus resultados.

  • Facilitar la evaluación del estado del sistema en todo momento.

Dicho de otro modo, el usuario ha de poder saber en todo momento qué puede hacer y qué sucede en el sistema. Norman ponía la facilidad de uso por delante incluso de la estética del producto.
El diseño centrado en el usuario es tanto una filosofía como una metodología de trabajo que nos permitirá desarrollar con éxito nuestros proyectos. De hecho, podemos considerar el DCU como la aplicación práctica de disciplinas como la interacción persona-ordenador (IPO), la usabilidad o la experiencia de usuario.
El diseño centrado en el usuario involucra al usuario en todas las fases de desarrollo con el objetivo de crear productos que los usuarios encuentren útiles y usables, satisfaciendo sus necesidades.
Diseño no centrado en el usuario
En esta clásica tira cómica se explicitan los problemas de diseñar sin tener en cuenta las necesidades del cliente. Fuente: http://www.e-cartouche.ch/content_reg/cartouche/ui_access/en/html/GUIDesign_UCD.html.
En esta clásica tira cómica se explicitan los problemas de diseñar sin tener en cuenta las necesidades del cliente. Fuente: http://www.e-cartouche.ch/content_reg/cartouche/ui_access/en/html/GUIDesign_UCD.html.
En tanto que método de trabajo, es frecuente dividir el diseño centrado en el usuario en tres etapas o fases que se llevan a cabo de forma iterativa: investigación y análisis de los usuarios, diseño y evaluación.
La investigación y análisis de los usuarios nos ayuda a dar respuesta a las siguientes preguntas:
  • ¿Quién usará esta interfaz?

  • ¿Por qué la usará?

  • ¿Cuáles son sus intereses?

  • ¿Y sus motivaciones?

Si no conocemos al usuario de nuestra aplicación o producto, difícilmente podremos dar respuesta a sus deseos y necesidades. Un aspecto a tener en cuenta es que al hablar de usuario no estamos hablando de nosotros, ni de nuestro jefe, ni siquiera del cliente. A menudo se usa el término de usuario final para aclarar que el usuario es quien realmente acabará interactuando con el producto o aplicación.
En este punto cobra especial importancia el contexto de uso. Por ello, como veremos más adelante, muchas de las metodologías del diseño centrado en el usuario se basan en la observación del usuario en su contexto natural:
  • ¿Dónde usarán la aplicación?

  • ¿Será un espacio público o privado?

  • ¿Será de día o de noche?

  • ¿Estarán haciendo otra cosa al mismo tiempo?

Con un ordenador de sobremesa, este contexto era más o menos predecible, pero con la llegada de la tecnología móvil los contextos de uso se han multiplicado y, en muchas ocasiones, se vuelven casi impredecibles.
La iteración es uno de los aspectos clave del DCU, ya que cada fase se enriquece una y otra vez con la respuesta de los usuarios para mejorar y adaptar los elementos ya diseñados. Se trata de un proceso que avanza en espiral, de forma cíclica, por lo que, aunque estemos hablando de tres fases, no podemos entenderlas como etapas estancas y sucesivas.
Fuente: elaboración propia
Fuente: elaboración propia
Una vez realizada la investigación y análisis de los usuarios, entramos en las fases de diseño y evaluación, esencialmente iterativas. Según Jakob Nielsen, consultor experto en usabilidad, resulta «virtualmente imposible» diseñar a la primera una interfaz de usuario que no tenga problemas de usabilidad. El desarrollo iterativo nos permitirá ir refinando nuestro diseño a medida que lo vayamos poniendo a prueba con usuarios y otros sistemas de evaluación.
Nielsen recomienda el diseño iterativo por ser el proceso más sencillo, barato y efectivo. Otros de los beneficios y objetivos del diseño centrado en el usuario son:
  • Aumentar la satisfacción del usuario (y del cliente). Los beneficios del DCU son globales e impactan tanto al usuario final como a quien ofrece el producto o servicio.

  • Aumentar la productividad y eficiencia del usuario. Un producto bien diseñado permite al usuario conseguir sus objetivos lo más rápido posible.

  • Reducir tiempos y costes de desarrollo. Si aplicamos el DCU desde las primeras etapas del proyecto, conseguiremos un buen producto más rápida y fácilmente.

  • Reducir costes de soporte y formación. Los productos usables son más fáciles de utilizar, por lo que requieren un nivel bajo de ayuda y documentación extra.

2.1.Métodos del DCU

Como hemos visto, las etapas habituales del diseño centrado en el usuario siguen el esquema de análisis, diseño y evaluación. En cada una de estas etapas encontramos una serie de métodos, algunos de ellos provenientes de disciplinas tan variadas como la psicología, el marketing, la sociología o los estudios de mercado, entre otras. Podemos agrupar estos métodos en cuatro categorías:
1) Métodos de indagación. Nos servirán para obtener información relativa a las necesidades, objetivos, limitaciones y contextos de uso de los usuarios finales de nuestra aplicación o producto.
2) Métodos de diseño conceptual. Con la información obtenida en la fase de análisis, deberemos ser capaces de crear perfiles de usuario y escenarios sobre los cuales empezaremos a tomar decisiones de diseño.
3) Métodos de diseño de prototipos. Sin entrar todavía en la fase de producción, con estas técnicas podremos empezar a dar forma al producto, resolviendo los diferentes problemas de diseño que vayan apareciendo.
4) Métodos de inspección y test con usuarios. Como su nombre insinúa, se trata de técnicas de evaluación para detectar rápidamente errores o puntos de mejora en nuestros diseños. Aquí es donde entra en juego la iteración del DCU: modificaremos nuestros diseños y los evaluaremos una y otra vez hasta obtener el mejor resultado posible.
A lo largo de la asignatura iremos viendo en detalle los principales métodos de DCU siguiendo un itinerario «clásico» de proyecto: empezaremos por la identificación de las necesidades del usuario, desarrollaremos la arquitectura de la información, realizaremos maquetas de la aplicación y veremos las principales técnicas para la evaluación de nuestros diseños. Sin embargo, debemos señalar que no existe un orden concreto en el uso de los métodos: si bien lo habitual es empezar con el estudio de requisitos de usuario, nada impide que se inicie un proyecto de DCU con un test de usuarios si el proyecto así lo requiere. Son las características del proyecto –incluidas sus limitaciones de tiempo y presupuesto– las que determinarán cuáles son los métodos y las herramientas a emplear, y en qué orden deberán utilizarse.
Lecturas complementarias

Obra de referencia sobre diseño centrado en el usuario:

D. A. Norman (1988). The Design of Everyday Things. Nueva York: Doubleday.

Para profundizar sobre los procesos de desarrollo iterativos:

J. Nielsen (1993). «Iterative User Interface Design».

3.Fase de conceptualización

Si hemos de situar al usuario en el centro de todo el proceso de diseño y desarrollo de nuestro producto, lo lógico es hacer todo lo posible por conocer bien a quienes van a utilizarlo. No obstante, a menudo nos va a hacer falta definir previamente los objetivos concretos del producto o servicio que queremos diseñar. En caso de trabajar con un cliente, este deberá explicarnos los antecedentes y las motivaciones del proyecto, los objetivos que se ha marcado conseguir y cuáles son los usuarios a los que piensa dirigir el producto o servicio. De esta manera, obtendremos un buen punto de partida para diseñar un estudio de requisitos de usuario.
Algunas de las cuestiones que debemos plantearnos antes de empezar:
  • ¿Cuáles son los antecedentes y motivaciones del proyecto?

  • ¿Cuáles son los objetivos del cliente para este proyecto?

  • ¿A quién está dirigido el producto o servicio? ¿Sabemos algo ya de estos usuarios? Es posible que nuestro cliente tenga ya información que nos pueda resultar útil.

  • ¿Qué pensamos de estos usuarios? Debemos anotar las ideas preconcebidas que tengamos para contrastarlas después con usuarios reales.

3.1.Investigación y requisitos de usuario

El diseño centrado en el usuario nos ofrece un conjunto de métodos para obtener información sobre los usuarios, sus objetivos y necesidades, y los contextos de uso del producto o servicio que vamos a diseñar. Estos métodos pueden ser cualitativos (observación, entrevistas, dinámicas de grupo) o bien cuantitativos (encuestas y cuestionarios), en función de las técnicas e instrumentos empleados y el tipo de información que aportan.
Una vez más, debemos recordar que es el proyecto el que determina qué métodos son los más adecuados a nuestros objetivos. Sin embargo, suele ser habitual comenzar por análisis cuantitativos (siempre que nos sea posible o tengamos acceso a esta información) para tener una primera aproximación a los usuarios, para después pasar a técnicas cualitativas con las que profundizar en sus motivaciones e intereses.
A continuación veremos las técnicas más utilizadas.
3.1.1.Observación e investigación contextual
Aquí entramos de lleno en el trabajo de campo: las técnicas de indagación nos permiten conocer de primera mano el comportamiento de los usuarios y su interacción con el producto o servicio. La más obvia –también una de las más útiles– es la simple observación del usuario interactuando con el producto, lo que nos permitirá determinar tanto su comportamiento y reacciones como evaluar la usabilidad del producto.
Existe una variante de la observación, denominada investigación contextual, que consiste en observar al usuario mientras utiliza el producto en su lugar habitual de uso, lo que introduce el concepto de contexto de uso y nos permite entender mejor cómo el entorno influye en la manera que el usuario interactúa con el sistema.
Aunque la investigación contextual requiere más tiempo y que el observador se desplace al lugar de interacción de los usuarios, la información obtenida con este sistema es muy valiosa.
No existe ningún sistema concreto para recoger los datos que vayamos obteniendo durante la observación: podemos tomar notas en una libreta, hacer fotos, grabar vídeos o audios, etc. Lo importante aquí es guardar registro de todo aquello que después nos servirá para tomar decisiones de diseño.
3.1.2.Seguimiento
Como su nombre indica, en el seguimiento (shadowing) el observador se convierte en la sombra del usuario para detectar patrones de comportamiento, hábitos y rutinas. Al ser posiblemente la técnica más intrusiva de todas, debemos cerciorarnos de que contamos con el consentimiento del usuario y los permisos necesarios para acceder a los espacios en que se mueva habitualmente. El observador deberá también mantenerse lo más discreto posible para no influir sobre el comportamiento natural del usuario.
3.1.3.Diario
Tendremos casos en que no nos será posible observar o seguir al usuario, ya sea por falta de tiempo o recursos, reticencias a participar por parte de los usuarios, cuestiones de privacidad y permisos, etc. El método de diario implica que sea el propio usuario quien recopile los datos. Podemos hacerlo de forma abierta (que el usuario se exprese libremente y comente sus sensaciones) o bien de forma cerrada, mediante un cuestionario con diferentes opciones de respuesta. Entre otras cuestiones, debemos dejar bien claro al usuario qué debe documentar, con qué frecuencia y durante cuánto tiempo.
Esta técnica, aunque presenta limitaciones obvias (olvidos por parte del usuario, información sesgada, etc.), tiene la ventaja de que nos permite recopilar datos de manera no intrusiva.
3.1.4.Entrevistas
Las entrevistas nos permiten obtener todo tipo de información sobre comportamientos, experiencias y necesidades de los usuarios. Suelen realizarse sobre muestras pequeñas, ya que se trata de una técnica cualitativa, no cuantitativa.
Según la estructura que utilicemos, podemos hablar de entrevistas estructuradas (con un guion cerrado de preguntas que la persona entrevistada responde en el orden fijado), entrevistas semiestructuradas (con un guion más abierto, donde la persona entrevistada tiene más margen para expresarse) o entrevistas abiertas (sin guion de preguntas establecido, pero sí con una serie de puntos que deben tratarse durante la conversación).
Las entrevistas son más cómodas que realizar una investigación contextual, pero el observador ha de estar bien entrenado en el uso de esta técnica para conseguir extraer información valiosa de los entrevistados.
3.1.5.Dinámicas de grupo
Las dinámicas de grupo (focus groups) –normalmente entre seis y ocho personas– nos permiten obtener mayor diversidad de opiniones, pero con menor profundidad que en una entrevista. También hay que tener en cuenta que la propia naturaleza del grupo puede condicionar las respuestas de los individuos, que tienden a expresarse con más libertad en una entrevista. El observador también tiene que estar entrenado para saber dirigir y moderar la conversación con el fin de obtener información relevante. No es recomendable que una sesión de focus group dure más de dos horas.
Tanto en las entrevistas como en las dinámicas de grupo, conviene efectuar una grabación (siempre con el consentimiento de los participantes), lo que nos permitirá posteriormente tratar mucho mejor la información recogida durante la sesión.
3.1.6.Encuestas
Las encuestas son una técnica cuantitativa y como tal deben realizarse sobre una muestra lo suficientemente amplia como para ofrecer resultados relevantes. El diseño del cuestionario es vital: antes de enviarlo a toda la muestra, es aconsejable pasar el cuestionario a tres-cinco personas para comprobar si las preguntas y respuestas se entienden bien, si el cuestionario es demasiado largo, etc. Cualquier problema en su diseño puede comprometer la calidad de los datos recogidos.
3.1.7.Análisis de la competencia
Aunque el análisis de la competencia (benchmarking) es una técnica que se puede utilizar en todas las etapas del desarrollo del producto, resulta muy recomendable empezar cualquier proyecto realizando un análisis comparativo de la competencia, también conocido como benchmarking. Analizar productos o servicios parecidos al que queremos diseñar nos servirá para aprender de los errores de otros (también de sus aciertos), conocer las tendencias del mercado, descubrir las expectativas de nuestros usuarios (puede que ya estén usando productos de la competencia), estudiar sus interfaces e identificar patrones de diseño, entre otros motivos.
También podemos organizar tests de usuario con productos de la competencia para ver qué funcionalidades prefieren o qué cosas mejorarían. Lograríamos con ello un buen punto de partida para nuestro desarrollo.
El benchmarking no tiene por qué limitarse a aplicaciones o productos de la misma temática que la nuestra, o si hablamos de aplicaciones móviles, del mismo sistema operativo. Debemos estar atentos y con los ojos bien abiertos, ya que la solución a un problema de diseño que nos tiene atascados puede esconderse en cualquier detalle y ser observable al realizar un cambio de perspectiva.
Puede suceder que al analizar la competencia, nos desanimemos al descubrir que aquella idea de aplicación que teníamos pensada ya ha sido desarrollada por otros. Ello no significa que debamos abandonar nuestro propósito: siempre hay espacio para la innovación y la mejora.

3.2.Diseño conceptual. Perfil de usuario, personas y escenarios

Siguiendo adelante con las fases del diseño centrado en el usuario, llega el momento de procesar toda la información obtenida durante la fase de investigación. Deberemos ser capaces de sintetizar los datos obtenidos, resumirlos y transmitirlos al resto de miembros del equipo de desarrollo, de manera que todas las decisiones que se tomen tengan en cuenta las necesidades detectadas durante la etapa de indagación. Para ello, las técnicas más utilizadas son el perfil de usuario, personas y escenarios.
3.2.1.Perfil de usuario
Los perfiles de usuario nos permiten agrupar los usuarios de nuestra aplicación según sus características comunes. Suelen ser el resultado de un estudio cuantitativo que nos permite establecer porcentajes para cada una de las características, ya sean demográficas (edad, sexo, educación, profesión, etc.), de actitud, expectativas o experiencia previa del usuario respecto a productos o servicios similares a los que queremos desarrollar.
Para elaborar perfiles de usuario, la técnica de indagación por excelencia es la encuesta, que, como hemos visto con anterioridad, tiene que realizarse sobre una muestra representativa y estar cuidadosamente diseñada para obtener resultados relevantes.
3.2.2.Personas
A menudo, trabajar con perfiles de usuario basados en porcentajes puede resultar un tanto frío, abstracto. Con la técnica de las personas podemos construir un personaje concreto, con identidad propia, al que le asignaremos las características detectadas durante la fase de investigación y análisis de usuarios. Por tanto, primero deberemos investigar a los usuarios y analizar los datos obtenidos, para finalmente modelar a los usuarios en personas.
Esta técnica, popularizada por Alan Cooper e inspirada en el método utilizado por los actores para desarrollar un personaje y dotarlo de verosimilitud, ayudará al equipo a tener siempre en mente a un usuario concreto, con unas características y objetivos bien definidos, mientras realiza su trabajo.
Otras ventajas de usar personas en un proyecto de diseño son:
  • Permiten trasladar datos de usuario al equipo de diseñadores y desarrolladores de una forma más «digerible».

  • Evitan que el diseñador o desarrollador proyecten sobre la aplicación sus propios modelos mentales.

  • Ayudan a centrar el proyecto, establecer prioridades y no perder tiempo resolviendo casos de uso poco habituales o extremos.

Aunque la persona no sea un individuo real, le pondremos nombre y cara (mediante una fotografía) y la describiremos de forma narrativa. Estos requisitos obedecen a dos objetivos básicos de esta técnica: en primer lugar, nos ayudarán a dotar de realismo a la persona, haciéndola parecer un usuario real; en segundo lugar, nos proporcionarán un relato en el que veremos las necesidades del usuario en contexto.
Por tanto, la descripción de una persona debe incluir todo tipo de detalles:
  • Edad, sexo, nivel de estudios, clase social, familia, etc.

  • ¿Dónde vive? ¿De qué trabaja? ¿Cuál es su nivel de vida? ¿Tiene aficiones?

  • ¿Cuáles son sus objetivos? ¿Y sus necesidades?

  • ¿Cómo se relaciona con el producto que queremos diseñar?

La descripción de las características de la persona debe ser coherente con toda la información recogida durante la fase de indagación.
De acuerdo con su nivel de relación con el producto, podemos definir diferentes tipos de persona:
  • Focal. Es el usuario objetivo, al cual nos dirigimos con preferencia. En todo proyecto deberíamos tener al menos una persona focal.

  • Secundaria. Sin ser el usuario objetivo, estas personas también utilizarán la aplicación y deberían poder hacerlo de forma satisfactoria. En caso de conflicto de intereses, se dará siempre prioridad a las necesidades de la persona focal.

  • Excluida. Son los usuarios para los que no estamos diseñando.

3.2.3.Escenarios
Si las personas nos facilitan la descripción de las características de los usuarios potenciales de nuestra aplicación, los escenarios nos ayudan a establecer un contexto al proceso de interacción entre los usuarios y nuestro producto o servicio. Un escenario será la descripción de un personaje en una situación concreta de uso de la aplicación. Esta descripción se hará también en lenguaje narrativo y, una vez más, deberá ser coherente con los datos recogidos durante la fase de indagación.
Los escenarios nos ayudan a realizar hipótesis sobre las situaciones en que se encontrarán los usuarios y las necesidades que tendrán para conseguir sus objetivos, poniendo en primer plano el contexto de uso. No se trata, por tanto, de describir interacciones concretas con el sistema, sino de describir situaciones que incluyan los objetivos y motivaciones del usuario, sus necesidades de información, junto con las previsibles acciones que llevará a cabo.
Al hablar de dispositivos móviles, este contexto de uso resulta especialmente relevante.
Brian Fling distingue tres tipos de contexto aplicables a la tecnología móvil:
1) Localización o contexto físico. Es el lugar en el que nos encontramos. El contexto físico condiciona nuestra actividad, ya sea por la privacidad que nos proporciona o por el nivel de atención que podemos dedicar al dispositivo.
2) Contexto de acceso. En un dispositivo móvil, la cobertura, calidad y velocidad de la conexión a la red, estado de la batería u otras características del dispositivo pueden condicionar o limitar el uso de una aplicación.
3) Contexto modal o de estado de ánimo. El estado de ánimo o humor es quizá la mayor influencia sobre qué, cuándo y dónde decidimos hacer las cosas.
3.2.4.Ejemplo de ficha de persona y escenario
Como hemos resaltado anteriormente, resulta de gran utilidad generar fichas en las que poder plasmar toda la información recopilada y procesada durante la fase de indagación. A continuación se muestra un ejemplo de ficha de persona y escenario.
Fuente: pixabay.com
Fuente: pixabay.com
Descripción de la persona
Lidia está casada y tiene una niña de dos años. Vive en Barcelona, en el barrio de Gracia, y trabaja como administrativa en una empresa de soluciones informáticas para pequeñas y medianas empresas. Trabaja de 8.00 a 17.00 horas sentada delante de un ordenador, atendiendo incidencias y coordinando la agenda del equipo de técnicos de la empresa.
En casa disponen de conexión por fibra óptica a internet y un ordenador portátil, pero ella apenas lo toca; el ordenador es cosa de su marido. Ella prefiere sentarse en el sofá a leer o consultar en el móvil las últimas noticias y actualizaciones de sus contactos en redes sociales. También juega de vez en cuando con la tableta de la familia. Todo ello cuando tiene un rato libre: entre el trabajo, la casa y su hija de dos años, apenas dispone de tiempo para estar al día con las novedades tecnológicas. En este terreno se deja guiar por las recomendaciones de su pareja y amigas; ella tan solo se ha descargado un par de aplicaciones en su smartphone por iniciativa propia. Sin embargo, valora mucho que las aplicaciones en el móvil le ahorren tiempo y esfuerzo, y sobre todo que sean fáciles de usar.
Descripción de un escenario
Son las 18.45 horas de un jueves. Hoy ha habido complicaciones en el trabajo y Lidia sale mucho más tarde de lo habitual de la oficina. Ha tenido que llamar a su marido y pedirle que fuera él a buscar a la niña a la guardería. De vuelta a casa en el autobús, no tiene ni ganas de consultar el móvil, prefiere distraerse mirando por la ventana.
Una vez en su parada, Lidia desciende del autobús y empieza a caminar hacia casa. Es entonces cuando recuerda que no queda café para el día siguiente. De hecho, lo había apuntado en el móvil esa mañana al acabarse la última cápsula. Está cansada y tiene ganas de llegar, pero decide desviarse un par de calles y pasar por el supermercado del barrio. Aprovecha el semáforo para sacar el móvil y apuntar en la lista un par de productos más que necesitan en casa. Es entonces cuando se da cuenta de que la lista, que aquella mañana estaba llena, está ahora vacía. Comparte la lista de la compra con su marido, y que esté vacía no puede significar más que su marido ha pasado por el supermercado de vuelta a casa desde la guardería, tachando todos los productos de la lista en su móvil.
Con una sonrisa de alivio en la cara, Lidia retoma el rumbo a casa mientras dicta a la aplicación ese par de productos que faltan en casa antes de que se le olviden. No es urgente, ya los comprarán en otro momento.
Lecturas complementarias

Para profundizar y ampliar información sobre los métodos del diseño centrado en el usuario:

Usability Net (2006). Methods Table.

Sobre el uso de personas en el proceso de diseño:

A. Harley (2015). Personas make users memorable for product team members.

4.El ecosistema móvil

Cuando hablamos de dispositivos móviles, a la mayoría nos viene a la cabeza un teléfono, seguramente de última generación (también llamados smartphones o teléfonos inteligentes). Si lo pensáramos dos veces, seguramente acabaríamos incluyendo también en esta categoría las tabletas, unos aparatos cada vez más habituales en los hogares.
Ahora bien, en el mercado hay además multitud de otros dispositivos móviles, como por ejemplo:
  • Agendas electrónicas.

  • Consolas de videojuegos.

  • Reproductores multimedia.

  • Libros digitales (e-readers).

  • Marcos de fotografía digitales.

  • Sistemas de navegación vía satélite (GPS).

  • Cámaras de fotografía.

  • Relojes inteligentes.

  • Etc.

No obstante, cuando hablemos de dispositivos móviles en este espacio, haremos referencia básicamente a teléfonos y tabletas, los dispositivos que hoy por hoy siguen marcando la tendencia a seguir en el diseño de interfaces. Y estaremos refiriéndonos en todo momento a dispositivos con pantallas táctiles, una característica que se ha convertido ya en un estándar en el sector.
En este sentido, buena parte de los principios y patrones de diseño que veremos más adelante para teléfonos y tabletas táctiles son plenamente válidos para el resto de dispositivos, dado que la enorme popularización de estos aparatos está liderando las características de las interfaces y los modelos de interacción en las pantallas táctiles del resto de dispositivos.

4.1.La interfaz móvil

A continuación, compararemos primero las ventajas y los inconvenientes que presentan las interfaces móviles frente a las de los tradicionales ordenadores de sobremesa y, posteriormente, las interfaces web móvil y aplicación frente a los esquemas clásicos de interfaces web.
4.1.1.Móvil o sobremesa
A la hora de diseñar una aplicación o estructurar contenidos para dispositivos móviles, tenemos que intentar huir de los clásicos esquemas aprendidos con la web y los ordenadores personales.
Con un ordenador:
  • El usuario está sentado y poniendo toda su atención en la interacción con el dispositivo.

  • El entorno es predecible, no acostumbra a variar.

  • El usuario tiene un teclado y un ratón para interactuar con el ordenador.

  • La pantalla es grande y permite al usuario tener mucha información delante al mismo tiempo.

  • La multitarea es posible.

Con un móvil:
  • El usuario puede estar sentado, andando por la calle, corriendo, circulando en bicicleta, etc.

  • El entorno es variable.

  • La atención es limitada, sujeta a todo tipo de interrupciones.

  • El usuario interactúa con una pantalla táctil y/o teclas muy pequeñas.

  • La pantalla es pequeña.

  • La multitarea es complicada y farragosa.

Por otro lado, el espacio dentro de la pantalla de un dispositivo móvil es un bien muy preciado. Se tiene que evitar el uso de cualquier elemento (franjas fijas –o banners–, barras, imágenes o gráficos) que ocupe espacio sin tener una función específica. Los usuarios quieren acceder a la información o completar la tarea requerida de la forma más rápida y más eficiente posible, de manera que los elementos irrelevantes serán ignorados en cuanto descubran qué es importante y qué no para conseguir sus objetivos.
Cuando diseñamos para un móvil no se trata de hacer las cosas más pequeñas, sino de centrarnos en aquello que es esencial.
4.1.2.Web, web móvil, aplicación
Un buen ejemplo para entender que el diseño de interfaces para dispositivos móviles tiene poco que ver con el diseño para dispositivos de sobremesa, o con el diseño de páginas web, es observando un sitio como Amazon y las diferencias entre sus versiones web, web móvil y aplicación:
1) Web. Vista directamente en el navegador (Safari) de un teléfono iPhone, la web de Amazon resulta un tanto incómoda: tenemos que ampliar constantemente la pantalla para poder leer el contenido o ampliar el menú superior de navegación hasta un tamaño que nos permita no cometer errores al pulsarlos con el dedo.
m0651_m1_09.jpg
2) Web Móvil. Para evitar las incomodidades de la web tradicional en la pequeña pantalla de un móvil, es habitual encontrarnos con versiones adaptadas, donde el ancho se ajusta perfectamente a la pantalla y elementos como, por ejemplo, botones y menús, se han simplificado y adaptado para su interacción mediante una pantalla táctil.
m0651_m1_10.jpg
3) Aplicación. Finalmente, la aplicación de Amazon para iPhone nos muestra los mismos contenidos, pero con un sistema de navegación y una interfaz plenamente adaptada al dispositivo. Además, las aplicaciones permiten nuevas formas de interacción, aprovechando el hardware del dispositivo. Por ejemplo, la aplicación de Amazon permite la búsqueda de productos usando la cámara del teléfono como escáner.
m0651_m1_11.jpg
Lecturas complementarias

Sobre las diferencias de comportamiento entre el usuario de móvil y ordenador de sobremesa:

Designer Daily (2012). Analyzing mobile vs desktop user behaviour.

Sobre las diferencias entre entre web y móvil:

UXmatters (2011). 10 ways mobile sites are different from desktop sites.

Sobre las fortalezas y debilidades de la experiencia de usuario móvil:

R.Budiu (2015). «Mobile User Experience: Limitations and Strengths». Nielsen Norman Group.

4.2.Dispositivos móviles

A continuación pasamos a describir las características de los principales dispositivos móviles existentes en el mercado.
4.2.1.Teléfonos inteligentes
La telefonía móvil dio un giro radical en enero de 2007, fecha en la que Steve Jobs, cofundador y presidente ejecutivo de Apple, presentó por primera vez el iPhone. Con este dispositivo, Apple transformó el concepto de smartphone (teléfono inteligente) y cambió radicalmente la manera en que se había interactuado hasta entonces con un teléfono: Apple convirtió el móvil en un aparato intuitivo, multitáctil y siempre conectado a internet.
La gran revolución del iPhone fue doble: en primer lugar, Apple consiguió llevar la experiencia de navegar por internet al teléfono móvil, prácticamente en igualdad de condiciones respecto a un ordenador de sobremesa; y en segundo lugar, Apple reinventó el concepto de aplicación para los teléfonos móviles: el iPhone era un dispositivo en el que, como si de un ordenador se tratara, se podían instalar pequeños programas desarrollados por terceros (aplicaciones), los cuales se podían descargar –de forma gratuita o mediante pago– desde un mercado controlado por el propio fabricante (App Store). De este modo, la aparición del iPhone también revolucionó y creó nuevos modelos de negocio, marcando el nacimiento de una nueva industria dedicada a la creación de aplicaciones.
El teléfono iPhone de Apple revolucionó el mercado de los teléfonos inteligentes tanto por sus características tecnológicas como por la creación de una nueva industria dedicada al desarrollo de aplicaciones (apps).
Por otro lado, el enorme impacto mediático del iPhone provocó que el resto de fabricantes de teléfonos empezaran a fabricar terminales con pantallas táctiles, imitando con mejor o peor fortuna el funcionamiento casi mágico del dispositivo de Apple. En este sentido, poco después (octubre de 2008) aparecía el primer teléfono móvil con el sistema operativo Android –impulsado por Google–, entrando en competencia directa con los teléfonos de Apple.
En cualquier caso, diez años después del primer modelo de iPhone, se calcula que en 2017 se superarán los 2.300 millones de usuarios de teléfonos inteligentes en todo el mundo. No es Apple, sin embargo, quien lidera el mercado: ocho de cada diez teléfonos inteligentes vendidos son Android.
Entre las funcionalidades básicas que caracterizan a un dispositivo para ser considerado un teléfono inteligente, destacan las siguientes:
  • Pequeño: su tamaño tiene que permitir llevarlo siempre encima, si puede ser, en el bolsillo.

  • Portátil: funciona con baterías y, por lo tanto, no hay que tenerlo enchufado para que funcione.

  • Siempre conectado: se trata de un aparato con conexión constante a las redes, ya sea para la transmisión de datos o de voz.

  • Interactivo: tiene que permitir que el usuario lleve a cabo todo tipo de acciones, como entrada de datos y texto, búsquedas en internet, organizar información, etc.

  • Sensible al entorno: gracias a sus sensores, puede facilitar el trabajo al usuario detectando dónde se encuentra (GPS), adaptando la brillantez de la pantalla a las condiciones lumínicas, etc.

4.2.2.Tabletas
Apple volvió a marcar un punto de inflexión en el año 2010 cuando presentó el iPad, un aparato a medio camino entre el teléfono móvil y el ordenador portátil, pero que a diferencia de este último prescindía del teclado físico y el ratón para interactuar con él. Con un iPad se podía navegar por internet, enviar y recibir correo, hacer fotos y vídeos, reproducir música... todo en un aparato multitáctil pensado para que el usuario descargara aplicaciones (juegos, mapas, redes sociales...) a través de la tienda virtual de la compañía, la App Store.
Cuando Steve Jobs subió al escenario para presentar este dispositivo, muchos entonces se apresuraron a decir que se trataba de un «iPhone gigante» o de un juguete pretencioso abocado al fracaso. Por concepto, se alejaba demasiado de un ordenador y, al mismo tiempo, se asemejaba demasiado a su hermano pequeño, el iPhone.
Pero a pesar de no ser el primer aparato de estas características que salía al mercado, el iPad de Apple sí que acabó siendo el primero en obtener un gran éxito comercial. Después de él empezaron a aparecer tabletas de todos los tamaños, la mayoría –una vez más– con el sistema operativo Android, intentando ganar parte del nuevo mercado abierto por el iPad.
Las características básicas de una tableta son idénticas a las de un teléfono inteligente, a excepción de su tamaño (según el modelo) y de que una tableta no está pensada para realizar llamadas telefónicas (aunque pueda incorporar dicha funcionalidad).
4.2.3.Tecnología ponible
El mercado de dispositivos tecnológicos que podemos llevar con nosotros –lo que se ha bautizado como «tecnología ponible» (wearables)– dio un gran salto en 2014, con más de diecinueve millones de unidades vendidas en todo el mundo, lo que suponía triplicar las ventas del año anterior. Un año después, en 2015, las ventas alcanzaban los setenta y nueve millones de unidades, con estimaciones para 2020 de más de doscientos trece millones de unidades vendidas (fuente: IDC).
Podemos clasificar estos dispositivos en tres categorías:
  • Accesorios «complejos»: son dispositivos diseñados para funcionar de manera independiente, pero que solo son plenamente funcionales cuando se emparejan a otro dispositivo, ya sea un ordenador, un teléfono o una tableta.

  • Accesorios «inteligentes»: parecidos a los anteriores, son dispositivos que, además de emparejarse a otro para ser plenamente funcional, permiten la instalación de aplicaciones de terceros para ampliar sus funciones o mejorar sus prestaciones.

  • Tecnología ponible inteligente: en esta última categoría englobamos los dispositivos que podemos llevar puestos y son plenamente funcionales sin necesidad de otro dispositivo.

A continuación veremos con más detalle algunos de estos dispositivos.
Relojes
Después de teléfonos móviles y tabletas, todo apunta a que el próximo dispositivo inteligente (smart) de consumo masivo será el reloj inteligente (smartwatch). Para los diseñadores, esto supone una cuarta pantalla a tener en cuenta cuando diseñan interfaces (después de ordenadores, móviles y tabletas), mucho más pequeña que cualquier otra y, según indica el sector, destinada a servir de complemento –o mejor dicho, de centro de notificaciones– de un teléfono móvil.
Algunos ejemplos de relojes inteligentes ya en el mercado:
  • Pebble. Salió al mercado en 2013 después de una exitosa campaña de financiación popular (crowdfunding) en Kickstarter. Cuenta con una pantalla de 1,26 pulgadas y una resolución de 144 x 168 píxeles. Compatible con dispositivos Android e iOS, su sistema operativo es propietario, con SDK propio para el desarrollo de aplicaciones.

  • Samsung Gear. Concebido como un complemento para los teléfonos de la serie Galaxy de la compañía coreana, el tercer modelo (Samsung Gear S3) cuenta con una pantalla de 1,3 pulgadas y una resolución de 144 x 168 píxeles, y utiliza Tizen como sistema operativo. Otros modelos de la familia, como el Gear Fit, utilizan un sistema operativo propietario.

  • Fitbit Blaze. Diseñado para monitorizar la actividad física de su propietario, este reloj, que funciona con un sistema operativo propietario, puede sincronizarse con ordenadores y más de doscientos dispositivos móviles de los principales sistemas operativos (iOS, Android y Windows). Cuenta con una pantalla de 1,66 pulgadas y una resolución de 240 x 180 píxeles.

  • Sony SmartWatch 3. Funciona con Android Wear y es compatible con cualquier teléfono equipado con Android 4.3 o superior. Cuenta con una pantalla de 1,8 pulgadas y una resolución de 320 x 320 píxeles.

  • Apple Watch. El reloj de Apple es un dispositivo pensado como complemento de un iPhone. La segunda generación (Series 2) de este reloj cuenta con un procesador de doble núcleo y está disponible en dos tamaños (38 y 42 mm) con una resolución de 340 x 272 píxeles y 390 x 312 píxeles, respectivamente.

Pulseras
Las pulseras inteligentes se han convertido en la mejor herramienta para monitorear cualquier aspecto de nuestro día a día: horas de sueño, pasos dados, ritmo cardíaco... Aunque los últimos modelos ya apuntan la tendencia a añadirles una pantalla para mostrar información, lo normal es que estos dispositivos sean emparejados de forma inalámbrica a un teléfono móvil o tableta para mostrar gráficamente los datos recabados durante el día.
Algunos de los modelos más populares son:
  • Microsoft Band 2. Esta pulsera inteligente cuenta con once sensores que le permiten controlar el ritmo cardíaco del usuario, la distancia recorrida, el número de pasos realizados, calorías quemadas... Presenta una pantalla táctil curva a todo color en la que también se pueden consultar el correo electrónico, el calendario o recibir alertas de llamadas. Es compatible con Windows Phone, iOS y Android.

  • Fitbit. Medidor de actividad física capaz de calcular el número de pasos que damos al día o medir la calidad de nuestro sueño. El modelo Flex consiste en una pulsera con un sencillo display LED que indica nuestro progreso de acuerdo con los objetivos de actividad física marcados. Es compatible con Windows Phone, iOS y Android.

  • Jawbone UP3. Monitor de actividad física en forma de pulsera que se conecta vía bluetooth a dispositivos Android e iOS. Mediante una aplicación dedicada, el usuario puede visualizar los datos recogidos por los sensores de la pulsera, que van desde la frecuencia cardíaca hasta las calorías quemadas o la calidad del sueño de su propietario.

Gafas
Aunque ya hace años que se diseñan prototipos de gafas con un display capaz de mostrar imágenes a la vez que permite al usuario ver a través de ellas (optical head-mounted display), no fue hasta la presentación de las Google Glass a principios de 2013 cuando este dispositivo de realidad aumentada captó la atención del gran público. Las Google Glass permitían realizar llamadas, enviar mensajes, mostrar direcciones en un mapa, navegar y buscar en internet, así como hacer fotos y vídeos. En enero de 2015, Google anunció que la fase de prototipado de sus gafas había finalizado y que el proyecto quedaba detenido a la espera de ulteriores desarrollos y mejoras del producto.
Pero el uso de las gafas ha cobrado un nuevo impulso sobre todo en el terreno de la realidad virtual (RV). Después de décadas en desarrollo (los primeros modelos se remontan a la década de los sesenta en el siglo XX, de la mano de Morton Heilig, considerado el «padre» de la realidad virtual), en 2016 surgieron simultáneamente varios proyectos que ponían esta tecnología al alcance del gran público. Las más destacadas:
  • Daydream: impulsada por Google, se trata de una plataforma de realidad virtual pensada específicamente para dispositivos equipados con el sistema operativo Android (a partir de su versión 7, Android Nougat). Se trata de una evolución de las Google Cardboards, unas sencillas carcasas con forma de visor que permitían acoplar un teléfono móvil para visualizar vídeos en 360º o sencillas aplicaciones de realidad virtual. Con Daydream, la estrategia de Google es ofrecer unas especificaciones básicas, tanto de software como de hardware, para que los fabricantes puedan diseñar dispositivos compatibles con su sistema. A finales de 2016, Google contaba ya con ocho socios para este proyecto, entre ellos Samsung, LG, Xiaomi o Huawei.

  • Oculus Rift: compradas por Facebook en 2014, estas gafas de realidad virtual dieron el salto al gran mercado en 2016, pensadas sobre todo para el gaming con un PC. Para mejorar la sensación de inmersión y dotar al usuario de un mayor control durante el juego, las Oculus Rift se complementan con Touch, un dispositivo equipado con un pequeño joystick y un par de botones que también reconoce los gestos que realiza el usuario con las manos.

  • Samsung Gear VR: inspiradas en las Google Cardboards, pero mucho más conseguidas en cuanto a diseño y materiales empleados, las Gear VR son un visor al cual podemos acoplar un teléfono móvil y así disfrutar de juegos de realidad virtual o ver fotografías y vídeos en 360º.

  • HTC Vive: al igual que las Oculus Rift, estas gafas también cuentan con un accesorio para mejorar la experiencia del usuario, en este caso unos trackpads equipados con veinticuatro sensores que recogen todos los gestos que pueda realizar el usuario con los brazos, a la vez que ofrecen una respuesta háptica cuando interactúa con el entorno virtual.

Es de esperar que la popularización de estos dispositivos lleve aparejado el desarrollo de todo tipo de contenidos (documentales, películas...), juegos y aplicaciones para ser disfrutados, tanto en unas gafas de realidad virtual como en un teléfono móvil acoplado a un visor.

4.3.Sistemas operativos

Los sistemas operativos para dispositivos móviles más representativos hoy en día son iOS, Android y Windows Phone (fuente: wikipedia).
4.3.1.iOS
iOS es el sistema operativo desarrollado por Apple para los dispositivos iPhone, iPad y iPod Touch. Se trata de un sistema cerrado, basado en el sistema operativo Mac OS X (el de los ordenadores Apple), que solo se puede instalar en los dispositivos de la misma compañía. Apple suele lanzar una gran actualización del sistema operativo una vez al año, sobre la que va liberando posteriormente pequeñas correcciones y mejoras.
El usuario se puede descargar aplicaciones nuevas para su dispositivo solo a través de la App Store, una tienda virtual que cuenta con más de un millón y medio de aplicaciones disponibles, tanto gratuitas como de pago: el precio de venta mínimo para una aplicación es de 0,99 euros (fecha de consulta: noviembre de 2016).
Su interfaz está pensada para la manipulación directa, mediante gestos sobre la pantalla, de elementos como, por ejemplo, iconos, botones o interruptores. Se trata de un sistema multitáctil, de modo que el dispositivo es capaz de identificar y responder cuando el usuario toca dos o más puntos de la pantalla a la vez.
La interacción con el sistema operativo incluye gestos como, por ejemplo, deslizar con el dedo (swipe), dar un toque (tap) o dos sobre la pantalla (double tap) o pellizcar (pinch), que con el tiempo se han convertido en comportamientos esperados por parte de los usuarios en otros sistemas operativos móviles. Los dispositivos de Apple también incorporan elementos, como el acelerómetro o el giroscopio, que les permiten responder en caso de que el usuario mueva el dispositivo o lo coloque en posición horizontal, cambiando automáticamente la disposición de los elementos en la pantalla.
Con la llegada del modelo iPhone 6S en septiembre de 2015, Apple presentó como principal novedad la 3D Touch, una nueva tecnología que permite detectar la intensidad con la que el usuario presiona la pantalla, multiplicando las posibilidades de interacción con el dispositivo. Así, a los conocidos gestos de tocar, deslizar o pellizcar, Apple sumaba a la interfaz los gestos de peek y pop, que básicamente permiten al usuario realizar una vista previa del contenido de un mensaje o mostrar una especie de menú contextual para realizar acciones rápidas sobre un icono o dentro de una aplicación.
Ejemplo de menú rápido en un iPhone 6S al presionar sobre el icono de la cámara
Ejemplo de menú rápido en un iPhone 6S al presionar sobre el icono de la cámara
La interfaz gráfica en iOS está basada en una pantalla principal (Springboard) donde se encuentran los accesos directos a las aplicaciones en forma de iconos cuadrados con las esquinas redondeadas. Para abrir una aplicación solo hay que dar un toque en la pantalla con el dedo sobre el icono correspondiente. El usuario puede volver a la pantalla de inicio en cualquier momento pulsando el único botón físico presente en el frontal del dispositivo, llamado «Inicio» (Home).
La distribución de los iconos en la pantalla principal se hace mediante una malla organizada en páginas, que el usuario puede ir pasando horizontalmente deslizando con el dedo. La parte inferior de la pantalla, denominada «Muelle» (Dock), es fija y permite al usuario situar hasta cuatro iconos con las aplicaciones que use más a menudo. En la parte superior, se encuentra la Barra de estado (Status bar), con información sobre la hora, el nivel de batería restante y la calidad en la recepción de las redes disponibles (WiFi, 3G, etc.).
  • Lenguaje de programación: Objective C) / Swift

  • SDK (software development kit): Xcode

  • Coste de la licencia de desarrollador: 99 dólares/año (fecha de consulta: noviembre 2016)

4.3.2.Android
Android es el sistema operativo desarrollado por Google en asociación con la Open Handset Alliance, un consorcio de fabricantes de teléfonos, desarrolladores de software y operadoras de telefonía para el desarrollo de estándares abiertos para dispositivos móviles.
Se trata de un sistema operativo de código abierto basado en Linux que se puede instalar en multitud de dispositivos, más allá de teléfonos móviles y tabletas: ordenadores portátiles, libros electrónicos, televisores, reproductores multimedia o incluso gafas y relojes.
A diferencia de iOS, donde los usuarios no pueden actualizar el sistema operativo de su dispositivo hasta que Apple considera que ha quedado obsoleto, en el caso de Android este servicio depende de la política del fabricante del dispositivo y lógicamente está estrechamente ligada a su precio. En general, los fabricantes de un dispositivo con el sistema operativo Android no suelen actualizar con prontitud a las nuevas versiones del sistema operativo o incluso directamente no ofrecen este servicio. Es por este motivo por lo que en el mercado conviven gran cantidad de dispositivos con diferentes versiones de Android, lo que se conoce como fragmentación. Consciente del problema –sobre todo en lo que atañe a la seguridad de las versiones más antiguas–, Google está aumentando la presión, tanto sobre los fabricantes de terminales como sobre las operadoras de telefonía, para que actualicen sus dispositivos a las nuevas versiones del sistema operativo con más agilidad.
Google Play es el principal mercado desde donde los usuarios pueden descargarse nuevas aplicaciones (hay más de 1,6 millones de aplicaciones disponibles), pero no el único, puesto que el sistema permite la descarga de aplicaciones de otros mercados gestionados por terceros (por ejemplo, la Amazon Appstore).
La interfaz de Android está pensada para su manipulación directa mediante gestos sobre la pantalla (deslizar con el dedo, tocar la pantalla, pellizcarla...) y es también un sistema operativo multitáctil. Los dispositivos Android también suelen incorporar elementos como el acelerómetro o el giroscopio, que permiten detectar la posición del aparato y adaptar en consecuencia la orientación de la pantalla en vertical (Portrait) u horizontal (Landscape).
La interfaz gráfica está basada en una pantalla de inicio que, al igual que si se tratara del escritorio de un ordenador, contiene iconos con accesos directos a las aplicaciones instaladas en el sistema, carpetas y widgets que muestran información de forma actualizada sin necesidad de abrir la aplicación correspondiente (por ejemplo, predicción del tiempo, correo electrónico, canales de noticias...).
La pantalla de inicio puede estar formada por varias páginas con iconos y widgets, que el usuario puede ir pasando al deslizar con el dedo. Al igual que con los dispositivos iOS, en la base de la pantalla hay una zona fija donde los usuarios pueden situar las aplicaciones que utilizan más a menudo. En la parte superior, la Barra de estado muestra el nivel de batería, la hora y las conexiones disponibles, así como si hay notificaciones pendientes.
Los dispositivos Android también cuentan con una Barra de navegación con tres botones que permiten, de izquierda a derecha, ir un paso atrás (Back), volver a la pantalla de inicio (Home) y ver las últimas aplicaciones que se han usado, ordenadas de forma cronológica (Recents).
En junio de 2014, Google presentó Android 5.0 Lollipop, una revisión del sistema operativo que implicó un rediseño de la interfaz de usuario creando un nuevo estilo de diseño, que bautizó como Material Design, y que supuso un impulso al papel del diseño desde el punto de vista de la estética, la usabilidad y la experiencias de usuario. Entre las principales novedades introducidas destacamos:
  • Uso del eje Z para dotar de profundidad a la interfaz, donde los elementos se organizan jerárquicamente de acuerdo con su posición (los más importantes o los más recientes encima del resto).

  • Más transiciones y movimientos en respuesta a las acciones del usuario sobre la pantalla.

  • Un renovado sistema de notificaciones y un completo rediseño de la función de «Recientes», que se muestra ahora como una pila de elementos (Stack of items) en tres dimensiones.

En la página web oficial de Google sobre Material Design se pueden consultar los principios que inspiran este nuevo estilo y todos los cambios y novedades que progresivamente va incorporando el equipo de Google.
4.3.3.Windows 10 Mobile
Windows Phone fue el sistema operativo desarrollado por Microsoft para entrar en competencia con Apple (iOS) y Google (Android) y no quedar fuera del emergente mercado de teléfonos inteligentes y tabletas. En 2015, Microsoft anunció que retiraría la marca Windows Phone para centrarse en Windows 10, un sistema operativo lanzado a mediados de ese mismo año y que introduce un sistema «universal» de desarrollo de aplicaciones: con un mismo código, las aplicaciones desarrolladas en Windows 10 pueden ejecutarse en ordenadores personales, tabletas, teléfonos inteligentes, la consola Xbox One y cualquier otro dispositivo Microsoft. La versión específica para teléfonos inteligentes y tabletas con pantallas de menos de 8 pulgadas recibe el nombre de Windows 10 Mobile.
Windows 10 Mobile también presenta como novedad «Continuum», una función que permite al teléfono móvil o tableta conectarse a una pantalla externa (a través de un Display Dock al que también se puede conectar un teclado y ratón) y escalar el contenido de las aplicaciones para trabajar como si se estuviera delante de un ordenador.
Esta unificación propuesta por Microsoft con Windows 10 también afecta a la tienda de aplicaciones, denominada Microsoft Store desde mediados de 2015 y pensada para que los usuarios puedan explorar todo el catálogo de aplicaciones, al margen de los dispositivos para los cuales estén disponibles, así como acceder a la compra de contenido multimedia o incluso dispositivos. A finales de 2015, la tienda de Microsoft contaba con más de 650.000 títulos disponibles entre aplicaciones para teléfonos móviles, tabletas y ordenadores (fuente: https://news.microsoft.com/bythenumbers/store-downloads).
La interfaz de Windows 10 Mobile está diseñada para su manipulación directa mediante gestos sobre la pantalla del dispositivo y es también un sistema operativo multitáctil que detecta las dos posiciones de pantalla (Portrait y Landscape).
Windows 10 Mobile presenta una interfaz gráfica basada en una pantalla de inicio (Home) en la que se distribuyen azulejos (Live tiles) de diferentes tamaños que funcionan como accesos directos a aplicaciones, funciones del sistema o incluso elementos concretos, como, por ejemplo, un contacto o una página web. El usuario puede añadir tantos azulejos como quiera a la pantalla de inicio del dispositivo, así como modificar su posición y tamaño. Los azulejos tienen un comportamiento dinámico y modifican su apariencia en función de la información disponible (por ejemplo, muestran el número de mensajes pendientes de leer, llamadas perdidas, las últimas fotografías hechas, etc.).
A diferencia de otros sistemas, la pantalla principal de Windows 10 Mobile no se organiza en páginas, sino que los azulejos se acumulan en un único espacio que se puede desplazar verticalmente. El desplazamiento lateral (de derecha a izquierda) sirve aquí para mostrar el listado completo de aplicaciones instaladas en el sistema.
Los dispositivos con Windows 10 Mobile cuentan con tres botones que, de izquierda a derecha, sirven para ir un paso atrás (Back), volver a la pantalla de inicio (Home) y hacer búsquedas en internet a través de Bing, el buscador de Microsoft.
4.3.4.Otros sistemas operativos
Aparte de los dos grandes (Android e iOS) y el «pequeño» que lucha por hacerse un hueco en el mercado (Windows 10), en el ecosistema móvil hay otros muchos sistemas operativos (wikipedia), algunos de ellos aparecidos de la mano de la tecnología ponible. A continuación veremos algunos de los más significativos.
Android Wear
En marzo de 2014, Google presentó oficialmente Android Wear, una versión de su sistema operativo específicamente diseñada para ser utilizada en relojes inteligentes (smartwatches) y otra «tecnología ponible». Samsung, Motorola, LG, HTC o Asus son algunas de las compañías que colaboran en el proyecto, así como fabricantes de chips como Intel, Mediatek o Qualcomm. Según Google, el proyecto arranca con el más familiar de los dispositivos que llevamos encima, el reloj, para más adelante expandirlo a otros dispositivos.
Google plantea un escenario donde Android Wear ofrece información relevante en función de la ubicación o las necesidades del usuario, así como respuesta a sus preguntas o demandas concretas (pedir un taxi, enviar un mensaje, reservar mesa en un restaurante, etc.). Otra de las funciones clave de Android Wear es servir de monitor de salud del usuario, a través de aplicaciones que controlen sus constantes vitales, el tiempo que ha dedicado a hacer ejercicio o las calorías que ha quemado paseando en bicicleta.
Si en un dispositivo como el teléfono móvil el diseño de aplicaciones ya nos plantea un reto, en el caso de un reloj, donde el espacio disponible para la interacción se reduce a la mínima expresión, el desafío es aún mayor. Algunos principios básicos en Android Wear son:
  • Relevancia: más que esperar que el usuario interaccione con el dispositivo, este tiene que anticiparse a sus necesidades, ofreciendo la información necesaria en el momento correcto.

  • Máxima concreción: el poco espacio disponible nos obliga a comunicarnos con el usuario de la forma más directa, breve y concreta posible. Reducir el texto a la mínima expresión, usar iconografía, etc. El usuario no va a leer en la pantalla de un reloj, solo le va a echar un vistazo.

  • Mínima interacción: al tratarse de un dispositivo que el usuario lleva puesto, hemos de conseguir que tenga suficiente con mirarlo, reservando la interacción solo para cuando sea imprescindible. El catálogo de gestos será además limitado: un toque (o dos) sobre la pantalla y deslizar con el dedo. En este sentido, la voz como método de entrada de datos adquiere en estos dispositivos gran importancia.

  • Discreción: el usuario apreciará la ayuda o información que pueda ofrecerle su dispositivo, pero sin embargo acabará molestándose si recibe notificaciones y mensajes ininterrumpidamente.

WatchOS
WatchOS es el sistema operativo del reloj inteligente de Apple. Se trata de una adaptación del sistema operativo de Apple para dispositivos móviles que aporta como novedades destacadas la capacidad de detectar la fuerza con que el usuario golpea (hacer tap) sobre la superficie del reloj, el uso del zoom para navegar por los contenidos o el manejo de toda la interfaz mediante una corona lateral.
La interfaz gráfica de WatchOS se basa en una pantalla principal (Home) compuesta de iconos circulares de aplicaciones que el usuario puede navegar con el dedo y ampliar o reducir en tamaño mediante la corona lateral. Y al igual que en Android Wear, las interacciones en WatchOS son mínimas: la información se ha de poder mostrar y descartar rápidamente, a veces con un gesto de la muñeca del usuario. Así, el Apple Watch es capaz de detectar el tiempo que el usuario observa la pantalla del reloj, pasando así de una breve notificación (Short look) a una expandida (Long look) cuando el usuario mantiene unos instantes la muñeca en alto, para descartarla automáticamente cuando el usuario baja de nuevo el brazo.
Tizen
Tizen es un sistema operativo basado en Linux impulsado por Samsung y desarrollado por la propia compañía coreana en colaboración con la Linux Foundation.
La API y el SDK de Tizen permiten a los desarrolladores utilizar HTML5 y JavaScript para escribir aplicaciones que después pueden correr en múltiples dispositivos (teléfonos inteligentes, tabletas, televisores, relojes inteligentes, netbooks...).
Tizen alcanzó la madurez en 2015, cuando Samsung empezó a presentar smartphones (Samsungs Z1 y Z3), televisores inteligentes (smart TV) e incluso relojes (Samsung Gear S2) con este sistema operativo. De hecho, las buenas ventas de los teléfonos Z1 y Z3 hicieron que ese mismo año Tizen superara a Blackberry OS como cuarto sistema operativo en cuota de mercado.
Firefox OS
Firefox OS nació en 2012 de la mano de Mozilla y bajo la misma marca del popular navegador de internet. Estaba construido sobre Linux y basado en el lenguaje HTML5 y Javascript. Incluso las aplicaciones más básicas del teléfono (llamadas, mensajería, etc.) estaban programadas en HTML5. De hecho, el objetivo de Firefox OS era usar la propia web como plataforma de desarrollo, liberando los dispositivos móviles de «las normas y restricciones de las plataformas privadas existentes».
A finales de 2015, sin embargo, Mozilla anunció que daba por finalizado el proyecto de crear un sistema operativo para teléfonos inteligentes debido a las dificultades de comercializar el producto (en España se llegaron a poner a la venta tan solo un par de modelos). Aún así, el proyecto sigue vivo en manos de Panasonic, que a principios de 2016 anunció que seguiría usando Firefox OS como sistema operativo para sus nuevos televisores.

4.4.Enfoques para el desarrollo de aplicaciones móviles

En el momento de pasar a la fase de desarrollo de una aplicación móvil, tenemos varias opciones entre las que elegir la tecnología que emplearemos: crear una aplicación basada puramente en la web, crear una aplicación nativa o bien apostar por una aplicación híbrida. A continuación veremos las ventajas e inconvenientes de cada una de ellas.
4.4.1.Aplicaciones web
Las aplicaciones web (web apps) están programadas para funcionar sobre el navegador de internet del dispositivo. En el fondo, son como una página web que «imita» el comportamiento de una aplicación nativa. Se suelen programar usando HTML5, CSS3 y Javascript. Sobre este tema, cabe destacar los esfuerzos realizados por el World Wide Web Consortium (W3C) para estandarizar el lenguaje de la web y extenderlo a los dispositivos móviles, bien en forma de web móvil o, como en este caso, permitiendo el desarrollo de aplicaciones web.
Ventajas
Las aplicaciones web pueden ser fácilmente multiplataforma, puesto que al haber sido desarrolladas para funcionar en un navegador de internet, en principio se pueden ejecutar en cualquier dispositivo. Sus principales ventajas son:
  • Tienen un coste de desarrollo más bajo, puesto que el mismo código puede servir, con pequeñas modificaciones, para todos los sistemas operativos.

  • Basta con un buen programador web para desarrollarlas.

  • Las actualizaciones se pueden hacer de forma automática, sin necesidad de que el usuario se vuelva a descargar la aplicación.

  • Se pueden distribuir fuera de los mercados oficiales y evitar así las comisiones que cobran los gestores de los mercados (por ejemplo, Apple se lleva un 30 % de cada venta que se hace a través de la App Store).

Inconvenientes
En cuanto a los inconvenientes podemos destacar los siguientes:
  • Las interfaces suelen ser más pobres, con un diseño que tiene que ser válido para cualquier dispositivo.

  • Su funcionamiento es más lento, dado que consume más recursos del sistema.

  • Solo funcionan si hay conexión a internet.

  • Permiten un acceso muy limitado a las prestaciones del teléfono.

  • No permiten notificaciones push.

4.4.2.Aplicaciones nativas
Las aplicaciones nativas son aquellas que se han desarrollado en el lenguaje propio del sistema operativo usando el SDK (software development kit) correspondiente.
Ventajas
Podemos destacar las siguientes ventajas de las aplicaciones nativas:
  • Proporcionan pleno acceso a todas las funcionalidades del dispositivo: agenda, cámara, brújula, acelerómetro, giroscopio, etc.

  • Ofrecen un mejor rendimiento.

Inconvenientes
En cuanto a los inconvenientes, podemos destacar los siguientes:
  • Hacen falta programadores expertos para explotar al máximo las posibilidades del dispositivo.

  • Presentan un coste de desarrollo más elevado si queremos la misma aplicación en dos o más sistemas operativos, puesto que podremos reaprovechar muy poco del trabajo hecho.

4.4.3.Aplicaciones híbridas
Las aplicaciones híbridas tienen parte de su código escrito en HTML5, Javascript y CSS, pero dentro de un envoltorio de código nativo (container) que les permite tener acceso a todas las funcionalidades del dispositivo, como si se tratara de una aplicación nativa. Phonegap, Titanium o Xamarin son algunos de los frameworks que permiten desarrollar y compilar este tipo de aplicaciones.
En principio, las aplicaciones híbridas se quedan con lo mejor de ambos mundos: la «facilidad» de programación de la web y las prestaciones que da desarrollar bajo el paraguas del código nativo. Sin embargo, la realidad es un poco más dura: a menudo el rendimiento de las aplicaciones híbridas es mucho menor del deseado y su coste de desarrollo acaba resultando más elevado que una aplicación nativa.
Fuente: adaptado de Editing Native, HTML5, or hybrid: Understanding your mobile application development options (fecha de consulta: 21 de noviembre de 2016).
Fuente: adaptado de Editing Native, HTML5, or hybrid: Understanding your mobile application development options (fecha de consulta: 21 de noviembre de 2016).
Lectura complementaria

Sobre los diferentes enfoques a la hora de desarrollar una aplicación:

M. Korf; E. Oksman (2016). Editing Native, HTML5, or hybrid: Understanding your mobile application development options https://developer.salesforce.com/index.php?title=Native,_HTML5,_or_Hybrid:_Understanding_Your_Mobile_Application_Development_Options&oldid=51601. Salesforce Developers.

5.Televisores inteligentes, la nueva interfaz

Los teléfonos inteligentes son uno de los bienes electrónicos de consumo más populares, y también el centro neurálgico (hub) de un ecosistema construido sobre sistemas operativos en el que, como hemos visto, cada vez habitan más dispositivos: relojes, pulseras, gafas, etc.
Aunque hace ya algunos años que los televisores empezaron a volverse «inteligentes», es ahora cuando las Smart TV están empezando a transformarse en un producto de consumo masivo. Y aunque las diferencias entre un televisor y un smartphone u otro dispositivo móvil resultan evidentes, cabe esperar que los televisores inteligentes acaben convertidos en un miembro de pleno derecho más del ecosistema móvil.
Un dato significativo es que los principales fabricantes de televisores están equipando sus nuevos modelos con sistemas operativos que en su origen fueron diseñados para teléfonos inteligentes. Samsung, por ejemplo, usa Tizen; Panasonic anunció a principios de 2016 que seguiría usando Firefox OS tras ser abandonado por Mozilla, y Sony equipa sus televisores con Android TV, por citar solo algunos ejemplos.
Y de la misma manera que ha pasado con los teléfonos inteligentes, donde la elección del usuario por uno u otro sistema operativo se basa en los servicios y aplicaciones disponibles, no cuesta mucho imaginar un futuro donde lo importante ya no será tanto el fabricante del televisor, sino su sistema operativo y qué aplicaciones tiene disponibles.

5.1.Diferencias de uso entre un teléfono inteligente y un televisor

Al margen de obviedades como su tamaño o que un televisor no es un dispositivo móvil, una diferencia fundamental entre ambos aparatos está en la actitud del usuario cuando los utiliza, factor que como hemos visto en estos materiales condiciona –y mucho– cómo tenemos que diseñar sus aplicaciones.

Teléfono inteligente

Televisor inteligente

Usuario

Un solo usuario

Uno o varios usuarios

Objetivos

Trabajo, ocio, consulta de información

Ocio, información

Actitud

Orientada a objetivos

Actitud pasiva, relajada

Lugar, postura

En cualquier momento, postura y lugar. El teléfono está en la mano

En casa, sentado en una silla o sofá. El usuario está lejos de la pantalla

Navegación

Pantalla táctil. El usuario «toca» el contenido

Mando a distancia. En ocasiones, un teclado inalámbrico

Interfaz para televisión de la aplicación Netflix
Fuente: netflix.com
Fuente: netflix.com

Bibliografía

ACM SIGCHI (1996). Curricula for Human-Computer Interaction [en línea]. <http://www.acm.org/sigchi/cdg/cdg2.html>.
AndroidPit (2016). ¿Qué es la fragmentación y cómo te afecta? [en línea]. [Fecha de consulta: 24 de noviembre de 2016]. <http://www.androidpit.es/fragmentacion-que-es>.
Apple. tvOS Human Interface Guidelines [en línea]. <https://developer.apple.com/tvos/human-interface-guidelines/overview/>.
Apple. watchOS Human Interface Guidelines [en línea]. <https://developer.apple.com/watchos/human-interface-guidelines/>.
Association for Computing Machinery. <https://www.acm.org/>.
Budiu, R. (2015, 19 de abril). «Mobile User Experience: Limitations and Strengths» [en línea]. Nielsen Norman Group. [Fecha de consulta: 27 de noviembre de 2016]. <https://www.nngroup.com/articles/mobile-ux/>.
Cooper, A. (1999). The inmates are running the asylum. Indianápolis: Sams.
Cooper, A.; Reimann, R.; Cronin D. (2007). About Face 3. The Essentials of Interaction Design. Indianápolis: Wiley Publishing.
Designer Daily (2012). Analyzing mobile vs desktop user behaviour [en línea]. [Fecha de consulta: 18 de noviembre de 2016]. <http://www.designer-daily.com/analyzing-mobile-vs-desktop-user-behavior-29380>.
Don Norman. Designing for People [en línea]. <http://www.jnd.org/>.
Fling, B. (2009). Mobile design and development. Sebastopol: O’Reilly.
Garreta, M.; Mor, E. (2011). Disseny centrat en l’usuari. Barcelona: Fundació per a la Universitat Oberta de Catalunya.
Google. Material Design [en línea]. <https://material.google.com/>.
Google. Android TV [en línea]. <https://developer.android.com/tv/index.html?hl=es>.
Harley, A. (2015). Personas make users memorable for product team members [en línea]. [Fecha de consulta: 24 noviembre de 2016]. <http://www.nngroup.com/articles/persona/>.
IDC (2016). IDC Forecasts Wearables Shipments to Reach 213.6 Million Units Worldwide in 2020 with Watches and Wristbands Driving Volume While Clothing and Eyewear Gain Traction [en línea]. [Fecha de consulta: 18 de noviembre de 2016]. <https://www.idc.com/getdoc.jsp?containerId=prUS41530816>.
Korf, M.; Oksman, E. (2016). Editing Native, HTML5, or hybrid: Understanding your mobile application development options [en línea]. Salesforce Developers. [Fecha de consulta: 21 de noviembre de 2016].
Monjo, A. (2011). Diseño web y de interfaces multimedia. Barcelona: Fundació per a la Universitat Oberta de Catalunya.
Myers, B. A. (1996). A brief history of Human Computer Interaction Technology [en línea]. Pittsburgh: Carnegie Mellon University School. [Fecha de consulta: 24 noviembre de 2016]. <https://www.cs.cmu.edu/~amulet/papers/uihistory.tr.html>.
Norman, D. A. (1988). The Design of Everyday Things. Nueva York: Doubleday.
Norman, D. A.; Draper, S. W. (1986). User Centered System Design. New Perspectives on Human-Computer Interaction. Nueva Jersey: Lawrence Erlbaum Associates.
Nielsen, J. (1993, 1 de noviembre). «Iterative User Interface Design» [en línea]. Nielsen Norman Group. <http://www.nngroup.com/articles/iterative-design/>.
Nielsen, J. (1995). Multimedia and Hypertext: The Internet and Beyond [en línea]. Boston: Morgan Kaufmann Publishers. [Fecha de consulta: 24 noviembre de 2016]. <https://www.nngroup.com/articles/hypertext-history/>.
Preece, J.; Sharp, H.; Rogers, Y. (2015). Interaction Design. Beyond human-computer interaction. West Sussex: John Wiley & Sons.
Statista (2016). Number of smartphone users worldwide [en línea]. [Fecha de consulta: 18 de noviembre de 2016]. <https://www.statista.com/statistics/330695/number-of-smartphone-users-worldwide/>.
The Verge (2016, 6 de enero). Mozilla and Panasonic’s new smart TVs show Firefox OS isn’t dead yet [en línea]. [Fecha de consulta: 21 de noviembre de 2016]. <http://www.theverge.com/2016/1/6/10722448/mozilla-firefoxos-panasonic-smart-tvs>.
Usability Net (2006). Methods Table [en línea]. [Fecha de consulta: 24 noviembre de 2016]. <http://www.usabilitynet.org/tools/methods.htm>.
UXmatters (2011). 10 ways mobile sites are different from desktop sites [en línea]. [Fecha de consulta: 18 de noviembre de 2016]. <http://www.uxmatters.com/mt/archives/2011/03/10-ways-mobile-sites-are-different-from-desktop-web-sites.php>.