Data city

  • Valérie Peugeot

    Vicepresidenta del Consejo Nacional Digital de Francia, en el que coordinó en 2013 el informe sobre temas de inclusión y la ciudadanía en una sociedad Digital, y en 2015, la elaboración de recomendaciones sobre las cuestiones de los datos y la gobernanza en el marco del diálogo nacional para la futura legislación digital. Trabaja en Orange Labs I + D de Orange, donde está a cargo de las cuestiones de prospectiva en el laboratorio de ciencias humanas y sociales. También preside la asociación Vecam, que pone en debate temas políticos y sociales relacionados con la cuestión digital.

  • José María Subero Munilla

    Doctor ingeniero de Caminos en Infraestructuras del Transporte y Territorio por la Universidad Politécnica de Cataluña y máster en Gestión Pública por la Universidad de Zaragoza. En la actualidad desempeña el puesto de asesor técnico en Nuevas Tecnologías del Gobierno de Aragón coordinando el proyecto Aragón Open Data. Ha desempeñado los puestos de jefe de sección de estudios territoriales y técnico en el Consejo de Urbanismo de Zaragoza dentro del Gobierno de Aragón. Además ha realizado trabajos de dirección y jefatura de obra en el Grupo Aransa, trabajos como freelance y ha pertenecido al Grupo de Investigación de Decisión Multicriterio de la Universida de Zaragoza. En la UOC es profesor de “Transporte y movilidad sostenible” en los programas de Ciudad y Urbanismo y ha sido profesor del curso de “Territorio e infraestructuras” del máster de Gestión de la Ciudad.

  • Marta Continente Gonzalo

    Licenciada en Ciencias Económicas y Empresariales (UB). Responsable de Smart Cities del Área Metropolitana de Barcelona y creadora de redes de profesionales de innovadores y de alto rendimiento en la creación de valor público mediante las TIC. Tiene más de 35 años de experiencia en el sector de las administraciones públicas - ha sido directora general de Atención Ciutadana; secretaria de Telecomunicacions i Societat de la Informació i Consell del CTTI, Generalitat de Cataluña; directora de Internet del Ayuntamiento de Barcelona; asesora ejecutiva del ministro de Cultura, Administración General del Estado; adjunta a la Gerencia del Instituto de Cultura de Barcelona, Ayuntamiento de Barcelona. Ha impulsado los proyectos Open Data de la Generalitat de Catalunya, del Ayuntamiento de Barcelona y del Área Metropolitana de Barcelona. Su pasión es trabajar por la mejora de los servicios públicos y la conectividad de los ciudadanos, Internet, Open Data y en la construcción de ciudades más inteligentes. En la UOC es profesora de “Innovación en la gestión de la ciudad” de los programas de Ciudad y urbanismo.

PID_00226786
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

1.¿Colaborativa o inteligente? La ciudad entre dos imaginarios

La ciudad ha sido, desde la Edad Media, lugar de convergencia de las andanzas de unos y los sueños de otros, caldero de las transformaciones sociales, crisol de las revoluciones políticas y fábrica de los futuros. Historias que forman parte y que definen la fisonomía de las ciudades, modeladas tanto por sus formas de gobierno como por los flujos sociales que la tejen.
Walter Benjamin, el filósofo alemán, afirma justamente esto en Le libre des passages (Benjamin, 1934), su obra seminal dedicada a los pasajes cubiertos de París, a través de los que se lee la historia del siglo xix. Estos pasajes, construidos durante un corto periodo, entre 1820 y 1840, marcaron un punto de inflexión en la historia urbana, abriendo brechas nocturnas protegidas y luminosas en una ciudad oscura y peligrosa hasta entonces, y trazando el camino para lo que sería un futuro mercado en forma de galerías, que acogería también escenas teatrales de la época. Un siglo más tarde, Walter Benjamin realizó un análisis estético-político vinculando

“diferentes sistemas de pensamiento que dan lugar a la organización del urbanismo, los diseños de las calles y la disposición de las viviendas y el comercio, la lucha social y política, la contrarrevolución, el auge y caída anunciada de la burguesía” (Behnam, 2011).

Bemjamin también recuerda la estrecha relación entre la innovación urbana y la situación económica, y destaca la función que desempeñan la técnica y la industria en los cambios de actitudes y comportamientos.

1.1.La demografía como elemento determinante

Aunque no tenemos la misma perspectiva para descifrar la ciudad de este principio del siglo xxi, podemos comenzar a identificar los actores y las dimensiones técnicas, sociales e ideológicas que a partir de ahora contribuyen a darle forma.
La cuestión demográfica se concibe como especialmente determinante. Desde 2011, por primera vez en la historia, la mitad de la población mundial vive ya en ciudades. Las Naciones Unidas predicen que en las próximas dos décadas, 1,5 millones de personas más deberán ser acogidas por las ciudades, es decir, que habrá cinco mil millones de urbanitas de un total de ocho mil trescientos millones de habitantes.
Este fenómeno de urbanización galopante afecta a todos los continentes. Mientras que en la actualidad Asia, especialmente la India y China, está experimentando las tasas de crecimiento más elevadas, África no es inmune al fenómeno y ahora dispone ya de ciudades tentaculares como El Cairo, Lagos o Kinshasa. Europa y América del Norte ya están muy urbanizadas y, sin embargo, siguen creciendo de forma progresiva.
Esta evolución radical plantea una serie de cuestiones que afectan a la ciudad, así como al territorio que la rodea:
  • ¿Dónde se asentarán estas nuevas poblaciones?

  • ¿Cómo encontrarán una fuente de ingresos?

  • ¿Cómo hay que modificar las infraestructuras de transporte cuando las ciudades se extienden cada vez más?

  • ¿Qué efectos sobre el medio ambiente del país tiene la construcción, al provocar un aumento de la deforestación, que a su vez contribuye al crecimiento de las emisiones de CO2 y a la disminución de la biodiversidad (Seto y otros, 2012)?

  • ¿Las ciudades van a “secar”, desde el punto de vista económico y ambiental, el interior del país, atrayendo a más personas “contratables” que se aprovecharán de los bosques y de las materias primas agrícolas, y que consumirán agua u enterrarán sus residuos?

  • ¿Cómo se puede pensar en una política urbana cuando cada día hay miles de personas que migran?

A modo de ejemplo, en cien años, París pasó de quinientos mil a cinco millones de habitantes; Lagos solo necesitó cuarenta años.
Estas preguntas, que surgen de manera exacerbada en países en vías de desarrollo y emergentes, no alejan del punto de mira sin embargo a las ciudades denominadas como “desarrolladas”. Ciudades desindustrializadas, ciudades gueto, ciudades hipercontaminadas, ciudades inmovilizadas por los desplazamientos diarios de sus habitantes, ciudades en crisis... Hay mucho en juego, hasta el punto de que algunos expertos, como el físico Geoffrey West, piensan que el ritmo de la innovación en la ciudad occidental y su propia capacidad de transformación pueden provocar que no sea capaz de absorber los problemas crecientes a los que se enfrenta.
A la vista de esta constante necesidad de reinventar la ciudad, nos encontramos con dos imaginarios emergentes ante nuestros ojos: uno dirigido originalmente por los grandes actores de las TIC (tecnologías de la información y la comunicación), unidos por representantes elegidos, que promueve el modelo de ciudad inteligente o smart city; y el otro, que interconecta los movimientos de los ciudadanos con los de las empresas de la red (empresas web), que defiende una ciudad colaborativa. En ambos casos las tecnologías desempeñan una función central y contribuyen a dar forma a este imaginario.

1.2.La smart city al rescate de la ciudad

Ante un futuro complejo, por no denominarlo angustiante, apareció ya a mediados de la década del 2000 una idea que parece reconfortante, la de smart city o ciudad inteligente. Este concepto, tal como aparece en la literatura de los agentes que la promocionan, pretende ser tanto un conjunto de promesas positivas para el futuro de la ciudad como un grupo de soluciones basadas en las técnicas.
Por técnicas nos referimos tanto al transporte, como a la energía y las TIC. Pero estas últimas son las que constituyen la piedra angular de todo el conjunto. Se encuentran anidadas en las redes energéticas, que les permiten convertirse en bidireccionales, es decir, tener en cuenta el consumo en tiempo real para ajustar la producción y optimizar el funcionamiento de las redes, que es lo que se denomina smart grid o red inteligente. Asociadas con el transporte, estas técnicas también se utilizan para enviar información a los usuarios a tiempo real, confiriéndole así a la ciudad una forma de reflexividad. De manera más general, hemos visto ya la construcción de un conjunto de sensores distribuidos por el tejido urbano, de objetos conectados, que pueden “hacer hablar a la ciudad” para recoger una información masiva que luego se pueda almacenar en una nube de datos, en la que pueden basarse los profesionales que dirigen los servicios públicos y, de una manera más general, los que gobiernan la ciudad. Los datos son, de hecho, el corazón de esta ciudad inteligente.
Más allá de las técnicas, las promesas asociadas a la smart city son complejas de descifrar y trazan diferentes imaginarios, dado que varían mucho según los actores implicados. Forjada por algunos de los principales actores de las TIC, con IBM en cabeza, pero también con CISCO, Siemens, Schneider, Hitachi... con el tiempo se han extendido a la vez por diferentes entornos industriales, así como por el mundo de la política. Muchos electos o candidatos de las autoridades locales han visto en la ciudad inteligente una nueva oportunidad para su proyecto político local como herramienta de modernización de su discurso. Por lo tanto, ellos sin duda han contribuido a una forma de inflación de las ambiciones.

1.3.IBM, más smart que smart

Desde que la describió Anthony M. Townsend (Townsend, 2013), la empresa que ha desempeñado el papel más crucial en la aparición del concepto de ciudad inteligente es, sin duda, IBM. Nacido a mediados de la década del 2000, este término fue utilizado en 2008 por Sam Palmisano, CEO de la compañía, al hablar ante el Consejo de Asuntos Exteriores de Estados Unidos cuando lanzó la campaña de IBM denominada Smarter Planet. Según los líderes de IBM, el sector público constituye un mercado sin explotar con un fuerte potencial de crecimiento, ya que la aplicación de herramientas diseñadas para el sector privado podría aportar una ganancia sustancial en términos de eficiencia. En 2010, la compañía lanzó el Smarter Cities Challenge (El reto de las ciudades más inteligentes), con el que inteligentemente puso a disposición de las autoridades locales a sus equipos de consultores, que se enfrentaron con las distintas realidades de las ciudades y sus dificultades, y adquirieron así habilidades sin precedentes para tratar cuestiones urbanas. Más de dos mil ciudades se adhirieron a este programa. Más tarde, en 2011, IBM lanzó su solución denominada Intelligent Operations Center for Smarter Cities (Centro de operaciones inteligentes para unas ciudades más inteligentes), un centro de control para los ayuntamientos, que pretende reunir toda la información disponible de la ciudad para analizarla y poder anticipar las reacciones del sistema urbano ante una situación de cambio.
Río de Janeiro fue la primera ciudad que adquirió este centro de control inicialmente diseñado para predecir lluvias, fuente de catástrofes humanas en las favelas, y que se ha convertido con gran rapidez en una herramienta de control de toda la ciudad.
Los discursos adoptados por la compañía en su programa son sintomáticos de sus ambiciones. En un informe publicado en 2009, bajo el título superlativo de A vision of smarter cities, How cities can lead the way into a prosperous and sustainable future (Una visión de las ciudades más inteligentes, ¿cómo pueden las ciudades abrirse camino hacia un futuro próspero y sostenible?), pretende movilizar las tecnologías para romper los silos que caracterizan a la Administración, reducir la criminalidad, disminuir las congestiones de tráfico, proporcionar a personas y empresas la información sobre su consumo de agua, aliviar la carga administrativa de las empresas, etc.
Como se demuestra en su sitio web, IBM ha profundizado en su visión de la smart(er) city, con once líneas de acción principales que se corresponden en su mayoría a los servicios históricos que fueron públicos en el pasado: educación, tráfico, aeropuertos, ferrocarriles, energía y utilidades, servicios sociales, seguridad pública, venta al por menor, comunicaciones, desarrollo económico, salud. En otras palabras, la ciudad inteligente es, ante todo y como describe Daniel Kaplan (Kaplan, 2012), una ciudad basada en los servicios, es decir, una ciudad que se consume más que una ciudad que se vive.
Esta visión no deja de lado el orden soñado por el plan de Le Corbusier (Le Corbusier, 1923), ni tampoco el diseño de una Brasilia tal y como la imaginaron hace ya más de cincuenta años Lucio Costa y Oscar Niemeyer. Pero en vez de ser el urbanista quien traza los contornos, son los ingenieros del sector de la información.
La visión más radical del enfoque de una ciudad de control centralizado, y que podría llamarse panóptico (Latour y Hermant, 1998), es sin duda la que vemos emerger en algunas nuevas ciudades, como Masdar en los Emiratos Árabes Unidos o Songdo en Corea. Songdo pretende ser el prototipo de ciudad ubicua: los cables pasan por todos los sótanos para crear una ciudad hiperconectada, con dispositivos de telepresencia que permiten consultar a un médico o realizar un curso sin salir de casa, con cámaras de seguridad dispuestas en las cuatro esquinas de los cruces, con edificios equipados con lectores de matrículas de automóvil, etc.

1.4.La ciudad ascendente, distribuida y colaborativa

Ante este patrón de hipercontrol diseñado por los ingenieros, emerge otra figura: la de la ciudad coproducida por sus habitantes, la ciudad participativa, sostenible porque es frugal y está enriquecida con nuevas sociabilidades y nuevas experiencias en P2P; la ciudad pensada como una comuna que todos deben cuidar.
A diferencia de la anterior, esta proyección de la ciudad no es el resultado de un solo tipo de agentes homogéneos –las industrias de TIC–, sino de una multiplicidad de iniciativas en las diferentes comunidades. En un modo no exhaustivo identificamos cuatro agentes que desempeñan un papel preponderante:
  • los actores de las “ciudades en transición”,

  • las empresas de consumo colaborativo,

  • los terceros lugares y

  • los commoners.

El movimiento de Transición nació en 2006 en Gran Bretaña, en la pequeña ciudad de Totnes, inspirado en una primera experiencia llevada a cabo en Irlanda, en la ciudad de Kinsale, por el profesor de permacultura Rob Hopkins, una experiencia que teorizó en su obra Transition Handbook, publicada en 2008. Este movimiento tiene como objetivo hacer ciudades resilientes, preparándolas para la era del pospetróleo, para que sean menos vulnerables a las crisis ecológicas, energéticas y económicas. La aproximación de las ciudades y territorios (la idea se extendió a las comunidades rurales) en transición está profundamente distribuida: cada pueblo debe inventar acciones comunitarias apropiadas a la naturaleza específica de su territorio, inspirándose en el marco de coherencia proporcionado por la red de otras ciudades. Acciones concretas en este sentido pueden traducirse en la creación de una moneda local, el desarrollo de una agricultura urbana y unos circuitos cortos, la promoción de modos de transporte “suave”, el hábitat compartido o el uso de materiales sostenibles en la construcción. Estas iniciativas resultan realmente positivas, al utilizar la crisis del medio ambiente como una oportunidad para la transformación social, y al tratar de involucrar a todos los actores que forman la ciudad (asociaciones, empresas, residentes, autoridades locales...) para conseguir a su vez una aproximación lo más inclusiva posible. Actualmente cerca de quinientas ciudades forman parte de este plan de acción.
Por su parte, aunque no todas pretenden participar en el rediseño de la ciudad y en su desarrollo, muchas empresas de consumo colaborativo afirman que trabajan para conseguir una ciudad más sostenible, tejida con nuevas sociabilidades hiperlocales o interculturales, fomentando nuevas actividades económicas en el territorio y participando en la prestación de ingresos alternativos a los habitantes más afectados por la crisis económica. Basadas en una plataforma digital en línea, organizando intercambios comerciales o no entre particulares, estas empresas también forman parte de una lógica distribuida: en efecto, dichas empresas hacen desaparecer a los actores de un sector, más o menos concentrado, que tradicionalmente hacían de intermediarios, y sustituyen así a muchos coproductores de un bien o un servicio.
AirBnB, por ejemplo, proporciona una alternativa a la hostelería tradicional y permite llevar a los turistas a las zonas donde, de lo contrario, no habrían llegado, y que de esta manera dejen ingresos a los arrendadores y comerciantes del barrio, ingresos que de no ser así habrían sido improbables; PeerBy, en Holanda, organiza el alquiler de material (desde una hervidora de arroz hasta un hinchador para la bicicleta) entre vecinos, con el fin de hacer crecer la tasa de uso de los objetos infrautilizados y crear sociabilidades de proximidad; en Francia, Drivy organiza alquileres de coches entre particulares y Blablacar organiza viajes en coche compartidos, en ambos casos con la intención de reducir las dinámicas de compra en beneficio las dinámicas de compartición.
Los terceros lugares, asociados a la economía colaborativa, así como el consumo que recibe el mismo nombre, incluye espacios en ciudades que funcionan como sitios donde compartir recursos y como lugares de coconstrucción de recursos. De esta manera, los espacios de coworking son oficinas que permiten a las nuevas generaciones de trabajadores por cuenta propia y/o nómadas hallar unas condiciones de trabajo de calidad y no sentirse tan solitarios. Otro tipo de terceros lugares, los fab labs, son lugares equipados tanto con tecnologías tradicionales como con las más nuevas (desde un destornillador hasta una impresora 3D), que permiten a sus usuarios reparar, inventar, crear y desarrollar una habilidad perdida en la sociedad de consumo, la del DIY o hazlo tú mismo, más allá del simple bricolaje. Los hackerspaces son una especie de laboratorios ciudadanos que reúnen a personas que tienen un gran interés no solo por la informática y la tecnología, sino también por el arte, la ciencia... y donde acuden para intercambiar y compartir recursos y conocimientos. En general, se fundamentan en las tecnologías libres (software o hardware). Algunos desarrollan proyectos que tienen como objetivo contribuir a la transformación de la ciudad por parte de sus habitantes, como hace el Medialab-Prado en Madrid, donde se desarrolló, por ejemplo, el Data Citizen Driven City (DCDcity): proporciona a las redes de ciudadanos unos receptores a tiempo real y otras herramientas que permiten recopilar información acerca de su medio ambiente, en concreto, acerca de la calidad del aire, y poder compartirla.
DCDcity está asociada, desde 2012, a otras comunidades urbanas que comparten sus datos de calidad del aire, en Ámsterdam, Londres y Nueva York. También cabe mencionar unos lugares que recuerdan a unas incubadoras empresariales, pero que se dedican al desarrollo de proyectos de innovación social, es decir, proyectos que buscan dar respuesta a un problema colectivo, que ni el poder público ni el mercado han podido solucionar, como La Ruche, en París.
Por último, hay un cuarto grupo de actores, denominados con el anglicismo de commoners, que defiende la idea de ciudad como pensamiento común. Este enfoque tiene una ambición doble: económica y política. Económica, dado que se trata de imaginar que pueden convivir en la ciudad recursos de mercado, los recursos públicos, y recursos que van más allá de una propiedad clásica y que están cogestionados por una comunidad; política, ya que son las comunidades las que se imaginan y aplican modos de gobernanza que garanticen la protección y sostenibilidad del recurso. El proyecto Commons Josaphat es particularmente emblemático de esta aproximación. Esta región de Bruselas posee un enorme terreno de veinticuatro hectáreas (equivalente a treinta y dos campos de fútbol) en el lugar de la antigua estación de clasificación Josaphat, que quedó abandonada hace casi veinte años después de que se detuvieran los planes de habilitación. Un grupo de vecinos tiene la intención de decidir colectivamente el futuro del bien público para convertirlo en un bien común y no en un bien privado: que se convierta ya sea en viviendas, fincas urbanas, escuelas, espacios verdes... Los vecinos tratan de coproducir las especificaciones de las cargas alternativas, imaginando a la vez una economía contributiva para este espacio de gobernanza colectiva.
Ejemplo
Otro ejemplo, menos vinculado al urbanismo, es la red francófona alrededor de los bienes comunes, una red informal de personas que trabajan para desarrollar bienes comunes, que se puso en marcha en octubre de 2013, el festival Villes en biens communs, que pretende dar visibilidad a los esfuerzos de coconstrucción de la ciudad por sus habitantes y que propició, durante las municipales francesas, una serie de propositions diseñadas para desplegar las comunidades en y con los municipios.
Estas cuatro aproximaciones presentadas aquí de manera secuencial en realidad se entrecruzan entre ellas, y la cuestión ecológica las cruza prácticamente todas, en distintos grados más o menos fuertes. La tecnología también desempeña una función importante en todas, a veces de manera indirecta: las ciudades en transición se interesan prioritariamente por las tecnologías de producción de energías alternativas y por la permacultura concebida como una alternativa a la agricultura industrial y a las biotecnologías introducidas en las semillas; las plataformas de consumo colaborativo movilizan las tecnologías digitales para cambiar de escala las formas de intercambio históricas (las AMAP se convierten en “LaRucheQuiDitOui”, el autostop se convierte carpooling, y la hospitalidad familiar o amistosa se convierte en couchsurfing...) o para inventar nuevas formas (compartir coche); los terceros lugares a minima proporcionan acceso compartido a internet a la vez que funcionan como una caja de herramientas digital; los commoners utilizan las tecnologías digitales como herramienta de construcción de comunidades pero sobre todo observan cómo la información digital les facilita nuevas formas de intercambio, así como la difusión del conocimiento y la cultura, etc.
Sin embargo, no están exentas de controversia: los respectivos lugares comerciales y no comerciales, los códigos abiertos y los derechos de propiedad, la relación con la economía social y solidaria, la economía informal, así como los reglamentos y las directivas, son algunas de las cuestiones más delicadas.
Unas controversias que no les impiden compartir este tipo ideal de ciudad coproducida por todas sus partes interesadas: no se niega el papel de los actores privados y las autoridades públicas, pero se asocian a ellos los habitantes, con sus colectivos formales o informales, y como último horizonte en un poder más bien distribuido.

1.5.Control, eficiencia, reactividad, predictibilidad

Podemos afirmar que hay dos tipos ideales de ciudad: por un lado, la ciudad centralizada panóptica, una ciudad pensada como un metasistema, que exige, inevitablemente, la gestión a través de una especie de torre, el control de la arquitectura de la ciudad y los datos que circulan en ella, una city dashboard; y por el otro, la ciudad distribuida, con un poder distribuido, que permite aumentar la capacidad de sus habitantes, fomentando el poder colectivo de las comunidades (empowerment o empoderamiento), la resiliencia de toda la ciudad entera.
Obviamente, la realidad que se teje ante nuestros ojos es más híbrida, por varias razones.
En primer lugar, no todas las empresas quieren posicionarse en el modelo hipercentralizado, y algunas han comprendido la necesidad de volver a involucrar a los ciudadanos en el futuro de su ciudad. Estas tienden a pensar en la ciudad inteligente más bien como un framework o marco abierto, a través del cual circula un lenguaje común y se comparten datos, pero que tiene grandes iniciativas en cuanto a su diversidad y se basa en las necesidades de los ciudadanos, un enfoque que sería más “ciudadano-céntrica”, en palabras de Carlos Moreno, asesor científico del presidente de Cofely Ineo, una filial del grupo GDF Suez. Este es el discurso que adopta, por ejemplo, el City Protocol Society, una comunidad que reúne a las autoridades locales, empresas, investigadores y otros actores involucrados en la transformación de la ciudad (como los living labs). Esta comunidad promueve el aprendizaje de ciudad a ciudad en materia de innovación urbana, y el intercambio de conocimientos entre los actores de la ciudad para acelerar su transformación.
En segundo lugar, cuando se observan las prácticas de los municipios, las ciudades inteligentes ya en vigor o en preparación, como las que hemos podido observar a través de los sitios web de una treintena de casos de usos, dibujan realidades muy diversas. No obstante, hemos detectado tres tendencias convergentes:
  • La primera se refiere a la dimensión participativa de la ciudad. Cuando el municipio tiene la intención de incluir un componente de profundización democrática y de involucración de la ciudadanía en su proyecto, se traduce a menudo en un esfuerzo de transparencia (se ponen en forma de open data, es decir, se hacen públicos los datos presupuestarios, datos sobre criminalidad y otros), pero rara vez se permite a los ciudadanos involucrarse en lo que sería una gobernanza urbana “aumentada”, es decir, con capacidad para involucrarse estrechamente en el diseño y la elección de las políticas públicas.

  • La segunda observación se refiere a cómo las autoridades locales perciben su ciudad: inspirada por el mundo económico, los municipios que aplican un enfoque de tipo smart city primero piensan en su ciudad en competencia con las demás, en lo que se denominarían “ciudades mundo” (Braudel, 1979) o “ciudades globales” (Sassen, 1991). Así, buscan ser altamente ahorradoras en servicios públicos –deben hacer más con menos– y altamente competitivas a la vez: necesitan tener un elevado rendimiento para atraer el capital cultural (Florida, 2002) y los recursos creativos que les permitan permanecer en el círculo elitista de las ciudades mundos. Y esto implica implícitamente que las recetas uniformes, las de la ciudad inteligente, se aplican a las ciudades ignorando sus especificidades, su historia y sus culturas. Sin embargo, como recuerda Dan Hill, director ejecutivo de Future Cities Catapult, un centro de innovación urbana con sede en Londres, “consiste en un conjunto completamente diferente de estructuras sociales, métodos de gobierno, patrones de la vida y de trabajo, y culturas de toma de decisiones”.

  • Finalmente, la última tendencia convergente es que los objetivos perseguidos por estas ciudades inteligentes giran en torno a tres conjuntos. El primero se inscribe en un ascenso en la potencia de las lógicas de control, tanto de determinados comportamientos humanos (violaciones de la legislación, delincuencia, etc.) como del medio entorno urbano. En este caso, se da un ejemplo típico de lo que Bruno Latour llama la “delegación de la moralidad” a la tecnología (Latour, 2006). El poder de control se transfiere de los seres humanos (inspectores sanitarios, inspectores de la construcción, etc.) hacia el procesamiento en tiempo real de esta big data procedente de los receptores.

El segundo se refiere a una visión técnico-económica de una ciudad ágil, a la vez que eficaz y sensible. Gracias a los datos recogidos, los habitantes tienen un mejor acceso a la información que necesitan a la hora de utilizar los servicios públicos y las infraestructuras públicas y pueden darle un mejor uso, y el gobierno también puede orientar mejor sus intervenciones (extracción de nieves, reparación del pavimento, etc.) y escuchar mejor a la ciudadanía, ya que esta tiene mucho que decir, al tener acceso a los datos de las redes sociales. Todo a un coste menor. El tercero se centra en una capacidad de predicción a partir de los datos de la ciudad: los actores públicos esperan anticipar la movilidad masiva, las condiciones meteorológicas, las averías o los funcionamientos deficientes... y obtener así de nuevo un incremento en eficacia y en economía de los servicios públicos. Como ilustración de la intersección de estos tres objetivos, la Oficina de Planificación Estratégica y Política de la Ciudad de Nueva York tiene un equipo de analistas de datos dedicado al descifrado de los datos de la ciudad. Esto le permite, entre otros, identificar con rapidez qué restaurantes tiran ilegalmente sus aceites por las alcantarillas de la ciudad, localizar tiendas de venta ilegal de cigarrillos, retirar con más velocidad los árboles abatidos por el huracán Sandy, identificar los edificios con mayor riesgo de incendio, observar qué calles son más seguras cuando las tiendas mantienen sus puertas abiertas hasta el atardecer...
De manera más global, se observan unas expectativas muy altas de los actores en términos de reflexividad; el control a través de los datos en teoría es socialmente más eficiente que el ejercido por los seres humanos: los propietarios de pisos que funcionan como camas caliente dejarán de esconder a inmigrantes porque sus casas serán identificadas, los peatones saldrán de sus hogares durante las horas con menor contaminación aérea, los conductores optarán por carreteras con menos tráfico, etc. Nada se dice sobre la forma de medir esta reflexividad ni sobre sus efectos colaterales inducidos, positivos o negativos: ¿si la conducción es más fluida habrá más personas se utilicen el coche?, ¿si los propietarios de inmuebles que abusan de indocumentados se penalizan de forma masiva, los centros de acogida podrán hacer frente a una repentina afluencia de gente que se ha quedado sin techo?, etc.
En esta primera visión general sobre proyectos de la ciudad, solo podemos observar la gran zona de incertidumbre en cuanto al futuro de esta maraña tecnosocial que constituye la ciudad del futuro: no hay indicación sobre si la balanza se inclinará hacia el control y la centralidad o hacia la participación y distribución. La historia moderna de las relaciones de la ciudad con la tecnología nos muestra retrocesos recurrentes.

1.6.Ciudad y técnica: una larga historia de controversias

En efecto, en la historia de la ciudad occidental, la aparición de nuevas tecnologías, a intervalos regulares, ha planteado controversias sobre el proyecto de convivencia, con una tensión entre la centralización y la distribución como motivo recurrente. La electricidad y el coche nos proporcionan dos ejemplos evidentes de esto.
A finales del siglo xix, la máquina de vapor estructuró el desarrollo de la primera revolución industrial. Al no poder miniaturizarse, su uso requirió la concentración de trabajadores en un solo lugar; las fábricas se multiplicaron por Inglaterra a finales del siglo xviii y por el resto de Europa durante el siglo xix, lo que llevó a una gran migración del campo a la ciudad y a la acumulación importante de población en torno a grandes ciudades como Mánchester o Londres, en las condiciones de miseria que ya conocemos. La llegada del motor eléctrico, limpio, tranquilo y de un tamaño reconfigurable, y el despliegue de la red eléctrica que permitió el acceso a esta fuente de energía, fue como un disparo de salida de una fantasía utópica de una sociedad descentralizada, escapando así de la maldición de la concentración urbana.
Émile Zola, en su obra Trabajo, publicada en 1901, imagina una transformación radical del trabajo a través de unos talleres limpios, silenciosos y luminosos (Flichy, 2003), y Peter Kropotkin, el famoso anarquista ruso, cree que la electricidad permitirá realizar su sueño de conseguir comunidades autónomas, autogestionadas y autosuficientes. Ambos son en realidad dos imaginarios bastante contrarios: una visión libertaria de una sociedad descentralizada en la que la producción está bajo el control de los productores, en unos talleres modernos y a escala humana, y una visión de una sociedad centralizada a través de redes –ferrocarriles, carreteras, telégrafos y teléfonos, electricidad– que permitiría a los estados y a las grandes empresas aumentar el poder de control y gestión. Sabemos lo que va a pasar: en vez del sueño de Proudhon, de volver a los talleres artesanales, la electricidad permitió el desarrollo de las grandes empresas a medida como conoceremos en el siglo xx (Cohen, 2006). Y el movimiento migratorio del campo a las ciudades no se detendría. En Francia, después de la supresión de la revolución de 1848, Luis Napoleón Bonaparte desarrolló grandes infraestructuras (ferrocarriles, puertos, etc.) e invitó al barón Haussman a redibujar París. No dudó en cortar la ciudad sin miramientos y en anexar los suburbios de la época, cazando así a las poblaciones más pobres del centro de la ciudad (Harvey, 2008).
A principios de los años cuarenta, el urbanista Robert Moses se inspiró explícitamente en la obra de Haussmann para rediseñar Nueva York, haciendo un cambio de escala. A través de una infraestructura vial y de construcciones periurbanas, toda la zona de la metrópolis fue objeto de una reingeniería, como analiza el geógrafo David Harvey (Harvey, 2008); un enfoque que luego se extendió a todas las principales ciudades de Estados Unidos. Esta reconfiguración se fundamenta en otra tecnología clave: el coche privado. Producto de lujo en un principio, se convirtió en un producto de masas en los años veinte con la construcción de las cadenas de montaje de Henry Ford en Detroit.
En seguida, la rápida expansión del parque de automóviles desencadenó una serie de problemas urbanos (alta mortalidad de los peatones, especialmente de los niños que anteriormente jugaban en las calles, congestión del tráfico, etc.). Más tarde, General Motors, soportada por un nuevo cuerpo de ingenieros de tráfico, desarrolló otro ideal de la modernidad, en el que el automóvil era el vector de la libertad y la clave para el futuro. En la Exposición Universal de 1939, General Motors presentó su visión de la ciudad de futuro, que quedó muy cerca de lo que es la realidad norteamericana: una ciudad construida alrededor de las carreteras, con unos suburbios difusos y grandes centros comerciales, una ciudad posible gracias a la adquisición de dos vehículos por hogar. En esta nueva imagen de la ciudad asociada con el periodo más emblemático de la sociedad de consumo, los protagonistas son los centros comerciales, que, como su nombre indica, proporcionan una dimensión centralizada en una ciudad-suburbio difusa y fragmentada. Mientras que los centros históricos de las ciudades se descuidaron y las pequeñas tiendas distribuidas en estos se cerraron, los centros comerciales se convirtieron en el punto focal y de regulación social por el consumo.
Pero las tecnologías de la información y la comunicación no son ni la electricidad ni el automóvil. En un intento de anticipar el futuro de la ciudad a la que contribuyen y contribuirán cada día un poco más estas tecnologías, es esencial hacer una visita a su propia historia, a las condiciones de producción y a los imaginarios que la acompañan.

1.7.El movimiento pendular de tecnologías de la información

En un principio, a finales del siglo xx se acreditó la idea de que la informática y, de modo más general, las tecnologías de la información y la comunicación habían seguido el camino exactamente opuesto al de la electricidad y que el modelo distribuido había ganado después de un vuelco en la estructura de las ciudades tan impredecible como radical.
De hecho, la informática se desarrolló después de la Segunda Guerra Mundial, en un principio para aplicaciones militares y después como parte de las grandes empresas, empezando por el sector bancario. Esta informática en seguida fue dominada por un actor, IBM –otra vez ella–, y se incorporó a las empresas siguiendo la lógica a medida que priorizaba la secuenciación y la especialización de tareas: analistas programadores, programadores y codificadores que “servían” a las máquinas proporcionando unas tarjetas perforadas a la “máquina del tiempo” que les habían asignado, una máquina del tiempo tan valiosa como cara.
El desarrollo del microprocesador en la década de los setenta permitiría cambiar radicalmente el punto de vista con el advenimiento de un microordenador conectado a la red que se convertiría en la actual internet, pero este cambio radical de perspectiva fue posible gracias al clima ideológico y a los movimientos sociales en los que se bañaban los científicos, diseñadores y empresarios que crearían el ordenador y la internet modernos. Precursores como Norbert Wiener, el inventor de la cibernética, y J. C. R Licklider, director de ARPAnet, el programa de investigación militar que financió los estudios que crearon internet, y también conocido por su artículo publicado en 1960 en el que abogó por la “simbiosis hombre-ordenador” (Licklider, 1960), ya pensaban en la tecnología como una forma de aumentar la capacidad de los seres humanos en lugar de tratarlos como simples herramientas al servicio de las máquinas y de las grandes empresas. Pero fue el movimiento de protesta de finales de los sesenta el que transformaría América y el resto del mundo por completo, y desafiaría el mundo con una visión a gran escala de la informática que ha prevalecido hasta ahora (Turner, 2012). Si solo pudiéramos retener un episodio de esta historia, sin duda sería la conferencia magistral de Douglas Engelbart en diciembre de 1968, cuando presentó el ordenador conectado a la red como una herramienta al servicio a las personas... Un nuevo modelo que IBM ha tardado más de diez años en aceptarlo, con el lanzamiento del programa de emergencia que creó el PC en 1981 y que ha dado forma a la red de internet tal y como la conocemos, soportándose en unos recursos compartidos y abiertos, tales como los protocolos TCP/IP y pensada como una comunidad, gracias al principio de neutralidad de la red (Schafer y El Crosnier, 2011). Después de empezar a funcionar durante los años noventa, la web se convirtió, a mediados de la década del 2000, en un medio contributivo, que asocia a usuarios en una coproducción de contenidos, dirigiéndose así aún más hacia el tipo ideal de distribución.
Los investigadores debaten si, como sugiere Philippe Breton, precursores como Norbert Wiener tenían en mente la visión de que una “máquina se comporta como el cerebro humano”, o si, como afirma Pablo Cerruzi, la mayoría de ellos fueron incapaces de predecir las aplicaciones que permitirían las máquinas. Pero todos coinciden en subrayar la importancia de la contracultura en el desarrollo de herramientas y aplicaciones que se convertirían en internet y en el ordenador personal. En contraste con la visión que surgió con el desarrollo de la electricidad, la fantasía libertaria parece haber superado la costosa informática centralizada de IBM...
Pero todavía no está todo dicho. En realidad, estamos siendo testigos de un cambio de tendencia asociada a los fenómenos de concentración de plataformas web. Constituidas en mercados bifaciales o incluso multifaciales, parecen jugar a dos bandas: por un lado, se aprovechan de la lógica inherente del sistema web para coproducir el valor apoyándose en la base de su ecosistema, tanto si está compuesto por empresarios y desarrolladores web, como en el caso de la tienda Apple Store, como si lo está de internautas, en el caso de YouTube, Google y sus colecciones de rastros. Por otro lado, aplican bloqueos tecnológicos y legales (a través de API, TOS, etc.) que les permiten centralizar este valor y mantener el control de este ecosistema que se ha vuelto dependiente. Esta concentración de poder se basa en una concentración de las infraestructuras físicas: los datos recogidos se almacenan en centros de servidores, que están en manos de unos pocos grandes actores industriales, que son en el siglo xxi homólogos a los grandes centros de cálculos de mediados del siglo xx.
La tensión sufrida por las tecnologías la información y la comunicación al permanecer entre dos lógicas puede explicar en parte las diferentes figuras de la ciudad fortificada por las tecnologías emergentes. Son las mismas tensiones que atraviesan el futuro de las técnicas y el futuro de las ciudades. Sin embargo, no sabríamos reducirlas la una con la otra y asumir que la persistencia de un universo de la información distribuida bastaría para inclinar la balanza de la ciudad hacia su modelo más horizontal y participativa. La historia nos muestra una vez más lo contrario.

1.8.¿Quién controla la data city?

De hecho, esta no es la primera vez que la informática irrumpe en la ciudad. El primer encuentro fallido entre urbanismo y tecnologías de la información se llevó a cabo a mediados de los años cincuenta, impulsado por las mismas personas que sentaron las bases de lo que se convertiría en la internet y la red web actual.
En Estados Unidos, durante la Guerra Fría, cibernéticos como Jay Forrester (Forrester 1969), inspirados en el trabajo de modelado informático realizado para el sector militar, ofrecieron un modelo de desarrollo genérico de la ciudad en Estados Unidos, que condujo a conclusiones ya debatidas por los urbanistas de la época (la destrucción de los barrios marginales y su sustitución por zonas residenciales y comerciales). Los pocos experimentos in vivo de la aplicación de estos modelos se quedaron cortos en seguida, como en el caso de Pittsburgh, o como en catástrofes como la Nueva York, donde el sistema recomendó cerrar las antenas de los bomberos más activas de la ciudad para confiar solo en el cálculo de los tiempos de respuesta, lo que llevó a que el fuego devastara todo el Bronx y los barrios cercanos. Después de esto, el divorcio entre urbanistas e ingenieros de sistemas dinámicos en Estados Unidos se consumó a principios de los años setenta, y hasta hace poco tiempo (Townsend, 2013).
Desde hace unos años se encuentra en el trabajo de los urbanistas una voluntad de apoderarse de los datos producidos por la ciudad para su investigación, como explica el famoso geógrafo y urbanista británico Michael Batty (Batty, 2013). En un artículo del 2013, cuestiona las implicaciones epistemológicas de la irrupción del big data en los campos de búsqueda que son suyos. Según él, los datos deberían permitir la generación de una nueva comprensión del funcionamiento de la ciudad, desplazando la observación hacia horizontes de corto plazo y favoreciendo la observación de los movimientos y de la movilidad en lugar de la observación del territorio. Batty lo ve como una oportunidad de comprender mejor el funcionamiento de la ciudad, generando nuevas interacciones sociales y tomando decisiones más informadas.
Pero volvamos a los contratiempos de los cibernéticos, que nos enseñan que incluso entonces los datos producidos en la ciudad habían sido pensados fuera de los usos de los habitantes de la ciudad, es decir, los ciudadanos, los bomberos o los urbanistas, en este caso. Y que, además, estas negaciones de usos y usuarios condenaron el dispositivo.
Esto nos lleva a pensar que la cuestión de la producción de la información, así como su almacenamiento, control y reutilización, se encontrará en el futuro corazón de la ciudad del mañana. La ciudad del mañana –se conozca como ciudad inteligente, de transición, colaborativa o en común– producirá cada vez más información, ya sean datos (cantidades de residuos domésticos, migración, herramientas de geolocalización, medición del impacto energético, etc.) o contenido (archivos de la ciudad, proyectos urbanos, etc.), hasta el punto de que parece más relevante y menos prescriptivo hablar de data city en lugar de smart city.
La socióloga Saskia Sassen afirma que las infraestructuras de la ciudad son accesibles siempre que los ciudadanos que las utilizan estén comprometidos con su ciudad. Estas infraestructuras han estado soterradas durante mucho tiempo. El agua, el gas, la electricidad, el alcantarillado, después el metro... han tejido las entrañas de la ciudad durante un siglo y medio. Sin embargo, las calles y las plazas han sido espacios esencialmente públicos, de intercambio y sociabilidad, equipados y densificados, bañados por la luz, que entra en ellos junto con la seguridad. Dos fenómenos contribuyen a sumir a la ciudad en el reino de lo invisible. Por un lado, la difusión de los sensores por las obras de arte, los bastidores, los objetos móviles e inmóviles que pueblan la ciudad, etc. Las infraestructuras no solo se han miniaturizado (la aparición de las NEM –nuevas entidades moleculares– y de los nanosensores ha acentuado el fenómeno), sino que además se han borrado y solo los que las han implementado o están capacitados para recibir su “voz de retorno” saben dónde están. Por otro lado, las redes sociales y servicios en línea añaden un nuevo espacio público informativo también invisible, que llevamos con nosotros a través de nuestros teléfonos móviles, en nuestros desplazamientos por la ciudad, una especie de “burbuja personal”, que el sociólogo Dominique Boulier denomina habitèle (identidad numérica móvil).
Un habitèle que, según él, cambia nuestra presencia en la ciudad y afecta a nuestra experiencia urbana.
¿Cómo puede la democracia urbana organizar esta doble invisibilidad? Nuestra hipótesis es que el intercambio de información por, para y sobre la ciudad es la piedra angular de la democracia de la era digital actual. Una participación en el sentido pleno, es decir, no solo de acceso, sino un derecho de reutilización. Una hipótesis que sin duda no deja de plantear muchas preguntas: la data city sería el resultado de una multiplicidad de datos de diferentes orígenes.
Como ya se ha comentado anteriormente, los datos de la ciudad hoy en día provienen de varias fuentes principales: del propio municipio, que, por supuesto, es el primer productor; de las empresas que prestan los servicio públicos (transporte y estacionamiento, en particular) o que gestionan las utilities (agua, energía, etc.) y que cada vez despliegan más dispositivos de comunicación (por ejemplo, sensores de aparcamiento en la calle, contadores, etc.), y de las personas, que también pueden producir dados de manera consciente y voluntaria (por ejemplo, la indicación por parte de los contribuyentes a los canales de bomberos de las ciudades en los mapas colectivos de OpenStreetMap), o en forma de rastros más o menos conscientes (geolocalización, intercambios en las redes sociales o en los servicios locales a través de plataformas en línea, registro de llamadas, etc.).
¿Hasta qué punto dichos datos pueden y deberían ser compartidos? Al amparo del movimiento de apertura de datos (open data), los datos de los municipios se extraen de su propósito original para ser compartidos con terceras partes, los ciudadanos y las empresas. Aunque el movimiento de apertura es lento, parece establecerse permanentemente en el tiempo; cada vez más las autoridades locales hacen uso de estos datos (Chignard, 2012). Los datos producidos por los residentes de manera voluntaria se vierten en plataformas colectivas que les garantizan por licencia el estatuto de un bien común: compartidos de manera voluntaria y asegurados a cambio de beneficiar al mayor número de personas. Ambas fuentes de datos compartidos forman parte de una aproximación más distribuida a la ciudad; su reutilización no es prerrogativa de sus productores, sino que está al alcance de todos.
Pero ¿qué sucede con los datos producidos por los dispositivos de comunicación instalados en objetos e infraestructuras físicas de la ciudad y los datos de rastros asociados a las sociabilidades o a la movilidad local? ¿Deben reservarse para un uso exclusivo de la empresa que los recoge y, si es necesario, del municipio? ¿Es posible que estos datos se puedan monetizar mediante la venta a terceros para otros fines? ¿No asistiríamos entonces a una forma de encierro de la información urbana, vector con las PPP (public private partnership, compañía pública privada) de una privatización de las ciudades, como sostiene la economista urbana Isabelle Serfaty-Baraudy (Baraudy-Serfaty, 2011)? ¿O bien deben también convertirse en datos abiertos, para que terceras partes, empezando por los ciudadanos, y también para pequeñas empresas emergentes e innovadores de todo tipo puedan apoderarse de estos datos con el fin de imaginar otros servicios? Y en este caso, ¿cuál es, para la empresa prestadora, el modelo de negocio asociado a la recopilación y el intercambio de datos? ¿Se podrían concebir regímenes mixtos, con datos fríos gratuitos y datos en tiempo real de pago, o sistemas de umbral? ¿O en su lugar, debemos dar la espalda a los mercados de datos y volver de nuevo a una economía basada en los servicios? ¿Podemos definir ontologías de datos que ab inito tendrían vocación de participar en las comunas?
Mientras las promesas de un nuevo el dorado económico poblado por grandes masas de datos van en aumento, y las industrias, sobre todo las que trabajan para la smart city, desarrollan sus modelos de negocio del mañana bajo esta hipótesis, es el momento de plantear colectivamente la cuestión de la utilización de la ciudad como se refleja en el espejo de sus datos. La ciudad aparece como una nueva área de inscripción de las tensiones que recorren la innovación del siglo xx, del modelo distribuido y ascendente frente al modelo centralizado, dos imaginarios diferentes que se entrecruzan en el diseño de la ciudad aumentada por sus tecnologías y sus datos. Esta tensión nos hace recordar los enfrentamientos anteriores que han marcado la historia del urbanismo moderno; que nos obligan a revisar la cuestión de la gobernanza de la ciudad a la luz de la producción, gestión y circulación de la información digital que se le atribuye. Los datos se encontrarán mañana en el corazón de los valores económico, social y cultural producidos por la ciudad. En este contexto, las condiciones de coproducción y distribución de este valor, por y para las empresas, las autoridades, la sociedad civil y los ciudadanos, se convierten una cuestión de poder. Fortalecer la democracia local consiste en asegurarse de que no hay un “maestro de datos”, público o privado, sino que esta riqueza de información circula entre todos los agentes que tejen la ciudad.

2.Los datos: el nuevo cemento de la ciudad del siglo xxi

Internet está vertebrando la convergencia tecnológica y facilitando la interconexión digital de diferentes dispositivos que utilizamos de manera cotidiana. Los dispositivos tecnológicos aumentan prestaciones y funcionalidades potenciando a su vez su capacidad de respuesta inteligente. Dispositivos, herramientas, vehículos, contenedores y electrodomésticos son algunas muestras del alcance de la conectividad basada en internet. Los sistemas de identificación por radiofrecuencia (RFID), entre otros, han permitido miniaturizar los medios de gestión de la información. La trazabilidad de los objetos muestra una tendencia imparable para conectar “cosas”. Cada vez más, la conexión se efectúa sin la intervención humana. La conexión de las cosas se realiza a partir de especificaciones y algoritmos tecnológicos que resuelven eficazmente la mayoría de las situaciones previstas. El objetivo de conectar a personas, con el que nació internet, está dejando paso a nuevos horizontes de grandes oportunidades.
Desde la aparición de los primeros teléfonos móviles, los ordenadores portátiles o últimamente la irrupción de la sensorización, la reducción de espacio ha facilitado la implementación de la tecnología en múltiples planos de nuestras vidas. Sensores, actuadores y elementos inteligentes nos aportan un nuevo alud de datos que debemos interpretar y gestionar. Facebook, por ejemplo, recibe trescientos cincuenta mil millones de datos cada día y en YouTube cien horas de vídeo son añadidas cada minuto. La dimensión de los datos ha explotado con el avance de la tecnología, y ha hecho de estos el cemento de la ciudad del siglo xxi.

2.1.El origen de los datos

La mejora en las capacidades de comunicación y de procesamiento de la información está permitiendo empezar a poner en valor los enormes volúmenes de datos que la propia mejora de la comunicación está produciendo.
Así, detrás de estas capacidades de comunicación se esconde el hecho de que cada dos años se está generando tanta información como la generada en todo el resto de la historia de la humanidad. El reto es manejar todos estos datos, generados en cantidades exponenciales, para que puedan ser útiles y no se convierta en un gran ruido digital que no permita extraer conocimiento de él. Por tanto, es necesario diseñar herramientas para manejar todos los datos que hoy en día existen y así comenzar la construcción de la pirámide DIKW (data → information → knowledge → wisdom), que es la base del modelo tradicional de generación de sabiduría en ciencias de la información.
Las principales fuentes de obtención de datos son las siguientes:
1) Internet of things (IoT) o internet de las cosas. Quizá sea la fuente más evidente de suministro de datos que existe en la actualidad. Se ha comentado con anterioridad que los objetos se pueden comunicar con otros objetos y que suministran datos valiosos para gestionar los sistemas.
2) Internet de las cosas en las personas. Esta nueva fuente de datos es algo menos clara o menos explícita, pero pasa por entender que las personas somos portadoras de sensores que se comunican. El gran sensor que todo el mundo porta es el teléfono móvil, aunque poco a poco se van incorporando al mercado otros wearables, como gafas, relojes o pulseras con capacidad de comunicación. En este caso una aplicación móvil puede emitir datos de nuestra posición de manera continua, el Bluetooth puede conectarse para mapear nuestros recorridos dentro de edificios o el WiFi puede estar emitiendo y recibiendo comunicaciones de sensores existentes dentro de las redes de transporte.
3) Datos públicos. La apertura de los datos públicos con la finalidad de que estos sean reutilizados por terceros como una nueva materia prima que alimenta la economía digital. Esta corriente se denomina open data o datos abiertos y puede proporcionar datos públicos para su uso por los particulares.
Open data: empoderamiento, cocreación y dinamización social
Open data es una filosofía y una práctica para que los datos sean de libre acceso para todos, reduciendo las limitaciones técnicas, las restricciones legales u otros mecanismos de control.
Su objetivo es el empoderamiento, la transparencia, la colaboración y la participación, dando acceso al conjunto de la ciudadanía, empresas e instituciones a los datos, lo que garantiza la igualdad de oportunidades para crear valor porque el acceso es igual y el mismo para todos los actores cuando se plantean crear aplicaciones o hacer negocios.
Para ello, fomentan desde el sector público:
  • la transparencia: consulta y tratamiento de los datos,

  • la eficiencia: posibilidad de crear nuevos servicios ciudadanos, también por organizaciones y empresas, y

  • que las licencias y los términos de uso de los datos abiertos estén sometidas a las leyes de reutilización de la información del sector público.

4) Datos personales públicos. En este caso las fuentes fundamentales de datos son las redes sociales. Es bastante evidente pero hay que señalar que cada vez que en una red social se publica un dato y se hace sin restricciones de privacidad este dato pasa a formar parte del conjunto de los datos digitales a los que pueden acceder terceros.
5) Datos privados. Los datos tienen un valor económico y la huella digital de las personas es bastante mayor de lo que se puede suponer. Este elemento ha sido comprendido por muchas empresas que comercian con datos personales. A la hora de hacer like o de suscribirse a los servicios digitales en muchas ocasiones se están cediendo los derechos sobre numerosos datos personales que luego las empresas intercambian para conocer mejor a sus usuarios. Así, en ocasiones se pueden comprar cualquiera de los datos anteriores sobre los que se ha hablado, si no se dispone de ellos.
6) Datos privados cedidos con fines concretos. En este caso un individuo puede ceder sus datos de manera consciente para obtener un mejor servicio o experiencia de usuario. De este modo, un usuario podría ceder sus datos para obtener contraprestaciones o recomendaciones.
Estas serían algunas de las principales fuentes de datos que, más allá de consideraciones de cualquier otra índole, hoy en día están disponibles para planificar y gestionar las ciudades. Seguramente existan otras fuentes de datos pero simplemente lo enumerado ya da idea del potencial de los nuevos datos que aporta la economía digital. La cantidad de datos, como se puede apreciar, es enorme y por ello necesitamos un nuevo elemento que permita que todo este maremágnum de datos resulte útil. Este elemento son nuevas herramientas para trabajar con estas fuentes de datos; en este caso podemos abordar dos formas complementarias que hay que trabajar para poder manejar esta información: herramientas de mejora de la interoperabilidad y herramientas para el procesamiento de la información.
Este doble juego de herramientas trabaja en serie, de modo que inicialmente se debe intentar proveer una información lo más interoperable posible, es decir, con una estructura lo más conocida y semejante entre fuentes de datos semejantes y, a partir de ahí, cuanto menos coherentes entre sí sean los datos con los que contamos, mayor capacidad de procesamiento necesitaremos para dotar a los resultados de coherencia y para poder obtener conocimiento de ellos.
El conjunto del aumento de datos con el aumento de la capacidad de procesamiento ha dado lugar, como veremos en el apartado siguiente, a lo que se ha denominado big data. Big data es una herramienta o una forma de trabajo, no es una finalidad en sí misma, ya que si no se sabe qué queremos obtener con la materia prima de los datos, de nada servirá tener a disposición de los proyectos toda la capacidad de procesamiento y almacenamiento del mundo.

2.2.Big data

En 1965, Gordon Moore, cofundador de Intel, predijo que el número de transistores en un ordenador se doblaría cada dos años. Eso es, que la capacidad de los ordenadores seguiría un crecimiento exponencial. O, de manera equivalente, que cada dos años el espacio requerido para tener un ordenador de una determinada capacidad se divide por dos. Cincuenta años más tarde, la bautizada ley de Moore sigue vigente y la miniaturización de la tecnología se ha convertido en una realidad.
Cantidad de transistores en un microprocesador y ley de Moore
Cantidad de transistores en un microprocesador y ley de Moore
Este incremento de capacidad computacional ha permitido a la comunidad científica y tecnológica el desarrollo de modelos matemáticos de análisis y predicción más complejos que aprovechen todo el potencial disponible. Desde la predicción meteorológica hasta el reconocimiento automático de objetos, múltiples áreas de conocimiento se han beneficiado fuertemente de la existencia de computadoras potentes capaces de operar correctamente con modelos complejos. Sin embargo, con el aumento de complejidad en la modelización de fenómenos reales viene añadida otra necesidad, los datos.
La complejidad de dichos modelos viene ligada a la necesidad de una cantidad de datos inimaginable hasta la actualidad. En esta encrucijada tecnológica aparece un nuevo término: el big data.
El big data quiere unir ambos mundos: la generación masiva de datos con la tecnología capaz de procesarlos. En su definición formal, el big data recoge los datasets de gran tamaño así como las técnicas para procesarlos. Gartner recoge en las tres uves los tres principales factores para definir los sistemas de big data:
  • Volumen: La cantidad de datos gestionados por los sistemas de big data es significativamente superior a las cantidades habitualmente utilizadas por la mayoría de los sistemas. Los retos derivados del volumen pueden derivar de la necesidad de almacenar los datos o de la necesidad de procesarlos.

  • Velocidad: La velocidad de creación de datos (tal como se ha comentado anteriormente con los ejemplos de Facebook y YouTube) es órdenes de magnitud superior a la velocidad de creación de datos de la anterior generación tecnológica. Este cambio de paradigma supone un reto para los sistemas de procesado basados en datos, que deben adaptar sus modelos a trabajar de manera más rápida y con una cantidad mayor de datos.

  • Variedad: El último factor relevante para Gartner de los sistemas de big data es la variedad de los datos utilizados. Las múltiples fuentes de datos utilizadas por estos sistemas requieren una homogenización en formato que escala en complejidad a medida que se añaden fuentes adicionales de datos. Las múltiples variantes de tipo de información que pueden ser usados por los sistemas de big data (imágenes, correos electrónicos, bases de datos) incrementan la dificultad de procesado significativamente.

2.2.1.Tipos de sistemas de big data
Ya hemos hablado de las múltiples fuentes de obtención de datos por parte de la Administración pública y de la necesidad del preprocesado de datos para ponerlos a disposición de la ciudadanía. En este subapartado definiremos las técnicas y los mecanismos disponibles en la tecnología de hoy en día para dar un uso a los datos capturados.
Para empezar, distinguiremos entre los múltiples sistemas disponibles en la actualidad. La clasificación utilizada en este texto, heredada de la clasificación clásica de los sistemas de procesado de datos, permitirá poner en perspectiva todo el potencial disponible en los sistemas de big data:
1) Sistemas evaluativos: Los sistemas evaluativos se caracterizan por analizar datos pasados con el objetivo de mejorar alguno de los aspectos relacionados con estos. Desde la perspectiva de la Administración pública, un sistema evaluativo de big data sería el procesado de los sensores de contaminación en toda la ciudad durante el pasado año para generar un mapa de contaminación que permitiera al usuario entender mejor qué zonas de la ciudad acumulan un nivel más alto de contaminación. Además, estos sistemas evaluativos pueden utilizarse a la vez como sistemas de recomendación, en los que el algoritmo emite una recomendación más allá del simple análisis de datos. Siguiendo con el ejemplo de la contaminación, dada la información del tráfico de la ciudad, el sistema de big data podría emitir una recomendación de en qué en zonas es necesario hacer cambios para reducir la contaminación de cara al futuro.
2) Sistemas en tiempo real: Los sistemas en real time se caracterizan por hacer un procesado de datos en tiempo real que permite al usuario conocer el estado del sistema en ese momento y obtener recomendaciones sobre acciones que seguir. El sistema de velocidad variable de la ciudad de Barcelona, en el que los sensores de contaminación eran usados en tiempo real en un modelo para decidir la velocidad óptima para reducir contaminación, es un buen ejemplo de sistema de big data en tiempo real.
Los sistemas en tiempo real afrontan un reto importante: integrar la mayor cantidad de datos posibles en sus predicciones pero mantener el tiempo de procesado tan corto como sea posible para poder emitir una salida a tiempo real. Tal como ha sido remarcado en la introducción, el crecimiento exponencial de la capacidad de cálculo permite cada vez más a los sistemas integrar una importante cantidad de datos emitiendo outputs en tiempo real.
3) Sistemas de predicción: Por último, los sistemas predictivos utilizan todos los datos del pasado para realizar una predicción. En el entorno urbano, un sistema predictivo podría ser utilizado para predecir el tráfico en una zona concreta en un día concreto que permitiera a la Administración pública tomar las medidas necesarias. Los sistemas de predicción basan todo su fundamento en la causalidad de los datos, eso es, en la idea de que los datos recogidos en el pasado son representativos del funcionamiento global del sistema, por lo que en condiciones similares el sistema se comportará de modo similar. Esta presunción se toma en la mayoría de los sistemas de procesado de datos y en la mayoría de los escenarios cotidianos donde estos sistemas son aplicados queda confirmada por nuestra intuición.

Bibliografía

Referencias bibliográficas
Nota: Gran parte de las referencias bibliográficas del módulo 1 están en francés dado que el texto original es en este idioma, sin embargo, muchas de ellas están disponibles también en castellano o en inglés.
Baraud-Serfaty, I. (2011). “La nouvelle privatisation des villes”. Esprit (marzo-abril, págs. 149-167).
Batty, M. (2013). “Big data, smart cities and city planning”. Dialogues in Human Geography (núm. 3, pág. 274).
Behnam, G. (2011). “Les passages parisiens de Walter Benjamin”. Mag Philo (invierno).
Braudel, F. (1979). Civilisation matérielle, économie et capitalisme, XVe - XVIIIe siècle. París: Armand Colin.
Chignard, S. (2012). L’Open data: Comprendre l'ouverture des données publiques. FYP Editions.
Cohen, D. (2006). Trois leçons sur la société postindustrielle. París: Le Seuil.
Flichy, P. (2003). L’innovation technique. París: La découverte.
Florida, R. L. (2002). The rise of the creative class: and how it's transforming work, leisure, community and everyday life. Nueva York: Basic Books.
Forrester, J. (1969). Urban Dynamics. Pegasus Communication.
Guillaud, H. (2011). “Est-ce que la technologie désurbanise la ville ?”. Internet Actu (12 de julio). http://www.internetactu.net/2011/07/12/est-ce-que-la-technologie-desurbanise-la-ville/
Harvey, D. (2008). “The right to the city”. New left review (septiembre-octubre, núm. 53, págs. 23-40).
Hill, D. (2013). “Essay: On the smart city; Or, a «manifesto» for smart citizens instead”. City of sound (1 de febrero) http://www.cityofsound.com/blog/2013/02/on-the-smart-city-a-call-for-smart-citizens-instead.html
Jeanneret-Gris, C. E. (Le Corbusier) (1995). (original 1923). Vers une Architecture. París: Flamarion.
Kaplan, D. (2012). “Ta ville, trop smart pour toi”. Internet peut-il casser des briques? Forum d’Action Modernités.
Latour, B. (2006). “Les cornéliens dilemmes d’une ceinture de sécurité”. Petites leçons de sociologie des sciences. La Découverte.
Latour, B.; Hermant, B. (1998). Paris ville invisible. Institut Edition Synthelabo.
Licklider, J. C. R. (1960). “Man-Computer Symbiosis”. IRE Transactions on Human Factors in Electronics (vol. HFE-1, págs. 4-11).
Moore, G. E. “Cramming more components onto integrated circuits”. http://web.eng.fiu.edu/npala/eee6397ex/gordon_moore_1965_article.pdf
Peugeot, V. (2014). “Données personnelles: sortir des injonctions contradictoires”. Vecam (abril). http://vecam.org/Donnees-personnelles-sortir-des-injonctions-contradictoires
Sassen, S. (1991). The Global city. Nueva York/Londres/Tokyo: Princeton University Press.
Schafer, V.; Le Crosnier, H. (2011). La neutralité de l’internet, Un enjeu de communication. Les essentiels d’Hermès, CNRS Editions.
Seto Karen, C.; Güneralp, B.; Hutyra Lucy, R. (2012). “Global forecasts of urban expansion to 2030 and direct impacts on biodiversity and carbon pools”. Proceedings of the national academy of Sciences of the United States of America.
Townsend, A. M. (2013). Smart cities – big data, civic hackers, and the quest for a new utopia. Nueva York: Norton.
Turner, F. (2012). Aux sources de l'utopie numérique : De la contre-culture à la cyberculture, Stewart Brand, un homme d'influence. París: C&F Éditions.
“Why cities keeping growing, corporations and people always die, and life goes faster”. Una conversación con Geoffrey West. http://edge.org/conversation/geoffrey-west
World Urbanization Prospects, the 2011 Revision, Data on Urban and Rural Populations. http://www.un.org/en/development/desa/population/publications/pdf/urbanization/WUP2011_Report.pdf