Manual de fake news (Parte 2): los algoritmos también tienen sesgo

  • Segunda parte (aquí la primera) de un análisis sobre la propagación de informaciones falsas potenciada por los algoritmos. Se ha publicado antes en eldiario.es.
  • Son numerosos los estudios que demuestran que la probabilidad de que compartamos una información crece cuando estamos de acuerdo con ella.
  • “Aunque Internet ha brindado más oportunidades para acceder a información, los algoritmos dificultan que encontremos información desde puntos de vista críticos o diversos”, afirman expertos en sesgos cognitivos.

La inteligencia artificial permite prever en qué provincias españolas habrás más corrupción en el futuro

Los algoritmos definen la información que alcanza a cada usuario o usuaria.

 

Hay tres razones por las que las noticias basura se difunden tan rápidamente en las redes sociales, de acuerdo con Samantha Bradshaw y Philip N. Howard. La razón número uno son los algoritmos que ayudan a procesar, catalogar, seleccionar y priorizar cantidades masivas de información, pero que también permiten la personalización del contenido de forma que se crean “burbujas de filtro” que limitan los flujos de información y el intercambio transparente de ideas y perpetúan los sesgos. Básicamente, debido a estas burbujas, terminamos hablando con nuestras correligionarias acerca de los asuntos en los que ya estamos de acuerdo.

La mayor parte del filtrado de información que tiene lugar en las redes sociales no es producto de la elección consciente de los y las usuarias humanas, sino de cálculos algorítmicos de aprendizaje automático. Un sistema de aprendizaje automático es un conjunto de algoritmos que toman torrentes de datos en un extremo y escupe inferencias, correlaciones, recomendaciones y, a veces, decisiones en el otro extremo. Se trata del machine learning o el uso de técnicas estadísticas para “aprender” de forma que, basándose en datos, los algoritmos mejoran progresivamente en el cumplimiento de una tarea sin haber sido programados específicamente para ello. Esta tecnología ya es ubicua: todas las interacciones que tenemos con Facebook, Google, Amazon y otras plataformas están habilitadas por sistemas de aprendizaje automático. Estos fragmentos de código toman decisiones al personalizar el contenido y adaptar los resultados de búsqueda para reflejar nuestros intereses individuales, comportamientos pasados e incluso la ubicación geográfica.

Bradshaw y Howard dicen que la curación del contenido algorítmico tiene consecuencias importantes en la forma en que se nos ofrecen noticias online. En el periodismo convencional, periodistas humanas seleccionaban las fuentes de información, verificaban los datos y elaboraban las noticias, y sus editores (en su mayoría hombres) decidían si publicarlas o no, una función que se ha llamado en inglés gatekeeping (papel de “portero”). Los públicos decidían a qué medio acudir para informarse, pero en su mayor parte desconocían qué noticias habían sido excluidas. Ahora son los algoritmos los que determinan qué información se disemina a qué personas.

La popularidad de una noticia, el grado en que esta provoca indignación, los sesgos de confirmación y el nivel de implicación de las personas con los contenidos son cada vez más importantes para impulsar su propagación. Si se conjugan estos factores, los contenidos se vuelven virales a enorme velocidad y escala, independientemente de si son veraces o no. “Aunque Internet ha brindado más oportunidades para acceder a información, los algoritmos dificultan que encontremos información desde puntos de vista críticos o diversos”, concluyen Bradshaw y Howard.

Presentes en las redes más comunes

Numerosos estudios indican que los sesgos algorítmicos están presentes en todas las plataformas. Un ejemplo: un algoritmo de inteligencia artificial aprendió a asociar a las mujeres con imágenes de cocinas basándose en decenas de miles de fotografías de internet porque hay más mujeres que aparecen fotografiadas en cocinas en la web. No es esto solo lo más grave. Al “aprender”, el algoritmo multiplicó el sesgo presente en el conjunto de datos en los que se basó inicialmente, amplificando –no simplemente replicando— la asociación sesgada. Este trabajo de la Universidad de Virginia es uno de varios estudios que recientemente muestran que los sistemas de inteligencia artificial pueden incorporar, e incluso multiplicar, sesgos si su diseño o los datos en los que se basan no se piensan y corrigen cuidadosamente.

El movimiento "Borra Facebook" suma miles de seguidores en otras redes sociales
Cuando se juntan los sesgos mentales con los algorítmicos EFE

El segundo factor según Bradshaw y Howard es la publicidad. El modelo de negocio de las plataformas se basa en la recopilación de datos de uso y su venta a las empresas que quieren comprender mejor cómo consumimos, al tiempo que ofrecen a estas empresas la capacidad de crear y enviar mensajes personalizados a esos mismos públicos. Es por esto que las cuentas de redes sociales son “gratuitas”. Digo “gratuitas” entre comillas porque pagamos en realidad de tres formas diferentes: con nuestros datos, con nuestra atención y con nuestro dinero (e.g. a los proveedores de servicios de comunicación móvil).

Este modelo contribuye a la difusión de noticias basura de dos maneras, según Bradshaw y Howard: Primero, a través de la incentivación de contenido viral, lo que ha dado lugar a los clickbaits (literalmente “clic-cebo”) o contenido diseñado para atraer la atención, a menudo estimulando la indignación, la curiosidad o ambos, para alentar a hacer clic en un enlace a una página web. Los aspectos económicos de clickbait ayudan a explicar por qué contenidos diseñados para provocar respuestas emocionales aumentan la probabilidad, la intensidad y la duración de la implicación de usuarios y usuarias con el contenido. Es decir, los clickbaits juegan con los prejuicios de las personas y su indignación.

Segundo, a través del empoderando de algunos agentes (como por ejemplo intereses extranjeros en la última campaña electoral en los Estados Unidos) que hacen de los y las votantes objetivos potenciales con poca transparencia y nula responsabilidad.

El tercer y último factor según Bradshaw y Howard es la exposición: este sistema nos ofrece una selección cada vez más sesgada y reducida de la realidad. Mientras que los algoritmos y los anuncios filtran información, los y las usuarias también seleccionan lo que quieren ver o descartar y ahí indicen los fenómenos cognitivos.

Diversos estudios demuestran que es más probable que compartamos con nuestras redes información con la que estamos de acuerdo, reforzando cada vez más la polarización de las creencias. As su vez, este filtrado influye en cómo los algoritmos funcionan. Como consecuencia de ello, no se nos expone a una selección representativa, equilibrada o precisa de la realidad.

El perfil del analista de datos: Entrevista con El Indpendiente

Hoy hay publicado una entrevista con David García-Maroto (@David4210) que se ha publicado en El IndependienteHe subido a nuestro blog del Programa de Comunidación de Datos de Deusto la entrevista completa, por si alguien estuviera interesado/a.

Sin título.png

La conclusión es que hay mucho por hacer y que, aunque muchas organizaciones del tercer sector y centros de investigación han demostrado una enorme creatividad, como Forensic Architexture o el Overseas Development Institute, otras se están quedando a la zaga. Animo a todas a que exploren el mundo de los datos, que ni es super accesible ni tampoco solo para algunos/as privilegiados/as.

Apertura de conferencia internacional ECREA

Inauguré hace poco, con una charla magistral sobre el activismo de datos, la conferencia internacional titulada “Responsabilidad social corporativa y activismo ciudadano en tiempos de perturbación política”, de la Sección de Comunicación Organizacional y Estratégica de la European Communication Research and Education Association (ECREA), que se celebró entre el 1 y 2 de febrero, en la Universidad de Málaga, invitada por la profesora Isabel Ruiz-Mora (Universidad de Málaga). El Profesor Øyvind Ihlen (Universidad de Oslo, Noruega) fue el otro conferenciante.

DU8LzF2W4AArBB9.jpg

La experiencia resultó súper gratificante, con un interesante debate sobre el activismo ciudadano. Se presentaron treinta trabajos en nueve paneles.

“Data Activism in Light of the Public Sphere” – Nuevo artículo en la revista de filosofía contemporánea Krisis

Miren Gutiérrez, Directora del Programa “Análisis, investigación y comunicación de datos”

Mucho se da dicho sobre la esfera pública desde la popularización de internet, las redes sociales y la infraestructura de datos: ¿existe realmente como la planteó Jürgen Habermas? ¿se ha de hablar de esferas, en plural? ¿o es mejor hablar de neodemocracias, negando la posibilidad de internet de ser una esfera pública, como hace Dean?

Los espacios de debate, consenso y acción en red que se generan en el activismo de datos se pueden teorizar como “esferas públicas”, porque comparten algunos de sus atributos: aunque el objetivo final del activismo de datos es la acción, éste se articula por actores que interactúan y organizan en procedimientos enmarcados por la “inclusividad”, igualdad de acceso y transparencia. Sin embargo, no se parecen a la esfera pública burguesa. Los llamo “esperas públicas digitales alternativas” en un nuevo artículo titulado “Data Activism in Light of the Public Sphere”, publicado en la revista de Filosofía contemporánea Krisis.

Un ejemplo es “Ayuda Ecuador”, una aplicación de la plataforma Ushahidi. “Ayuda Ecuador” se lanzó el 16 de abril de 2016 justo después de los primeros temblores del terremoto que causó la muerte de 660 personas y heridas a 4.605. En cuestión de dos horas, un grupo de “humanitaristas digitales” –que generalmente incluyen blogueros, techies y activistas dispuestos a ofrecer voluntariamente su tiempo para ayudar en emergencias de forma remota— lanzaron la aplicación para generar colectivamente datos relevantes para la emergencia y canalizar efectivamente los esfuerzos de diferentes instituciones y organismos. En pocas horas, se había organizado para verificar cientos de reportes de víctimas y testigos.

cc.png

Espacio abierto de diálogo y coordinación detrás del mapa de “Ayuda Ecuador.

El artículo compara las cualidades de las “esperas públicas digitales alternativas” (para abreviar EPDA) en la comparación con las de la esfera pública Habermasiana y de las neodemocracias, a través de los ejes el “sitio”, “objetivo”, “vehículo”, “medios” y “normas”.

SITIO: Las EPDA generadas por el activismo de datos han perdido a la nación como referencia porque se ubican tanto en el local como en el global y operan el “espacio de los flujos” definido por Manuel Castells. La acción coordinada globalmente en una EPDA tiene consecuencias locales. En el mapeo de crisis de “Ayuda Ecuador”, por ejemplo, lo local determina las condiciones en las que las víctimas pueden informar y los trabajadores humanitarios pueden usar la información sobre el terreno. En las EPDA hay una diferencia entre lo local y lo nacional también. Por ejemplo, los desastres pueden afectar a personas vulnerables en áreas rurales remotas en mayor medida  que a otras que viven en ciudades del mismo país. Además, las catástrofes no respetan las fronteras nacionales tampoco.

OBJETIVO: Los actores en una EPDA buscan consensos, pero estos incorporan una expectativa de respuesta y se usan como un instrumento para la acción. Es decir, el consenso no es un fin en sí mismo. Las dos variedades principales de geoactivismo, mapeo de crisis y cartografía activista, están dirigidas a la acción, aunque el objetivo principal del mapeo de crisis es abordar emergencias (acción a corto plazo) y de la  cartografía activista es generar evidencias para empoderar a las comunidades (acción a medio y largo plazo).

VEHÍCULO: Las EPDA se forman en torno a los conflictos y problemas que tratan de abordar (i.e. el terremoto de Ecuador), y en ocasiones generan narrativas y contra-discursos alternativos. Pueden permitir que la gente de a pie genere sus propios datos en sus propios términos, revirtiendo el proceso de dataficación, que generalmente es monopolio de gobiernos y corporaciones. Las emergencias pueden desencadenar el mapeo de crisis, que es la geolocalización de datos ciudadanos para ayudar a los esfuerzos humanitarios, mientras que el mapeo activista puede activarse por causas sociales. Aunque no son el “vehículo” de las EPDA, los actores son esenciales: la ciudadanía se coloca a la vanguardia de la producción de contenido; las personas privadas de sus derechos se sientan en la mesa de toma de decisiones, lo que les da poder y mejora su agencia; y algunos papeles son fundamentales en el mapeo de crisis, por ejemplo.

cc.jpg

Mapa de “Ayuda Ecuador”

Las EPDA se gestionan mediante una coordinación descentralizada y en red en la que los papeles son estáticos, mientras que los individuos son prescindibles. Por ejemplo, un esfuerzo sostenido a lo largo del tiempo puede imponer tensiones a los actores que apoyan las EPDA, por ejemplo, experimentando extrema fatiga en el apoyo de una campaña.

NORMAS: Las normas que rigen las EPDA provienen de la red, es decir, no están impuestas en los procesos hegemónicos por actores externos. Las EPDA son fluidas y efímeras, incorporando una obsolescencia porque surgen frente a emergencias y problemas finitos. Otra regla que gobierna las EPDA es la inclusividad condicionada, que permite la participación de cualquier persona, siempre y cuando siga las pautas, por ejemplo, para producir informes verificados durante las crisis. Sin embargo, este acceso igualitario (no igualdad) incorpora algunas asimetrías. En el caso del mapeo de crisis, por ejemplo, las personas que lanzan el mapa actúan como guardianes de la información y sus procesos de verificación y clasificación. Asimismo, las víctimas y trabajadores/as humanitarios/as a menudo enfrentan situaciones peligrosas, a diferencia de las personas que trabajan en la crisis de forma remota. La transparencia, otra regla, se emplea en la EPDA solo como herramienta, no como fin, y puede generar irritaciones también cuando se hace evidente que, por ejemplo, los medios de comunicación no están informando adecuadamente de una crisis. Sin embargo, demasiada transparencia puede ser peligrosa para las víctimas que informan sobre su situación en la EPDA Finalmente, la credibilidad es necesaria para generar aceptación y colaboración en las comunidades que ayudan en un mapeo de crisis.

Pero exactamente como pasa con la esfera pública Habermasiana, las EPDA son una construcción. Se ofrecen en este artículo como un concepto heurístico para comprender cómo el activismo de datos genera comunidades en red de personas de diversos orígenes, a veces en ubicaciones remotas, para la acción coordinada. EPDA perfectas, en las que los actores trabajan en perfecta armonía con resultados, no se encuentran en la vida real.

Lo que muestran los casos reales es que, con las capacidades aumentadas que otorga la infraestructura de datos, el activismo puede desatar procesos de comunicación real conducentes a la acción. Las EPDA también proporcionan otra vuelta de tuerca en el debate teórico sobre la validez de la esfera pública como concepto hoy en día.

 

Interesante debate sobre #data4good

Fue breve pero intenso. En el contexto del escándalo de Cambridge Analytica, las fake news, el uso de datos personales con fines propagandísticos y la vigilancia masiva, propusimos un debate sobre cómo los big data y otras tecnologías pueden servir para mejorar la vida de las personas y del medioambiente.

Entendemos que cuatro comunidades confluyen en la realización de proyectos de datos con impacto social:

  1. las organizaciones que transfieren habilidades, crean plataformas y herramientas, y generan oportunidades de encuentro;
  2. las catalizadoras, que proporcionan los fondos y los medios;
  3. las que producen periodismo de datos, y
  4. las activistas.

Sin embargo, en pocas ocasiones las vemos debatir juntas en público. El 12 de abril, en la sede de la Deusto Business School en Madrid, nos reunimos con representantes de las cuatro comunidades, a saber:

DSC_5665.jpg

De izquierda a derecha, Adolfo Antón Bravo, responsable del DataLab del Medialab-Prado, desde donde ha dirigido la experimentación, producción y divulgación de proyectos en torno a la cultura de los datos y el fomento de los datos abiertos. Tenemos la suerte de que Adolfo ha sido también representante del Open Knowledge Foundation España, una organización catalizadora, dedicada a financiar y fomentar los proyectos de datos, entre otros.

Mar Cabra, una conocidísima periodista de investigación  especialista en análisis de datos que ha estado al frente de la Unidad de Datos e Investigación del Consorcio Internacional de Periodistas de Investigación, ganador del premio Pulitzer de 2017 con la investigación conocida como Los papeles de Panamá” y que cada vez aborda proyectos con más datos, como la reciente investigación conocida como “Los papeles del Paraíso”.

Juan Carlos Alonso, diseñador en Vizzuality, una organización ​que ofrece aplicaciones que ayudan a la mejor comprensión de los datos a través de su visualización para entender procesos globales como la deforestación, la preparación para los desastres, el flujo mundial del comercio de productos agrícolas o la acción contra el cambio climático en todo el mundo.

Ignacio Jovtis, responsable de Investigación y Políticas de Amnistía Internacional en España. AI usa testimonios, cartografía digital, datos y fotografía satelitales para denunciar y producir evidencias de abusos de los derechos humanos en la guerra en Siria y de la apropiación militar de tierras en pueblos rohingyas.

Juanlu Sánchez, otro conocido periodista, cofundador y subdirector de eldiario.es, que está especializado en contenidos digitales, nuevos medios y fórmulas de sostenibilidad para el periodismo independiente. Ha dirigido y colaborado en diversas investigaciones basadas en datos, como por ejemplo la de las tarjetas black de Bankia.

El prestigioso ilustrador Jorge Martín realizó la facilitación gráfica.

Jorge Martin Datos

Las conclusiones se podría resumir de la siguiente manera: 1) el factor humano es indispensable para que tenga éxito los proyectos de datos con impacto social, la tecnología sola no es suficiente; 2) la colaboración de distintos actores con diferentes competencias y recursos es imprescindible para que estos proyectos tengan éxito; y 3) hace falta una transformación social también dentro de las organizaciones para que se difunda la cultura de los datos y se maximice su infraestructura para la transformación de toda la sociedad.

DSC_5539 (1).JPG

 

Conferencia en Madrid: Datos para la transformación social

Esta semana estoy en Madrid, donde, a través de su Programa “Análisis, investigación y comunicación de Datos”, hemos organizado un debate el día 12 de abril, en la sede de la DBS en Madrid, que sienta en un panel a representantes de los cuatro grupos que intervienen en cualquier proyecto de datos para hablar de cómo pueden los datos ayudar a una transformación social en favor de las personas y el medio ambiente, qué oportunidades de colaboración existen y qué otras están por crearse.

Estas cuatro comunidades que confluyen en la realización de proyectos de datos con impacto social incluyen las organizaciones que transfieren habilidades, crean plataformas y herramientas, y generan oportunidades de encuentro; las catalizadoras, que proporcionan los fondos y los medios; las que producen periodismo de datos, y las activistas. Sin embargo, en pocas ocasiones las vemos debatir juntas en público.

Hablaremos de qué se está haciendo con los datos para mejorar el mundo.

Reserva tu lugar. Entrada libre hasta completar aforo. Si no puedes venir, inscríbete tambiénpara recibir información sobre cómo seguir el evento en directo.

DESMITIFICANDO LOS “BIG DATA”: DIEZ COSAS QUE HAY QUE SABER*

  1. No todo son big data

La mayor parte de los/as profesionales que usan datos se basan en small data: datos que aparecen en un volumen y formato que los hacen utilizables y analizables. Los big data, en cambio, son tan enormes y complejos que no se pueden gestionar o analizar con métodos de procesamiento de datos tradicionales.  El análisis y procesamiento de los big data, sin embargo, puede producir small data. A la vez, los small datapueden hacerse más big cuando se funden, escalan e interrelacionan para crear bases de datos mayores.

  1. !Los big data son big!

Algunos definen los big data simplemente por su volumen: son tan grandes que solo se pueden extraer, gestionar, almacenar, analizar y visualizar usando infraestructuras y métodos especiales.  Vivimos en la era de los big data, que se miden, no en terabytes, sino en petabytes y exabytes (donde peta- denota un factor de 1015y exa- de 1018).

  1. Una definición de big data habla de…

una profusión de objetos digitales y contenido online generado por usuarios/as durante sus actividades digitales, interceptación masiva de interacciones y metadatos (es decir, los datos sobre los datos), así como producto de la dataficación de la actividad humana y no humana, que es tan grande, puede ser procesada con tal velocidad, es tan variada, tiene tanto potencial económico, y muestra tal nivel de exactitud y complejidad que puede ser considerada realmente grande, y por tanto solo puede ser analizada por nuevas infraestructuras y métodos.

  1. No existe el “dato crudo” u objetivo

Como ya dijo en 2013 Lisa Gitelman en su muy citado libro “Raw Data” Is an Oxymoron: afirmar que un dato está “crudo”, es decir, desprovisto de intención, parcialidad o prejuicios, es simplemente erróneo. Los datos no surgen de la nada. La recopilación de datos y metadatos es constante, subrepticia y abarcadora: cada clic  y cada “me gusta” son almacenados y analizados en alguna parte. Estos datos son de todo menos “crudos”; no debemos pensar en ellos como un recurso natural, sino como un recurso cultural que necesita ser generado, protegido e interpretado. Los datos son “cocinados” en los procesos de recolección y uso (procesos que, a la vez, son “cocinados”); y no todo puede ser, ni es, “reducido” a los datos o “dataficado”. Por tanto, los conjuntos de datos, por muy big que sean, pueden esconder errores, vacíos y arbitrariedades.

  1. Los datos no son el “nuevo petróleo”

Ya la comparación no es muy afortunada en los tiempos del cambio climático. Pero aunque el “valor” es una de las uves asociadas a los big data (junto con volumen, velocidad, variedad, veracidad y otras palabras que empiezan con uve), los datos no son valiosos en sí mismos; hay que transformarlos en utilizables, analizables y accionables para poder extraer valor de ellos. “Limpiar datos” desestructurados y desconectados (es decir, no comparables ni relacionables) es posiblemente la tarea más ardua y desagradecida en la gestión de datos. En resumidas cuentas: los datos son la base de la información, pero no son información.

  1. No se necesitan big data para hacer buenos análisis de datos

Ahora estudiosos y estudiosas, como Jennifer  Gabrys, Helen  Pritchard y Benjamin Barratt, hablan de datos “suficientemente buenos” (good enough data). Se refieren, por ejemplo, a datos generados por personas no expertas (crowdsourced data). Estos datos pueden ser la base de potentes proyectos como algunas de las aplicaciones de la plataforma Ushahidi que han servido para organizar ayuda humanitaria y asistir a víctimas en casos de conflicto armado y desastre. En estos casos, los datos proporcionados por la gente sobre una crisis se amasan, verifican y visualizan en mapas interactivos que están revolucionando la asistencia humanitaria.

  1. Todo el mundo miente…

Los big data pueden servir para hacer estudios enormemente iluminadores. Seth Stephens-Davidowitz acaba de publicar Everybody Lies. Este libro –subtitulado algo así como: “lo que internet puede decirnos acerca de quiénes somos realmente”— es una muestra de que cómo la gente miente en las encuestas y posturea en las redes sociales, mientras que se “desnuda” cuando hace búsquedas en internet. Basado en el análisis masivo de las búsquedas en Google, otras bases de datos y sitios web, Stephens-Davidowitz descubre que la gente es mucho más racista, machista e innoble de lo que piensa o admite. Y es que los chistes racistas aumentan alrededor del 30% en el Día de Martin Luther King en los Estados Unidos, y hacer promesas “es una señal segura de que alguien no hará algo”.

  1. Y no todo el mundo tiene acceso a los big data

¿Quiénes amasan big data? Sobre todo los gobiernos (desde datos macroeconómicos o demográficos hasta datos procedentes de la interceptación de comunicaciones y la vigilancia) y las grandes corporaciones. Las revelaciones de Snowden en 2013 mostraron, por ejemplo, que los servicios de inteligencia del gobierno estadounidense, con la colaboración empresas privadas y otros gobiernos, habían establecido una tupida capa de vigilancia e interceptación datos sobre las comunicaciones de millones de personas en todo el mundo. Cathy O’Neil, en su libro Weapons of Math Destruction, muestra cómo los programas basados en big data aumentan la eficiencia de “la publicidad predatoria” y socavan la democracia. Otros estudiosos, como Sandra Braman, Zeynep Tufekciy y Seeta Peña Gangadharan, hablan de cómo los gobiernos, con la connivencia de algunas empresas, hacer perfiles, discriminan a grupos vulnerables y potencian la vigilancia indiscriminada, omnipresente y preventiva.

Por otro lado, el movimiento open data hace campaña para que los datos públicos sean abiertos, accesibles y usables. Y muchos gobiernos, grandes y pequeños como por ejemplo Irekia, se han apuntado a  abrir los cofres de sus datos, y cada vez hay más presión para que este movimiento se extienda.

  1. Los datos, big o small, no son para todo el mundo

En un alarde de entusiasmo, Simon Rogers comparó en 2012 el análisis de datos con el punk: “cualquiera puede hacerlo”. Bueno…, pues no es así exactamente. No solamente los big data no están disponibles para cualquier punk, sino que, como Daniel Innerarity señala, las herramientas para convertirlos en analizables y útiles no están al alcance de cualquiera tampoco.

  1. Sin embargo, los datos tampoco son inaccesibles

Pero las barreras para acceder tanto a datos como a las herramientas para usarlos han ido cayendo en los últimos años. Forensic Architecture, con Amnistía Internacional, ha creado un modelo interactivo de la prisión más notoria de Siria utilizando los recuerdos de los sonidos de la cárcel narrados por supervivientes que habían sido retenidos en la oscuridad. El proyecto, llamado Saydnaya: Dentro de una prisión de tortura siria, tiene como objetivo mostrar las condiciones dentro de la prisión. Cuando los datos no están disponibles, hay organizaciones que los generan. WeRobotics pone en circulación “drones comunitarios” para captar datos sobre las condiciones de los glaciares en Nepal, por ejemplo, con el objeto de analizarlos y lanzar alarmas. InfoAmazonia, entre otras cosas, ha publicado un calendario que superpone el tiempo contado por los pueblos indígenas del Río Tiquié y el tiempo medido en el calendario gregoriano, en un diálogo que nunca tuvieron antes.

Más cerca, en nuestro entorno, estudiantes del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto publicaron este año un informe sobre basuras marinas a nivel estatal, en colaboración con la Asociación Ambiente Europeo, que tuvo repercusión en medios y generó un debate sobre los plásticos en el mar. La empresa Bunt Planet utiliza infraestructuras de datos para trazar redes eficientes e inteligentes. Y el centro de investigación DeustoTech aplica robótica y big data para diseñar la movilidad del futuro.

Cuesta adquirir las habilidades, pero programas como el nuestro están al alcance de quien quiere echarle ganas, tiene curiosidad y está abierto/a aprender.

Miren Gutiérrez

Directora del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto

 

*Este post es la versión completa de un artículo publicado en Noticias de Gipuzkoa.