Manual de fake news (III): El papel del periodismo y los medios

Algunos han olvidado que el y la periodista es la persona que vive, aplica y comparte los principios del periodismo, que, como Kovach y Rosenstiel establecieron, tiene como primera obligación la verdad, debe lealtad ante todo a la ciudadanía, mantiene su independencia frente a sus fuentes, ejerce un control independiente del poder y en su trabajo aplica el método de la verificación. Todo lo demás simplemente no es periodismo.

El periodismo es un sistema que las sociedades democráticas han creado para suministrar información veraz y relevante a la gente, generar debate y controlar al poder. Por eso habría que distinguir entre periodistas y sus imitadores e imitadoras. Esto es especialmente importante hoy porque los niveles de confianza en las instituciones europeas, especialmente en las periodísticas, es muy bajo. El índice de confianza Edelman de 2018 indica que,  en España, entre el 76 y el 80% de las personas temen que las noticias falsas se usen como “armas”, el nivel más alto en el mundo. En este índice, los medios de información están entre las instituciones que inspiran más desconfianza. Pero no todos los medios deberían experimentar el mismo descrédito porque no todos son iguales.

Hay medios periodísticos que se afanan por presentar los hechos de la manera más independiente y relevante posible. Por ejemplo,  Independent desacreditó unas fotografías que circularon por redes sociales que trataban de hacer pasar a manifestantes enfrentados en una protesta anti-Islam en Alemania en 2012 como refugiados radicalizados en Gran Bretaña en 2015. Diversos medios en nuestro entorno han establecido unidades, secciones o programas de factchecking, incluidos  “El Objetivo” (La Sexta),  “La Chistera” (El Confidencial),  “Verdad o Mentira” (InfoLibre),  Maldito Bulo y  “El Cazabulos” (eldiario.es) .

En español existen más iniciativas, incluidas  La Silla Vacía  (Colombia),  Detector de Mentiras (Estados Unidos),  Con Pruebas (Guatemala),  El Sabueso (México),  El Medio (Oriente Medio) y  Ojo Público (Perú). A nivel global, existe una asociación, la International Fact Checking Netwrok (IFCN), a la que pertenecen medios como The Washington Post y Le Monde y  Politifact  (creado por Tampa Bay Times y recientemente adquirido por el Instituto Poynter).

Algunos medios convencionales han dicho que ellos no establecen unidades de factchecking porque la verificación de hechos es, en realidad, parte del método periodístico y se debe aplicar a cualquier noticia. Sin embargo, la diferencia con estas iniciativas es que estas establecen espacios especializados en los que las mentiras se desmontan explícitamente una por una.

La preocupación por la desinformación toma más formas

Un  informe de Reuters revela, por ejemplo, que el crecimiento de las redes sociales para noticias se está ralentizando en algunos mercados y que las aplicaciones de mensajería se están volviendo más populares por ser más privadas y tender a no filtrar el contenido algorítmicamente. Según este estudio, el uso de WhatsApp para noticias está comenzando a competir con Facebook en varios mercados, entre ellos Malasia (51%), Brasil (46%) y España (32%). Además, solo una cuarta parte (24%) de las personas encuestadas piensa que las redes sociales hacen un buen trabajo al separar los hechos de la ficción.

De acuerdo con un reciente artículo de Bella Palomo y Jon Sedano, adoptar WhatsApp como herramienta de comunicación permite a los medios incrementar cualitativamente las fuentes disponibles y su tráfico, e incluso involucrar a los distintos públicos en tareas de verificación. La creación de la sección “B de Bulo” en el periódico Sur, usando WhatsApp como medio de comunicación, resultó en una mejora de la relación entre la redacción y sus públicos, dicen Palomo y Sedano. Otros medios, como Madito Bulo, tienen servicios de WhatsApp.

La encuesta de Reuters da un dato preocupante: casi un tercio de la muestra (29%) dice que a menudo o a veces evita las noticias. Es decir, no solamente los algoritmos nos encierran en pequeñas burbujas de información, también hay una parte de la población que se excluye conscientemente.

Otro problema es que los desmentidos de estas iniciativas de factchecking no tienen casi nunca el mismo eco que los propios bulos. Si la información veraz no se comparte de la misma manera que la falsedad viral, su daño no se puede contrarrestar realmente por muchas unidades de factcheckers que se funden; siempre irán por detrás.

El periodismo, sin embargo, también puede instigar e inspirar un debate sobre el papel de los y las periodistas, así como el de las plataformas, la ciudadanía, la regulación y la gobernanza de Internet. El papel del periodismo nunca ha sido más relevante.

Manual de fake news (Parte 2): los algoritmos también tienen sesgo

  • Segunda parte (aquí la primera) de un análisis sobre la propagación de informaciones falsas potenciada por los algoritmos. Se ha publicado antes en eldiario.es.
  • Son numerosos los estudios que demuestran que la probabilidad de que compartamos una información crece cuando estamos de acuerdo con ella.
  • “Aunque Internet ha brindado más oportunidades para acceder a información, los algoritmos dificultan que encontremos información desde puntos de vista críticos o diversos”, afirman expertos en sesgos cognitivos.

La inteligencia artificial permite prever en qué provincias españolas habrás más corrupción en el futuro

Los algoritmos definen la información que alcanza a cada usuario o usuaria.

 

Hay tres razones por las que las noticias basura se difunden tan rápidamente en las redes sociales, de acuerdo con Samantha Bradshaw y Philip N. Howard. La razón número uno son los algoritmos que ayudan a procesar, catalogar, seleccionar y priorizar cantidades masivas de información, pero que también permiten la personalización del contenido de forma que se crean “burbujas de filtro” que limitan los flujos de información y el intercambio transparente de ideas y perpetúan los sesgos. Básicamente, debido a estas burbujas, terminamos hablando con nuestras correligionarias acerca de los asuntos en los que ya estamos de acuerdo.

La mayor parte del filtrado de información que tiene lugar en las redes sociales no es producto de la elección consciente de los y las usuarias humanas, sino de cálculos algorítmicos de aprendizaje automático. Un sistema de aprendizaje automático es un conjunto de algoritmos que toman torrentes de datos en un extremo y escupe inferencias, correlaciones, recomendaciones y, a veces, decisiones en el otro extremo. Se trata del machine learning o el uso de técnicas estadísticas para “aprender” de forma que, basándose en datos, los algoritmos mejoran progresivamente en el cumplimiento de una tarea sin haber sido programados específicamente para ello. Esta tecnología ya es ubicua: todas las interacciones que tenemos con Facebook, Google, Amazon y otras plataformas están habilitadas por sistemas de aprendizaje automático. Estos fragmentos de código toman decisiones al personalizar el contenido y adaptar los resultados de búsqueda para reflejar nuestros intereses individuales, comportamientos pasados e incluso la ubicación geográfica.

Bradshaw y Howard dicen que la curación del contenido algorítmico tiene consecuencias importantes en la forma en que se nos ofrecen noticias online. En el periodismo convencional, periodistas humanas seleccionaban las fuentes de información, verificaban los datos y elaboraban las noticias, y sus editores (en su mayoría hombres) decidían si publicarlas o no, una función que se ha llamado en inglés gatekeeping (papel de “portero”). Los públicos decidían a qué medio acudir para informarse, pero en su mayor parte desconocían qué noticias habían sido excluidas. Ahora son los algoritmos los que determinan qué información se disemina a qué personas.

La popularidad de una noticia, el grado en que esta provoca indignación, los sesgos de confirmación y el nivel de implicación de las personas con los contenidos son cada vez más importantes para impulsar su propagación. Si se conjugan estos factores, los contenidos se vuelven virales a enorme velocidad y escala, independientemente de si son veraces o no. “Aunque Internet ha brindado más oportunidades para acceder a información, los algoritmos dificultan que encontremos información desde puntos de vista críticos o diversos”, concluyen Bradshaw y Howard.

Presentes en las redes más comunes

Numerosos estudios indican que los sesgos algorítmicos están presentes en todas las plataformas. Un ejemplo: un algoritmo de inteligencia artificial aprendió a asociar a las mujeres con imágenes de cocinas basándose en decenas de miles de fotografías de internet porque hay más mujeres que aparecen fotografiadas en cocinas en la web. No es esto solo lo más grave. Al “aprender”, el algoritmo multiplicó el sesgo presente en el conjunto de datos en los que se basó inicialmente, amplificando –no simplemente replicando— la asociación sesgada. Este trabajo de la Universidad de Virginia es uno de varios estudios que recientemente muestran que los sistemas de inteligencia artificial pueden incorporar, e incluso multiplicar, sesgos si su diseño o los datos en los que se basan no se piensan y corrigen cuidadosamente.

El movimiento "Borra Facebook" suma miles de seguidores en otras redes sociales
Cuando se juntan los sesgos mentales con los algorítmicos EFE

El segundo factor según Bradshaw y Howard es la publicidad. El modelo de negocio de las plataformas se basa en la recopilación de datos de uso y su venta a las empresas que quieren comprender mejor cómo consumimos, al tiempo que ofrecen a estas empresas la capacidad de crear y enviar mensajes personalizados a esos mismos públicos. Es por esto que las cuentas de redes sociales son “gratuitas”. Digo “gratuitas” entre comillas porque pagamos en realidad de tres formas diferentes: con nuestros datos, con nuestra atención y con nuestro dinero (e.g. a los proveedores de servicios de comunicación móvil).

Este modelo contribuye a la difusión de noticias basura de dos maneras, según Bradshaw y Howard: Primero, a través de la incentivación de contenido viral, lo que ha dado lugar a los clickbaits (literalmente “clic-cebo”) o contenido diseñado para atraer la atención, a menudo estimulando la indignación, la curiosidad o ambos, para alentar a hacer clic en un enlace a una página web. Los aspectos económicos de clickbait ayudan a explicar por qué contenidos diseñados para provocar respuestas emocionales aumentan la probabilidad, la intensidad y la duración de la implicación de usuarios y usuarias con el contenido. Es decir, los clickbaits juegan con los prejuicios de las personas y su indignación.

Segundo, a través del empoderando de algunos agentes (como por ejemplo intereses extranjeros en la última campaña electoral en los Estados Unidos) que hacen de los y las votantes objetivos potenciales con poca transparencia y nula responsabilidad.

El tercer y último factor según Bradshaw y Howard es la exposición: este sistema nos ofrece una selección cada vez más sesgada y reducida de la realidad. Mientras que los algoritmos y los anuncios filtran información, los y las usuarias también seleccionan lo que quieren ver o descartar y ahí indicen los fenómenos cognitivos.

Diversos estudios demuestran que es más probable que compartamos con nuestras redes información con la que estamos de acuerdo, reforzando cada vez más la polarización de las creencias. As su vez, este filtrado influye en cómo los algoritmos funcionan. Como consecuencia de ello, no se nos expone a una selección representativa, equilibrada o precisa de la realidad.

Manual de fake news: El papel de los sesgos cognitivos (Parte 1)

Primero de tres capítulos donde se analiza el impacto y la naturaleza particular de la desinformación en Internet. Se han publicado en eldiatio.es.

Las mentiras adoptan hoy en día muchas formas: pueden ser fraudes, seudo-ciencia, clickbaits o teorías de la conspiración; pueden estar en manos de (ro) botso de personas con nombre y apellido… Pero estamos hablando de algo similar, aunque no haya un consenso acerca de qué son las fake news y se recomiende hablar de “desinformación”. Pero la desinformación siempre han existido. Por ejemplo, las falsedades de los “Protocolos de los sabios de Sion” –publicados en 1902 en la Rusia zarista con el objetivo de justificar los pogromos de judíos— están entre las más eficaces fake news del pasado. Parece que el magnate Henry Ford las difundió por Estados Unidos a través de su semanario Dearborn Independent en los años 20 del siglo pasado.

Manual de fake news (I): El papel de los sesgos cognitivos

 

The Dearborn Independent

La diferencia con las fake news de hoy es que, con las plataformas digitales que dan sostén a las “redes sociales” y permiten la masiva generación e intercambio de contenidos, la desinformación multiplica y disemina de forma exponencial en tiempo real sin espacio para la reflexión o corrección.

Tenemos ejemplos cercanos. Un bulo difundido en WhatsApp aseguraba en julio que el hospital Gregorio Marañón había cerrado una planta para atender a los dos niños de Irene Montero y Pablo Iglesias. Un mes antes, durante la moción de censura, se difundían declaraciones de Mariano Rajoy asegurando que ningún militante del PP había sido condenado por Gürtel. En mayo, una fotografía de un acto independentista en Lleida, en la que aparecían niños, se difundía en redes sociales como prueba de que el soberanismo se inculca en los colegios. En otras latitudes, podemos encontrar ejemplos que resultan familiares. En Canadá, por ejemplo, el bulo de que refugiados y refugiadas  recibían pensiones considerablemente mayores que las personas jubiladas no solo sigue circulando desde 2004 sin que se haya podido contrarrestar con datos, sino que además se ha metamorfoseado en otras fábulas similares que circulan por EEUU y Australia.

¿De cuánto son responsables unos medios debilitados por una inversión en periodismo cada vez menor desde 2008 y por el descrédito? ¿De cuánto es responsable la gente, que puede elegir la versión de la verdad más adecuada a sus creencias? ¿Hasta qué punto el pluralismo y el conflicto de versiones garantiza que la verdad aflora? Empecemos por algunas nociones básicas sobre nuestros sesgos cognitivos.

Creemos lo que queremos creer

Las fake news se mueven en un caldo de cultivo propenso a su propagación. Muchos estudios indican que las personas somos más propensas a creer más en aquellas noticias que encajan con nuestras ideas y prejuicios, aunque estas noticias sean falsas, lo que se llama “sesgo de confirmación”. Un vídeo titulado  No vas a creer lo que estoy por contarte (en inglés) explica  por qué las personas rechazamos la verdad cuando esta no encaja en nuestra forma de entender el mundo. Hay razones biológicas. Se ha confirmado a través de escáneres de la amígdala que estas reacciones defensivas se asemejan a las de una persona ante un ataque físico. Si no, ¿por qué muchas personas votan en contra de sus propios intereses? ¿Por qué son tan difíciles los cambios (aunque sea para mejorar) en culturas laborales establecidas? ¿Por qué prosperan algunas teorías conspirativas?

Una combinación de fenómenos como el sesgo de confirmación (un sesgo cognitivo que nos hace seleccionar, favorecer y recordar más aquella información que confirma nuestras propias creencias); el “efecto de retroceso” ( backfire effect), que nos hace empecinarnos más cuando nuestras creencias básicas se cuestionan (aunque sea basándose en hechos reales), produciendo de forma colectiva la radicalización y polarización de creencias; las correlaciones ilusorias, que se dan cuando se perciben asociaciones falsas entre dos situaciones; y los errores del razonamiento inductivo hacen que nos movamos en un terreno resbaladizo desde siempre.

La metáfora del efecto óptico paralaje explica parte de este fenómeno. Se trata de la diferencia en la posición aparente de un objeto cuando se observa desde dos posiciones distintas, de forma que parecerá mayor para la observadora que esté más cerca (en la ilustración, posición B). Tiene también que ver con cómo el contexto (la estrella roja) hace que el objeto observado parezca diferente desde posiciones distintas. Si pensamos que el contexto es nuestro bagaje –creencias, valores, ideas, afinidades y conocimientos—, confrontada con el mismo objeto, cada persona ve una cosa diferente.

Manual de fake news (I): El papel de los sesgos cognitivos

 

Efecto óptico paralaje

La mayor ventaja de los seres humanos sobre otras especies es nuestra capacidad para cooperar, argumentan Hugo Mercier y Dan Sperber. La cooperación es ardua de establecer y difícil de mantener. La razón se desarrolló no para permitirnos resolver problemas abstractos, sino para resolver los problemas planteados por vivir en comunidad. Hábitos mentales que parecen extraños o ridículos desde un punto de vista intelectual se tornan sensatos cuando se ven desde una perspectiva social “interaccionalista”, dicen estos autores. Según Mercier y Sperber, nuestra razón evolucionó para medrar en el grupo, no para hacer cálculos certeros.

Según Samantha Bradshaw y Philip N. Howard, varios de estos mecanismos afloran en el partidismo: las personas prestan más atención al contenido político que se ajusta a su propio bagaje ideológico. En un proceso electoral, si ya tienen una preferencia por un o una candidata en particular, seleccionarán mensajes que fortalezcan, no debiliten, esa preferencia. Esto significa que cada vez más tendemos a no cambiar de partido político o candidata porque es poco probable que adquiramos de manera voluntaria o proactiva información nueva que desafíe nuestras preferencias. Un segundo fenómeno es la “exposición selectiva” que se basa en nuestros “esquemas” o representaciones cognitivas de conceptos genéricos con atributos consistentes que pueden aplicarse a nuevos tipos de información. Es decir, las personas tomamos atajos cognitivos que nos ayudan a lidiar con la realidad y para ello dependemos de nuestro conocimiento previo, que, como en el efecto paralaje, proporciona contexto e interpretación de cualquier suceso. Un tercer fenómeno es que dependemos de la exposición selectiva porque no queremos enfrentar la disonancia cognitiva de la exposición a información nueva que pueda desafiar nuestras creencias.

El problema hoy es que nuestros sesgos se ven confirmados y aumentados por los algoritmos. Es decir, si a estas distorsiones mentales se les añade que las “redes sociales” que diseminan fake news de todos los colores son omnipresentes y que los medios antaño percibidos como fiables ahora se entienden como politizados y parciales, se nos presenta una situación peligrosa. Todo vale; que es lo mismo que decir que nada vale.

 

 

Conferencia sobre gobierno abierto, datos y ciudadanía

El día 25 de octubre, en San Telmo, hice una presentación titulada “Big data para ciudadanía: Casos de uso de datos para el cambio social” en ocasión de la conferencia “Gobernu irekietarako teknologiak: gardentasuna / parte hartzea / berrikuntza”.

Sin título.png

Los temas centrales fueron la transparencia, la participación y la cooperación como base del gobierno abierto.

Hoy en día, la información es cada vez más transparente a través de los portales de transparencia y otras políticas. ¿Pero es suficiente? ¿Alcanza a toda la información pública? ¿Es la transparencia un fin en sí mismo? ¿Qué hace la ciudadanía con dicha transparencia? ¿Qué papel tienen los datos abiertos?

Sin título.png

Aunque los datos abiertos tienen una función importante a la hora de impulsar proyectos ciudadanos y sociales, hay una gran carestía de datos abiertos. Por eso, los y las activistas de datos deben recurrir  múltiples formas de obtener datos.

Los espacios de mejora incluyen:

  • Abrir los datos públicos que no vulneren la privacidad (o anonimizarlos) ni pongan en peligro la seguridad de las personas.
  • Incrementar el data literacy: Dar acceso a la formación, habilidades y herramientas para obtener, analizar, usar y visualizar datos y redes.
  • Incrementar la data agency:
    • Facilitnado la intervención de la ciudadanía y organizaciones en la generación de datos abiertos desde el principio.
    • Involucrando a la ciudadanía y organizaciones en la generación herramientas para usarlos (incluidos algoritmos e infraestructura de datos).
  • Estimular la reutilización de datos abiertos con usos sociales (a diferencia del enfoque en usos comerciales).

En una sociedad en la que toda actividad se datafica y mediatiza a través de las plataformas, una plena “agencia de datos” (data agency) es esencial para ejercer una ciudadanía democrática real y no dejarnos guiar por los espejismos de telemando y estrépitos en “redes sociales”. Esto puede empezar con democratizar los datos abiertos.

 

 

New article on #journalism, #comics, #data_activism and walks around a Barcelona in crisis

The process of hybridization has pervaded all fields of human communication; journalism and activism are no exceptions. An example is the graphic project Los vagabundos de la chatarra, an editorial undertaking that comprises observations, drawings, data, a map, a video and accounts of the people who gathered and sold scrap metal for a living on the edges of Barcelona during the economic crisis that started in 2007.
This new article –published by the Catalan Journal of Communication & Cultural Studies (CJCS)– explores Los vagabundos de la chatarra from the point of view of journalism studies, cómics and graphic novels and activism.
Figure 1
Los vagabundos de la chatarra is conducted and communicated in an extremely hybrid manner: it visualizes data on a map, it strives for social change, it is journalistic and it has a comic design face.
Relying on media literature and critical data studies, discourse analysis and qualitative interviewing, our article examines the multifaceted shapes that activism and journalism are taking in complex times and explores the potential for subversion that such formats offer. The findings suggest that activists and journalists around the world are embarking on unapologetic hybridization, crossing lines between journalism, campaigning and art.
Figure 2

Atakak: Diálogos para abrir gobiernos

Sin título

Este es un resumen me mi intervención esta mañana en #Atakak, encuentros organizados por Irekia en Hirikilabs (Tabakalera). El vídeo completo de todos los debates está aquí.

  • Miren, me gustaría preguntarte por este fenómeno #cuéntalo pero también entrar a hablar sobre el rol de las redes sociales como plataformas de movilización ciudadana.

Las redes sociales han sido y son fantásticas plataformas de movilización. Solo hay que recordar por ejemplo cómo se usaron ya en 2011 durante las movilizaciones del 15M.

A otra escala, Change.org (con 12 millones de usuarios/as en España) ha conseguido pequeñas y grandes victorias, desde lograr en 2013 cambiar la Ley de Espectáculos de la Comunidad de Madrid tras la tragedia del Madrid Arena y 426,000 firmas, a lograr fármacos o financiación para tratar e investigar sobre enfermedades poco conocidas. La liberación del activista chino Ai Weiwei en 2011 se atribuye también a una campaña parecida.

Pero por otro lado, las redes sociales son también canales en los que se mueven noticias falsas, se hacen linchamientos, se posturea y los trolls hacen de las suyas.

Es un tema complejo que incluye no solo la divulgación de información, falsa o no, sino también la recolección de datos por parte de las plataformas que facilitan estos intercambios. Las plataformas de redes sociales son operadas por empresas privadas cuyo principal objetivo es ganar dinero y hacer felices a sus accionistas, lo que no se traduce necesariamente en hacer felices a sus usuarios/as. Los bots y las interacciones tóxicas en las plataformas mejoran sus analíticas, por ejemplo.

  • El pasado 12 de abril, en Deusto Business School de Madrid, participaste en el encuentro “Datos para la transformación social” donde se analizaba cómo pueden los datos ayudar a una transformación social en favor de las personas y el medio ambiente. Hablemos de la colaboración con los Gobiernos. Cómo pueden aportar las Instituciones en esa transformación social? En qué situación estamos?

Precisamente en esa conferencia hablamos en profundidad de cómo la infraestructura de datos no solo puede ayudar a las organizaciones a impulsar el cambio social, sino cómo está transformando a las propias organizaciones del tercer sector. Tuvimos al jefe de investigaciones de Amnistía International, por ejemplo, que nos contó cómo su organización compagina metodologías analógicas, como la típica entrevista con testigos de abusos de derechos humanos, con tecnologías punta como imágenes y datos satelitales, drones, para denunciar cómo el ejercito se está apropiando de las tierras de los rohinyás en Mianmar.

Las instituciones son fundamentales. Creo que, por ejemplo, en el activismo de datos, los datos abiertos proporcionados por instituciones pueden actuar de catalizadores e impulsores de proyectos de datos. Entre otras cosas, ha aumentado la transparencia. Hay muchos proyectos que recurren a datos públicos.

Pero un gran reto es que la gente pueda no solo acceder a esos datos, sino a las tecnologías e infraestructuras que facilitan su análisis. Esta es una imagen tomada del mural que se hizo para resumir las conclusiones de la conferencia. Nosotros en Deusti tratamos de contribuir diseñando programas de formación que abordan estas necesidades.

  • Con toda tu experiencia en la gestión y comunicación de ONG internacionales, la pregunta que te quiero realizar es la misma. Me gustaría preguntar sobre el activismo de sillón.

Bueno, aquí me voy a colocar al otro lado de la pregunta. Hay mucho postureo en redes sociales y mucha superficialidad. Muchas personas ni se molestan en abrir los links asociados a mensajes en redes sociales antes de compartirlos. Se critica a Change.org y similares porque no requiere mucho esfuerzo de los clicktivistas.

Pero os propongo que ampliéis por un minuto la definición de “activista de sillón”. Muchas de las campañas e iniciativas que conozco se han hecho desde un sillón. Por poner un ejemplo, la organización Forensic Architecture, que en 2016 publicó un mapa interactivo en el que trazaba el rumbo de un barco en el que sesenta y tres refugiados perdieron la vida en 2011 mientras navegaban a la deriva en una zona muy vigilada del mar Mediterráneo. Ninguno de los que hicieron el mapa viajó a la zona.

El mapa visualiza datos públicos de los proveedores de datos satelitales del Sistema de Identificación Automática (SIA). Los buques de cierto tamaño deben lanzar regularmente señales SIA para evitar una colisión. Este mapa incluye señales SIA (que son públicas y se pueden comprar), señales de calor, señales de radar y otras tecnologías de vigilancia que registran el movimiento de barcos cercanos. También cuenta con los testimonios de los sobrevivientes.

Otro proyecto en el que he participado y que usa datos públicos es una investigación basada en las mismas tecnologías para crear un mapa en el que se muestra cómo barcos pesqueros, algunos de ellos europeos, operan de forma irregular en aguas africanas.

Se puede decir que ambas investigaciones se hicieron desde una silla. Sin embargo, no son menos valiosas. Los mejores resultados vienen de proyectos como los de Amnistía o Forensic Architexture; es decir mezclar métodos analógicos, tiene en cuenta el factor humano, con los digitales, que es otra de las conclusiones de la conferencia de Madrid donde tuvimos representates e organizaciones que financian estos proyectos, plataformas de visualización, periodistas de datos y activistas.

 

El perfil del analista de datos: Entrevista con El Indpendiente

Hoy hay publicado una entrevista con David García-Maroto (@David4210) que se ha publicado en El IndependienteHe subido a nuestro blog del Programa de Comunidación de Datos de Deusto la entrevista completa, por si alguien estuviera interesado/a.

Sin título.png

La conclusión es que hay mucho por hacer y que, aunque muchas organizaciones del tercer sector y centros de investigación han demostrado una enorme creatividad, como Forensic Architexture o el Overseas Development Institute, otras se están quedando a la zaga. Animo a todas a que exploren el mundo de los datos, que ni es super accesible ni tampoco solo para algunos/as privilegiados/as.

Agilidad, una propiedad del activismo de datos

Las comunidades generalemente saben muy bien cuáles son las soluciones a sus problemas, pero muchas veces carecen de los recursos para ponerlas en práctica. Cuando las comunidades cuentan con esos recursos, no se quedan esperando a ver si alguien las saca de apuros; son muy ágiles en implementarlas. Esta es parte de la charla que di en el Curso de Verano de 2017, y que había olvidado colgar en este sitio, invitada por Irekia.

En ella, hablaba de casos de activismo de datos –activismo que tiene como principal herramienta la infraestructura de datos– en los que comunidades, personas y organizaciones aplican el análisis y visualización de datos para resolver problemas. Asimismo, abordé cómo los datos abiertos pueden servir de catalizadores de proyectos con beneficios sociales.

El curso que se celebró en Donostia contí con la presencia de María Jesús Fernández Ruiz, directora de la sede electrónica del Ayuntamiento de Zaragoza, institución premiada por su labor en la apertura de datos; Clare Devaney, directora de Citizen-I, que habló sobre los retos de la innovación abierta desde su experiencia en la ciudad de Manchester; y Cristiano Ferri, responsable de Hack-Lab del Parlamento Federal de Brasil, que contó su caso, paradigmático a nivel mundial, sobre utilización de datos públicos en el ámbito legislativo.

 

Desmitificando los “big data”: diez cosas que hay que saber*

El término big data se escucha hasta en la sopa. Ahora resulta que todo es big data. Pero nada más lejos de la realidad; la mayor parte de las personas que manejan y analizan datos, emplean small data. Pero ¿qué los distingue? He aquí la lista de las diez que hay que saber sobre los big data.

  1. No todo son big data

La mayor parte de los/as profesionales que usan datos se basan en small data: datos que aparecen en un volumen y formato que los hacen utilizables y analizables. Los big data, en cambio, son tan enormes y complejos que no se pueden gestionar o analizar con métodos de procesamiento de datos tradicionales.  El análisis y procesamiento de los big data, sin embargo, puede producir small data. A la vez, los small datapueden hacerse más big cuando se funden, escalan e interrelacionan para crear bases de datos mayores.

  1. !Los big data son big!

Algunos definen los big data simplemente por su volumen: son tan grandes que solo se pueden extraer, gestionar, almacenar, analizar y visualizar usando infraestructuras y métodos especiales.  Vivimos en la era de los big data, que se miden, no en terabytes, sino en petabytes y exabytes (donde peta- denota un factor de 1015y exa- de 1018).

  1. Una definición de big data habla de…

una profusión de objetos digitales y contenido online generado por usuarios/as durante sus actividades digitales, interceptación masiva de interacciones y metadatos (es decir, los datos sobre los datos), así como producto de la dataficación de la actividad humana y no humana, que es tan grande, puede ser procesada con tal velocidad, es tan variada, tiene tanto potencial económico, y muestra tal nivel de exactitud y complejidad que puede ser considerada realmente grande, y por tanto solo puede ser analizada por nuevas infraestructuras y métodos.

  1. No existe el “dato crudo” u objetivo

Como ya dijo en 2013 Lisa Gitelman en su muy citado libro “Raw Data” Is an Oxymoron: afirmar que un dato está “crudo”, es decir, desprovisto de intención, parcialidad o prejuicios, es simplemente erróneo. Los datos no surgen de la nada. La recopilación de datos y metadatos es constante, subrepticia y abarcadora: cada clic  y cada “me gusta” son almacenados y analizados en alguna parte. Estos datos son de todo menos “crudos”; no debemos pensar en ellos como un recurso natural, sino como un recurso cultural que necesita ser generado, protegido e interpretado. Los datos son “cocinados” en los procesos de recolección y uso (procesos que, a la vez, son “cocinados”); y no todo puede ser, ni es, “reducido” a los datos o “dataficado”. Por tanto, los conjuntos de datos, por muy big que sean, pueden esconder errores, vacíos y arbitrariedades.

  1. Los datos no son el “nuevo petróleo”

Ya la comparación no es muy afortunada en los tiempos del cambio climático. Pero aunque el “valor” es una de las uves asociadas a los big data (junto con volumen, velocidad, variedad, veracidad y otras palabras que empiezan con uve), los datos no son valiosos en sí mismos; hay que transformarlos en utilizables, analizables y accionables para poder extraer valor de ellos. “Limpiar datos” desestructurados y desconectados (es decir, no comparables ni relacionables) es posiblemente la tarea más ardua y desagradecida en la gestión de datos. En resumidas cuentas: los datos son la base de la información, pero no son información.

  1. No se necesitan big data para hacer buenos análisis de datos

Ahora estudiosos y estudiosas, como Jennifer  Gabrys, Helen  Pritchard y Benjamin Barratt, hablan de datos “suficientemente buenos” (good enough data). Se refieren, por ejemplo, a datos generados por personas no expertas (crowdsourced data). Estos datos pueden ser la base de potentes proyectos como algunas de las aplicaciones de la plataforma Ushahidi que han servido para organizar ayuda humanitaria y asistir a víctimas en casos de conflicto armado y desastre. En estos casos, los datos proporcionados por la gente sobre una crisis se amasan, verifican y visualizan en mapas interactivos que están revolucionando la asistencia humanitaria.

  1. Todo el mundo miente…

Los big data pueden servir para hacer estudios enormemente iluminadores. Seth Stephens-Davidowitz acaba de publicar Everybody Lies. Este libro –subtitulado algo así como: “lo que internet puede decirnos acerca de quiénes somos realmente”— es una muestra de que cómo la gente miente en las encuestas y posturea en las redes sociales, mientras que se “desnuda” cuando hace búsquedas en internet. Basado en el análisis masivo de las búsquedas en Google, otras bases de datos y sitios web, Stephens-Davidowitz descubre que la gente es mucho más racista, machista e innoble de lo que piensa o admite. Y es que los chistes racistas aumentan alrededor del 30% en el Día de Martin Luther King en los Estados Unidos, y hacer promesas “es una señal segura de que alguien no hará algo”.

  1. Y no todo el mundo tiene acceso a los big data

¿Quiénes amasan big data? Sobre todo los gobiernos (desde datos macroeconómicos o demográficos hasta datos procedentes de la interceptación de comunicaciones y la vigilancia) y las grandes corporaciones. Las revelaciones de Snowden en 2013 mostraron, por ejemplo, que los servicios de inteligencia del gobierno estadounidense, con la colaboración empresas privadas y otros gobiernos, habían establecido una tupida capa de vigilancia e interceptación datos sobre las comunicaciones de millones de personas en todo el mundo. Cathy O’Neil, en su libro Weapons of Math Destruction, muestra cómo los programas basados en big data aumentan la eficiencia de “la publicidad predatoria” y socavan la democracia. Otros estudiosos, como Sandra Braman, Zeynep Tufekciy y Seeta Peña Gangadharan, hablan de cómo los gobiernos, con la connivencia de algunas empresas, hacer perfiles, discriminan a grupos vulnerables y potencian la vigilancia indiscriminada, omnipresente y preventiva.

Por otro lado, el movimiento open data hace campaña para que los datos públicos sean abiertos, accesibles y usables. Y muchos gobiernos, grandes y pequeños como por ejemplo Irekia, se han apuntado a  abrir los cofres de sus datos, y cada vez hay más presión para que este movimiento se extienda.

  1. Los datos, big o small, no son para todo el mundo

En un alarde de entusiasmo, Simon Rogers comparó en 2012 el análisis de datos con el punk: “cualquiera puede hacerlo”. Bueno…, pues no es así exactamente. No solamente los big data no están disponibles para cualquier punk, sino que, como Daniel Innerarity señala, las herramientas para convertirlos en analizables y útiles no están al alcance de cualquiera tampoco.

  1. Sin embargo, los datos tampoco son inaccesibles

Pero las barreras para acceder tanto a datos como a las herramientas para usarlos han ido cayendo en los últimos años. Forensic Architecture, con Amnistía Internacional, ha creado un modelo interactivo de la prisión más notoria de Siria utilizando los recuerdos de los sonidos de la cárcel narrados por supervivientes que habían sido retenidos en la oscuridad. El proyecto, llamado Saydnaya: Dentro de una prisión de tortura siria, tiene como objetivo mostrar las condiciones dentro de la prisión. Cuando los datos no están disponibles, hay organizaciones que los generan. WeRobotics pone en circulación “drones comunitarios” para captar datos sobre las condiciones de los glaciares en Nepal, por ejemplo, con el objeto de analizarlos y lanzar alarmas. InfoAmazonia, entre otras cosas, ha publicado un calendario que superpone el tiempo contado por los pueblos indígenas del Río Tiquié y el tiempo medido en el calendario gregoriano, en un diálogo que nunca tuvieron antes.

Más cerca, en nuestro entorno, estudiantes del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto publicaron este año un informe sobre basuras marinas a nivel estatal, en colaboración con la Asociación Ambiente Europeo, que tuvo repercusión en medios y generó un debate sobre los plásticos en el mar. La empresa Bunt Planet utiliza infraestructuras de datos para trazar redes eficientes e inteligentes. Y el centro de investigación DeustoTech aplica robótica y big data para diseñar la movilidad del futuro.

Cuesta adquirir las habilidades, pero programas como el nuestro están al alcance de quien quiere echarle ganas, tiene curiosidad y está abierto/a aprender.

Miren Gutiérrez

Directora del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto

 

*Este post es la versión completa de un artículo publicado en Noticias de Gipuzkoa.

Beginning of “data activism”

“Citizens’ Media Meets Big Data: The Emergence Of Data Activism” (Milan & Gutiérrez 2015) was the first study that, in 2015, labelled citizens’ engagement with the data infrastructure “data activism”. Since then, other authors and sites have started to deal with the issue from the same perspective. It was the beginning of an interesting conversation.

descarga.jpg

Other studies that specifically mention or use this pioneering study include:

  1. The Datafied Society- Studying Culture through Data  (Schäfer and van Es 2017): Alternative cartographies and bottom-up initiatives that reinstate what’s missing in big data are exemplary for how data-based initiatives can be appropriated for community advocacy, ‘civic action’ (Schäfer 2016), ‘agency’ (Kennedy, Poell & Van Dijck 2015) and ‘data activism’ (Milan & Gutiérrez 2015).
  2. “Technopolitics in the Age of Big Data: The Rise of Proactive Data Activism in Latin America” (Milan and Gutiérrez 2017): “We identify two forms of data activism: proactive data activism, whereby citizens take advantage of the possibilities offered by big data infrastructure for advocacy and social change, and reactive data activism, namely grassroots efforts aimed at resisting massive data collection and protecting users from malicious snooping” (Milan & Gutierrez, 2015).
  3. The Routledge Companion to Media and Activism: “And while critique is necessary, it is not sufficient: ‘Citizen [should] take a critical approach to big data, and appropriate and manipulate data for advocacy and social change” (Milan & Gutierrez, 2015).
  4. Big Data desde el sur: de los medios a las mediaciones, de la dataficación al activismo de datos: “Hace casi treinta años, el comunicólogo Colombiano-Español Jesús Martín-Barbero, nos urgió a trasladarnos ‘de los medios a las mediaciones’, esto es, de los análisis funcionalistas centrados en los medios, hacia la exploración de las prácticas diarias de apropiación de los medios a través de las cuales los actores sociales desarrollan su resistencia frente a la dominación y la hegemonía (1987). Sostenemos que, en el escenario actual, ha llegado la hora de trasladarnos de la dataficación al activismo de datos (Milan & Gutierrez, 2015), para examinar las diversas maneras en las que los ciudadanos y la sociedad civil organizada en el Sur Global se involucra en prácticas de datos horizontales en pro del cambio social, así como en la resistencia a los usos “oscuros” del big data, que incrementan la opresión y la desigualdad.”
  5. The materiality of data transparency and the (re)configuration of environmental activism in the Brazilian Amazon: “The critical literature on the epistemological and political aspects of data has been able to fruitfully highlight the limitations of the mainstream concepts concerning the role of (open) data in society (Milan, 2013; Milan & Gutierrez, 2015; Schrock & Shaffer, 2017).”
  6. Datafication & Discrimination Koen Leurs (Utrecht University) & Tamara Shepherd (University of Calgary): “Alternative cartographies and bottom-up initiatives that reinstate what’s missing in Big Data are exemplary for how data-based initiatives can be appropriated for community advocacy, “civic action” (Schäfer, 2016), “agency” (Kennedy, Poell and Van Dijck, 2015), and “data activism” (Milan & Gutiérrez, 2015).”
  7. ¿Tecnologías para la transformación? Los medios sociales ante el cambio político y social: “En este sentido, la ciudadanía puede empoderarse en las redes digitales, entendiendo este proceso como el desarrollo de la capacidad de participar activamente y controlar su actividad comunicativa, tanto en la producción
    como en la distribución y el consumo (Milan & Gutiérrez, 2015).”
  8. Big Data from the South: From media to mediations, from datafication to data activism: “We argue that in the present scenario it is about time to move from datafication to data activism (Milan & Gutierrez, 2015), and examine the diverse ways through which citizens and the organized civil society in the Global South engage in bottom-up data practices for social change as well as resistance to “dark” uses of big data that increase oppression and inequality.
  9. Postcolonial Mediations: However, this chapter highlights data-based initiatives can be appropriated for community advocacy, “civic action” (Schäfer, 2016), “agency” (Kennedy, Poell and Van Dijck, 2015), and “data activism” (Milan & Gutiérrez, 2015).
  10. Sistema de Información para la incursión al Periodismo de Datos: “Vivimos en una era en la que estamos rodeados de datos, cada segundo generamos datos, como en sensores aéreos, aparatos móviles, lectores de identificación de radio frecuencia, etc. (Milan & Gutiérrez, 2015).”
  11. What does the term data activism refer to, exactly? Is it activism focused on data, or using data for activism? “Data activism can be defined as ‘new social practices rooted in technology and data’, which ‘take a critical approach to big data’ and use digital technology and data politically and proactively to foster social change (Milan and Gutierrez 2015, 125). Proactive data activism is an ‘emerging’ phenomenon in the ‘field of action’ that combines ‘communicative practices’, technology and information ‘at its outermost complexity’ (that is, big data), and ‘collective organising’ (ibid., 133).”
  12. Data Activism in Light of the Public Sphere: “Data activism involves a series of practices ‘at the intersection of the social and the technological dimension of human action,’ aiming at either ‘resisting massive data collection,’ in the case of reactive data activists, or ‘actively pursuing the exploitation of available data for social change,’ in the case of proactive data activists (Milan and Gutiérrez 2015, 127).”

  13. Dataviz: A package of domain-specific visualizations and languages for the Pharo live coding environment: “Dataviz is a companion package for Grafoscopio (Luna Cárdenas 2014) that puts together several examples of Domain Specific Visualizations and Domain Specific Languages (DSV, DSL, respectively) developed with the Roassal agile visualization engine (Bergel 2016) in the fields of data activism (Milan and Gutiérrez 2015), civic hacking (Schrock 2016).”
  14. Tesis de grado en opción al título de Ingeniero Industrial: “Big Data son también los procesos de indexación de lasactividades en internet y los metadatos resultantes de la vigilancia digital de los gobiernos. Finalmente, son el resultado del proceso de “datificación”, es decir, la habilidad de convertir en datos muchos aspectos de la realidad que nunca habían sido cuantificados antes. (Milan and Gutiérrez, 2015).”