Playing with data and its consequences

Stefania Milan and I have just published a new article at First Monday about the consequences of “playing with data” for activists. Check it out.

Abstract:

The fundamental paradigm shift brought about by datafication alters how people participate as citizens on a daily basis. “Big data” has come to constitute a new terrain of engagement, which brings organized collective action, communicative practices and data infrastructure into a fruitful dialogue. While scholarship is progressively acknowledging the emergence of bottom-up data practices, to date no research has explored the influence of these practices on the activists themselves. Leveraging the disciplines of critical data and social movement studies, this paper explores “proactive data activism”, using, producing and/or appropriating data for social change, and examines its biographical, political, tactical and epistemological consequences. Approaching engagement with data as practice, this study focuses on the social contexts in which data are produced, consumed and circulated, and analyzes how tactics, skills and emotions of individuals evolve in interplay with data. Through content and co-occurrence analysis of semi-structured practitioner interviews (N=20), the article shows how the employment of data and data infrastructure in activism fundamentally transforms the way activists go about changing the world.

Manual de fake news (III): El papel del periodismo y los medios

Algunos han olvidado que el y la periodista es la persona que vive, aplica y comparte los principios del periodismo, que, como Kovach y Rosenstiel establecieron, tiene como primera obligación la verdad, debe lealtad ante todo a la ciudadanía, mantiene su independencia frente a sus fuentes, ejerce un control independiente del poder y en su trabajo aplica el método de la verificación. Todo lo demás simplemente no es periodismo.

El periodismo es un sistema que las sociedades democráticas han creado para suministrar información veraz y relevante a la gente, generar debate y controlar al poder. Por eso habría que distinguir entre periodistas y sus imitadores e imitadoras. Esto es especialmente importante hoy porque los niveles de confianza en las instituciones europeas, especialmente en las periodísticas, es muy bajo. El índice de confianza Edelman de 2018 indica que,  en España, entre el 76 y el 80% de las personas temen que las noticias falsas se usen como “armas”, el nivel más alto en el mundo. En este índice, los medios de información están entre las instituciones que inspiran más desconfianza. Pero no todos los medios deberían experimentar el mismo descrédito porque no todos son iguales.

Hay medios periodísticos que se afanan por presentar los hechos de la manera más independiente y relevante posible. Por ejemplo,  Independent desacreditó unas fotografías que circularon por redes sociales que trataban de hacer pasar a manifestantes enfrentados en una protesta anti-Islam en Alemania en 2012 como refugiados radicalizados en Gran Bretaña en 2015. Diversos medios en nuestro entorno han establecido unidades, secciones o programas de factchecking, incluidos  “El Objetivo” (La Sexta),  “La Chistera” (El Confidencial),  “Verdad o Mentira” (InfoLibre),  Maldito Bulo y  “El Cazabulos” (eldiario.es) .

En español existen más iniciativas, incluidas  La Silla Vacía  (Colombia),  Detector de Mentiras (Estados Unidos),  Con Pruebas (Guatemala),  El Sabueso (México),  El Medio (Oriente Medio) y  Ojo Público (Perú). A nivel global, existe una asociación, la International Fact Checking Netwrok (IFCN), a la que pertenecen medios como The Washington Post y Le Monde y  Politifact  (creado por Tampa Bay Times y recientemente adquirido por el Instituto Poynter).

Algunos medios convencionales han dicho que ellos no establecen unidades de factchecking porque la verificación de hechos es, en realidad, parte del método periodístico y se debe aplicar a cualquier noticia. Sin embargo, la diferencia con estas iniciativas es que estas establecen espacios especializados en los que las mentiras se desmontan explícitamente una por una.

La preocupación por la desinformación toma más formas

Un  informe de Reuters revela, por ejemplo, que el crecimiento de las redes sociales para noticias se está ralentizando en algunos mercados y que las aplicaciones de mensajería se están volviendo más populares por ser más privadas y tender a no filtrar el contenido algorítmicamente. Según este estudio, el uso de WhatsApp para noticias está comenzando a competir con Facebook en varios mercados, entre ellos Malasia (51%), Brasil (46%) y España (32%). Además, solo una cuarta parte (24%) de las personas encuestadas piensa que las redes sociales hacen un buen trabajo al separar los hechos de la ficción.

De acuerdo con un reciente artículo de Bella Palomo y Jon Sedano, adoptar WhatsApp como herramienta de comunicación permite a los medios incrementar cualitativamente las fuentes disponibles y su tráfico, e incluso involucrar a los distintos públicos en tareas de verificación. La creación de la sección “B de Bulo” en el periódico Sur, usando WhatsApp como medio de comunicación, resultó en una mejora de la relación entre la redacción y sus públicos, dicen Palomo y Sedano. Otros medios, como Madito Bulo, tienen servicios de WhatsApp.

La encuesta de Reuters da un dato preocupante: casi un tercio de la muestra (29%) dice que a menudo o a veces evita las noticias. Es decir, no solamente los algoritmos nos encierran en pequeñas burbujas de información, también hay una parte de la población que se excluye conscientemente.

Otro problema es que los desmentidos de estas iniciativas de factchecking no tienen casi nunca el mismo eco que los propios bulos. Si la información veraz no se comparte de la misma manera que la falsedad viral, su daño no se puede contrarrestar realmente por muchas unidades de factcheckers que se funden; siempre irán por detrás.

El periodismo, sin embargo, también puede instigar e inspirar un debate sobre el papel de los y las periodistas, así como el de las plataformas, la ciudadanía, la regulación y la gobernanza de Internet. El papel del periodismo nunca ha sido más relevante.

Agilidad, una propiedad del activismo de datos

Las comunidades generalemente saben muy bien cuáles son las soluciones a sus problemas, pero muchas veces carecen de los recursos para ponerlas en práctica. Cuando las comunidades cuentan con esos recursos, no se quedan esperando a ver si alguien las saca de apuros; son muy ágiles en implementarlas. Esta es parte de la charla que di en el Curso de Verano de 2017, y que había olvidado colgar en este sitio, invitada por Irekia.

En ella, hablaba de casos de activismo de datos –activismo que tiene como principal herramienta la infraestructura de datos– en los que comunidades, personas y organizaciones aplican el análisis y visualización de datos para resolver problemas. Asimismo, abordé cómo los datos abiertos pueden servir de catalizadores de proyectos con beneficios sociales.

El curso que se celebró en Donostia contí con la presencia de María Jesús Fernández Ruiz, directora de la sede electrónica del Ayuntamiento de Zaragoza, institución premiada por su labor en la apertura de datos; Clare Devaney, directora de Citizen-I, que habló sobre los retos de la innovación abierta desde su experiencia en la ciudad de Manchester; y Cristiano Ferri, responsable de Hack-Lab del Parlamento Federal de Brasil, que contó su caso, paradigmático a nivel mundial, sobre utilización de datos públicos en el ámbito legislativo.

 

Desmitificando los “big data”: diez cosas que hay que saber*

El término big data se escucha hasta en la sopa. Ahora resulta que todo es big data. Pero nada más lejos de la realidad; la mayor parte de las personas que manejan y analizan datos, emplean small data. Pero ¿qué los distingue? He aquí la lista de las diez que hay que saber sobre los big data.

  1. No todo son big data

La mayor parte de los/as profesionales que usan datos se basan en small data: datos que aparecen en un volumen y formato que los hacen utilizables y analizables. Los big data, en cambio, son tan enormes y complejos que no se pueden gestionar o analizar con métodos de procesamiento de datos tradicionales.  El análisis y procesamiento de los big data, sin embargo, puede producir small data. A la vez, los small datapueden hacerse más big cuando se funden, escalan e interrelacionan para crear bases de datos mayores.

  1. !Los big data son big!

Algunos definen los big data simplemente por su volumen: son tan grandes que solo se pueden extraer, gestionar, almacenar, analizar y visualizar usando infraestructuras y métodos especiales.  Vivimos en la era de los big data, que se miden, no en terabytes, sino en petabytes y exabytes (donde peta- denota un factor de 1015y exa- de 1018).

  1. Una definición de big data habla de…

una profusión de objetos digitales y contenido online generado por usuarios/as durante sus actividades digitales, interceptación masiva de interacciones y metadatos (es decir, los datos sobre los datos), así como producto de la dataficación de la actividad humana y no humana, que es tan grande, puede ser procesada con tal velocidad, es tan variada, tiene tanto potencial económico, y muestra tal nivel de exactitud y complejidad que puede ser considerada realmente grande, y por tanto solo puede ser analizada por nuevas infraestructuras y métodos.

  1. No existe el “dato crudo” u objetivo

Como ya dijo en 2013 Lisa Gitelman en su muy citado libro “Raw Data” Is an Oxymoron: afirmar que un dato está “crudo”, es decir, desprovisto de intención, parcialidad o prejuicios, es simplemente erróneo. Los datos no surgen de la nada. La recopilación de datos y metadatos es constante, subrepticia y abarcadora: cada clic  y cada “me gusta” son almacenados y analizados en alguna parte. Estos datos son de todo menos “crudos”; no debemos pensar en ellos como un recurso natural, sino como un recurso cultural que necesita ser generado, protegido e interpretado. Los datos son “cocinados” en los procesos de recolección y uso (procesos que, a la vez, son “cocinados”); y no todo puede ser, ni es, “reducido” a los datos o “dataficado”. Por tanto, los conjuntos de datos, por muy big que sean, pueden esconder errores, vacíos y arbitrariedades.

  1. Los datos no son el “nuevo petróleo”

Ya la comparación no es muy afortunada en los tiempos del cambio climático. Pero aunque el “valor” es una de las uves asociadas a los big data (junto con volumen, velocidad, variedad, veracidad y otras palabras que empiezan con uve), los datos no son valiosos en sí mismos; hay que transformarlos en utilizables, analizables y accionables para poder extraer valor de ellos. “Limpiar datos” desestructurados y desconectados (es decir, no comparables ni relacionables) es posiblemente la tarea más ardua y desagradecida en la gestión de datos. En resumidas cuentas: los datos son la base de la información, pero no son información.

  1. No se necesitan big data para hacer buenos análisis de datos

Ahora estudiosos y estudiosas, como Jennifer  Gabrys, Helen  Pritchard y Benjamin Barratt, hablan de datos “suficientemente buenos” (good enough data). Se refieren, por ejemplo, a datos generados por personas no expertas (crowdsourced data). Estos datos pueden ser la base de potentes proyectos como algunas de las aplicaciones de la plataforma Ushahidi que han servido para organizar ayuda humanitaria y asistir a víctimas en casos de conflicto armado y desastre. En estos casos, los datos proporcionados por la gente sobre una crisis se amasan, verifican y visualizan en mapas interactivos que están revolucionando la asistencia humanitaria.

  1. Todo el mundo miente…

Los big data pueden servir para hacer estudios enormemente iluminadores. Seth Stephens-Davidowitz acaba de publicar Everybody Lies. Este libro –subtitulado algo así como: “lo que internet puede decirnos acerca de quiénes somos realmente”— es una muestra de que cómo la gente miente en las encuestas y posturea en las redes sociales, mientras que se “desnuda” cuando hace búsquedas en internet. Basado en el análisis masivo de las búsquedas en Google, otras bases de datos y sitios web, Stephens-Davidowitz descubre que la gente es mucho más racista, machista e innoble de lo que piensa o admite. Y es que los chistes racistas aumentan alrededor del 30% en el Día de Martin Luther King en los Estados Unidos, y hacer promesas “es una señal segura de que alguien no hará algo”.

  1. Y no todo el mundo tiene acceso a los big data

¿Quiénes amasan big data? Sobre todo los gobiernos (desde datos macroeconómicos o demográficos hasta datos procedentes de la interceptación de comunicaciones y la vigilancia) y las grandes corporaciones. Las revelaciones de Snowden en 2013 mostraron, por ejemplo, que los servicios de inteligencia del gobierno estadounidense, con la colaboración empresas privadas y otros gobiernos, habían establecido una tupida capa de vigilancia e interceptación datos sobre las comunicaciones de millones de personas en todo el mundo. Cathy O’Neil, en su libro Weapons of Math Destruction, muestra cómo los programas basados en big data aumentan la eficiencia de “la publicidad predatoria” y socavan la democracia. Otros estudiosos, como Sandra Braman, Zeynep Tufekciy y Seeta Peña Gangadharan, hablan de cómo los gobiernos, con la connivencia de algunas empresas, hacer perfiles, discriminan a grupos vulnerables y potencian la vigilancia indiscriminada, omnipresente y preventiva.

Por otro lado, el movimiento open data hace campaña para que los datos públicos sean abiertos, accesibles y usables. Y muchos gobiernos, grandes y pequeños como por ejemplo Irekia, se han apuntado a  abrir los cofres de sus datos, y cada vez hay más presión para que este movimiento se extienda.

  1. Los datos, big o small, no son para todo el mundo

En un alarde de entusiasmo, Simon Rogers comparó en 2012 el análisis de datos con el punk: “cualquiera puede hacerlo”. Bueno…, pues no es así exactamente. No solamente los big data no están disponibles para cualquier punk, sino que, como Daniel Innerarity señala, las herramientas para convertirlos en analizables y útiles no están al alcance de cualquiera tampoco.

  1. Sin embargo, los datos tampoco son inaccesibles

Pero las barreras para acceder tanto a datos como a las herramientas para usarlos han ido cayendo en los últimos años. Forensic Architecture, con Amnistía Internacional, ha creado un modelo interactivo de la prisión más notoria de Siria utilizando los recuerdos de los sonidos de la cárcel narrados por supervivientes que habían sido retenidos en la oscuridad. El proyecto, llamado Saydnaya: Dentro de una prisión de tortura siria, tiene como objetivo mostrar las condiciones dentro de la prisión. Cuando los datos no están disponibles, hay organizaciones que los generan. WeRobotics pone en circulación “drones comunitarios” para captar datos sobre las condiciones de los glaciares en Nepal, por ejemplo, con el objeto de analizarlos y lanzar alarmas. InfoAmazonia, entre otras cosas, ha publicado un calendario que superpone el tiempo contado por los pueblos indígenas del Río Tiquié y el tiempo medido en el calendario gregoriano, en un diálogo que nunca tuvieron antes.

Más cerca, en nuestro entorno, estudiantes del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto publicaron este año un informe sobre basuras marinas a nivel estatal, en colaboración con la Asociación Ambiente Europeo, que tuvo repercusión en medios y generó un debate sobre los plásticos en el mar. La empresa Bunt Planet utiliza infraestructuras de datos para trazar redes eficientes e inteligentes. Y el centro de investigación DeustoTech aplica robótica y big data para diseñar la movilidad del futuro.

Cuesta adquirir las habilidades, pero programas como el nuestro están al alcance de quien quiere echarle ganas, tiene curiosidad y está abierto/a aprender.

Miren Gutiérrez

Directora del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto

 

*Este post es la versión completa de un artículo publicado en Noticias de Gipuzkoa.

“Archives sauvages : construction de contre-récits, cartographie radicale et infrastructures de données”

Hace poco estuve dando una charla en Centre d’études ibériques et ibéro-américaines, de la Université Toulouse Jean Jaurès. No es muy frecuente que me inviten a hablar a historiadores/as y expertos/as en literatura y cultura, pero fue una experiencia muy interesante. Mi charla se tituló “Archives sauvages : construction de contre-récits,
cartographie radicale et infrastructures de données”. Al principio hubo muchas caras raras, pero conforme empezamos a hablar de cómo la infrastructura de datos y otras tecnologías se están aplicando a estudiar archivos antiguos, el ambiente se fue caldeando.

IMG_3175.jpg

Un ejemplo es la edición en coreano del siglo XIII del canon budista, incluye 52 millones de caracteres distribuidos en 166.000 páginas. Examinado con métodos tradicionales, historiadores e historiadoras tenían que recurrir al análisis selectivo de fragmentos, con lo que se llegaba a conclusiones “sin tener una idea integral” del todo (Lancaster 2010). Esta forma de trabajar en la investigación académica ha hecho que el conocimiento haya estado “determinado y limitado por externalidades como el acceso, la disponibilidad y el tamaño del material” (ibíd.). Hoy en día la infraestructura de datos permite el estudio integral con enorme precisión de casi cualquier corpus documental digitalizado; e impulsa un cambio en la investigación, en la que ahora cobra mucha más importancia la validación de las fuentes, la generación de una “hermenéutica de datos” y las formas de comunicar conocimiento (Sapping Atenttion, 2012). Con las nuevas herramientas digitales, ahora se pueden generar búsquedas que exploren la evolución de un glifo en el tiempo escrutando un documento complejo y extenso como el canon budista en su totalidad.

Sin título.png

Del canon budista pasamos a mapas de barcos. Un mapa generado por un equipo de historiografía que muestra las travesías de los balleneros norteamericanos del siglo XIX durante 25 años (de 1830 a 1855), basado en las bitácoras del teniente Matthew Maury (ver https://www.youtube.com/watch?v=Tn7fQ5mYHPA). Y de ahí a muchas otras cosas que nos duraron las dos horas de la charla más dos más de la comida. 😉

Fishing for data: the role of private data platforms in addressing illegal, unreported and unregulated fishing and overfishing

Cover Fishing for DataBriefing papers

December 2017
Miren Gutierrez, Alfonso Daniels and Guy Jobbins

New technologies offer unique opportunities to support fisheries monitoring, control and surveillance, particularly for countries without the means to patrol their waters or enforce legislation against illegal, unreported and unregulated (IUU) fishing and overfishing.

This briefing note highlights how developed countries and multilateral organisations have been slow to exploit these opportunities, and have failed to produce a single, effective, public global fisheries information tool. Although private initiatives tackling overfishing and IUU fishing using satellite and data technologies have emerged in recent years to bridge this gap, but their potential is undermined by the limited size and insufficient quality of their datasets. Better data management and closer collaboration between these initiatives are needed, alongside improved fisheries governance and greater efforts to tackle corruption and curtail practices including the use of flags of convenience and secret fisheries agreements.

DESMITIFICANDO LOS “BIG DATA”: DIEZ COSAS QUE HAY QUE SABER*

  1. No todo son big data

La mayor parte de los/as profesionales que usan datos se basan en small data: datos que aparecen en un volumen y formato que los hacen utilizables y analizables. Los big data, en cambio, son tan enormes y complejos que no se pueden gestionar o analizar con métodos de procesamiento de datos tradicionales.  El análisis y procesamiento de los big data, sin embargo, puede producir small data. A la vez, los small datapueden hacerse más big cuando se funden, escalan e interrelacionan para crear bases de datos mayores.

  1. !Los big data son big!

Algunos definen los big data simplemente por su volumen: son tan grandes que solo se pueden extraer, gestionar, almacenar, analizar y visualizar usando infraestructuras y métodos especiales.  Vivimos en la era de los big data, que se miden, no en terabytes, sino en petabytes y exabytes (donde peta- denota un factor de 1015y exa- de 1018).

  1. Una definición de big data habla de…

una profusión de objetos digitales y contenido online generado por usuarios/as durante sus actividades digitales, interceptación masiva de interacciones y metadatos (es decir, los datos sobre los datos), así como producto de la dataficación de la actividad humana y no humana, que es tan grande, puede ser procesada con tal velocidad, es tan variada, tiene tanto potencial económico, y muestra tal nivel de exactitud y complejidad que puede ser considerada realmente grande, y por tanto solo puede ser analizada por nuevas infraestructuras y métodos.

  1. No existe el “dato crudo” u objetivo

Como ya dijo en 2013 Lisa Gitelman en su muy citado libro “Raw Data” Is an Oxymoron: afirmar que un dato está “crudo”, es decir, desprovisto de intención, parcialidad o prejuicios, es simplemente erróneo. Los datos no surgen de la nada. La recopilación de datos y metadatos es constante, subrepticia y abarcadora: cada clic  y cada “me gusta” son almacenados y analizados en alguna parte. Estos datos son de todo menos “crudos”; no debemos pensar en ellos como un recurso natural, sino como un recurso cultural que necesita ser generado, protegido e interpretado. Los datos son “cocinados” en los procesos de recolección y uso (procesos que, a la vez, son “cocinados”); y no todo puede ser, ni es, “reducido” a los datos o “dataficado”. Por tanto, los conjuntos de datos, por muy big que sean, pueden esconder errores, vacíos y arbitrariedades.

  1. Los datos no son el “nuevo petróleo”

Ya la comparación no es muy afortunada en los tiempos del cambio climático. Pero aunque el “valor” es una de las uves asociadas a los big data (junto con volumen, velocidad, variedad, veracidad y otras palabras que empiezan con uve), los datos no son valiosos en sí mismos; hay que transformarlos en utilizables, analizables y accionables para poder extraer valor de ellos. “Limpiar datos” desestructurados y desconectados (es decir, no comparables ni relacionables) es posiblemente la tarea más ardua y desagradecida en la gestión de datos. En resumidas cuentas: los datos son la base de la información, pero no son información.

  1. No se necesitan big data para hacer buenos análisis de datos

Ahora estudiosos y estudiosas, como Jennifer  Gabrys, Helen  Pritchard y Benjamin Barratt, hablan de datos “suficientemente buenos” (good enough data). Se refieren, por ejemplo, a datos generados por personas no expertas (crowdsourced data). Estos datos pueden ser la base de potentes proyectos como algunas de las aplicaciones de la plataforma Ushahidi que han servido para organizar ayuda humanitaria y asistir a víctimas en casos de conflicto armado y desastre. En estos casos, los datos proporcionados por la gente sobre una crisis se amasan, verifican y visualizan en mapas interactivos que están revolucionando la asistencia humanitaria.

  1. Todo el mundo miente…

Los big data pueden servir para hacer estudios enormemente iluminadores. Seth Stephens-Davidowitz acaba de publicar Everybody Lies. Este libro –subtitulado algo así como: “lo que internet puede decirnos acerca de quiénes somos realmente”— es una muestra de que cómo la gente miente en las encuestas y posturea en las redes sociales, mientras que se “desnuda” cuando hace búsquedas en internet. Basado en el análisis masivo de las búsquedas en Google, otras bases de datos y sitios web, Stephens-Davidowitz descubre que la gente es mucho más racista, machista e innoble de lo que piensa o admite. Y es que los chistes racistas aumentan alrededor del 30% en el Día de Martin Luther King en los Estados Unidos, y hacer promesas “es una señal segura de que alguien no hará algo”.

  1. Y no todo el mundo tiene acceso a los big data

¿Quiénes amasan big data? Sobre todo los gobiernos (desde datos macroeconómicos o demográficos hasta datos procedentes de la interceptación de comunicaciones y la vigilancia) y las grandes corporaciones. Las revelaciones de Snowden en 2013 mostraron, por ejemplo, que los servicios de inteligencia del gobierno estadounidense, con la colaboración empresas privadas y otros gobiernos, habían establecido una tupida capa de vigilancia e interceptación datos sobre las comunicaciones de millones de personas en todo el mundo. Cathy O’Neil, en su libro Weapons of Math Destruction, muestra cómo los programas basados en big data aumentan la eficiencia de “la publicidad predatoria” y socavan la democracia. Otros estudiosos, como Sandra Braman, Zeynep Tufekciy y Seeta Peña Gangadharan, hablan de cómo los gobiernos, con la connivencia de algunas empresas, hacer perfiles, discriminan a grupos vulnerables y potencian la vigilancia indiscriminada, omnipresente y preventiva.

Por otro lado, el movimiento open data hace campaña para que los datos públicos sean abiertos, accesibles y usables. Y muchos gobiernos, grandes y pequeños como por ejemplo Irekia, se han apuntado a  abrir los cofres de sus datos, y cada vez hay más presión para que este movimiento se extienda.

  1. Los datos, big o small, no son para todo el mundo

En un alarde de entusiasmo, Simon Rogers comparó en 2012 el análisis de datos con el punk: “cualquiera puede hacerlo”. Bueno…, pues no es así exactamente. No solamente los big data no están disponibles para cualquier punk, sino que, como Daniel Innerarity señala, las herramientas para convertirlos en analizables y útiles no están al alcance de cualquiera tampoco.

  1. Sin embargo, los datos tampoco son inaccesibles

Pero las barreras para acceder tanto a datos como a las herramientas para usarlos han ido cayendo en los últimos años. Forensic Architecture, con Amnistía Internacional, ha creado un modelo interactivo de la prisión más notoria de Siria utilizando los recuerdos de los sonidos de la cárcel narrados por supervivientes que habían sido retenidos en la oscuridad. El proyecto, llamado Saydnaya: Dentro de una prisión de tortura siria, tiene como objetivo mostrar las condiciones dentro de la prisión. Cuando los datos no están disponibles, hay organizaciones que los generan. WeRobotics pone en circulación “drones comunitarios” para captar datos sobre las condiciones de los glaciares en Nepal, por ejemplo, con el objeto de analizarlos y lanzar alarmas. InfoAmazonia, entre otras cosas, ha publicado un calendario que superpone el tiempo contado por los pueblos indígenas del Río Tiquié y el tiempo medido en el calendario gregoriano, en un diálogo que nunca tuvieron antes.

Más cerca, en nuestro entorno, estudiantes del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto publicaron este año un informe sobre basuras marinas a nivel estatal, en colaboración con la Asociación Ambiente Europeo, que tuvo repercusión en medios y generó un debate sobre los plásticos en el mar. La empresa Bunt Planet utiliza infraestructuras de datos para trazar redes eficientes e inteligentes. Y el centro de investigación DeustoTech aplica robótica y big data para diseñar la movilidad del futuro.

Cuesta adquirir las habilidades, pero programas como el nuestro están al alcance de quien quiere echarle ganas, tiene curiosidad y está abierto/a aprender.

Miren Gutiérrez

Directora del Programa universitario de postgrado “Análisis, investigación y comunicación de datos” de la Universidad de Deusto

 

*Este post es la versión completa de un artículo publicado en Noticias de Gipuzkoa.

“Big data” para estudiar “big fish”: Nuevo informe visualiza prácticas irregulares de pesca en África Occidental.

Miren Gutiérrez.- Un nuevo informe del Overseas Development Instute, el mayor centro de investigación de temas relacionados con el desarrollo de Reino Unido, y porCausa, una organización española especializada en periodismo de investigación, proporciona pruebas de prácticas que comprometen la eficacia del sistema de gobernanza multilateral diseñado para acabar con la pesca ilegal.

La sobrepesca amenaza con llegar a límites catastróficos, especialmente en África Occidental, y la pesca ilegal, no declarada y no reglamentada contribuye enormemente a la sobrepesca. En la región costera que va solo de Senegal a Nigeria, se calcula que el 50% por los recursos pesqueros están sobrexplotados, y que un tercio de ello se debe a la pesca ilegal.

Parte de las conclusiones del informe incluyen un cálculo de los puestos de trabajo que se podrían haber creado de explotarse los recursos pesqueros por empresas y comunidades de la misma región: más de 300.000 en los países costeros del África Occidental desde Marruecos a Sudáfrica.

tribuna miren 1

Esto es de enorme relevancia, ya que en muchas ocasiones las flotas extranjeras que faenan en estas aguas lo hacen bajo acuerdos, frecuentemente opacos, por los que pagan muy poco. Ejemplos de ello son los acuerdos de Mauritania con las flotas china, surcoreana y rusa.

De hecho, según FAO, los ingresos por derechos de pesca en estos países rondan los 400 millones de dólares, mientras que investir en el sector pesquero podría generar 3,3 billones de dólares

El segundo descubrimiento surge directamente de la visualización de las señales que emitieron los 35 reefers –enormes buques de carga congeladores— que operaron en la región durante 2013. Por ejemplo, se ve claramente que algunos de ellos pudieron haber contribuido a la pesca ilegal en las zonas económicas exclusivas de Senegal y Costa de Marfil, donde el trasbordo de pescado está prohibido.

tribuna 2 miren

Una peculiaridad del informe es que utiliza por primera vez tecnologías big data para interrogar a una enorme base de datos –la mayor del mundo dedicada a barcos pesqueros, que está en manos de la empresa FishSpektrum—, y para comunicar y visualizar los resultados de dicha investigación. Así quedan en evidencia comportamientos sospechosos que muestran un patrón movimientos errático o en zigzag, típico de los reefers que están a la búsqueda de barcos pesqueros con las bodegas llenas que deseen deshacerse de su pescado para seguir faenando.

La práctica del transbordo de pescado en las zonas exclusivas es muy común, pero hay mucha presión política y de grupos de campaña para que se prohíba cuando no puede ser supervisada por observadores a bordo de los reefers por ser un verdadero “coladero” de pesca ilegal. La Unión Europea, por ejemplo, veda la entrada de pescado transbordado por barcos con bandera de cualquier país de la Unión.

Además de las organizaciones mencionadas arriba, FishSpektrum proporciona la base de datos y la metodología para el informe, mientras que CartoDB aporta las herramientas visuales para que esta información se muestre en forma de mapas interactivos en los que se pueden ver, literalmente, dichas prácticas.

Finalmente, otro hallazgo importante es el hecho de que cuatro quintos de todo el pescado que sale de la región lo hace a bordo de contenedores, y no de reefers, que hasta hace poco eran el principal método de transporte de pescado. Esto es de vital relevancia, dado que los contenedores no están sujetos al mismo escrutinio que los reefers por la legislación anti pesca ilegal de la Unión Europea –a donde van a parar el 44% de las exportaciones totales de la región.

De hecho, la Unión Europea solo interceptó 26 envíos de pescado contenerizado procedentes de todo el mundo en 2012, otros 75 en 2013 y otros 33 en 2014, que sumaban unas 8.000 toneladas métricas de pescado, lo que constituye una fracción de lo que entra en Europa.

Las conclusiones del informe abarcan una serie de recomendaciones, que incluyen, además de la prohibición de los transbordos sin observadores, el establecimiento de un registro único y seguimiento para barcos pesqueros, un acuerdo global para considerar la pesca ilegal como un crimen transnacional, total trasparencia en los acuerdos pesqueros, y la ratificación y implementación del Acuerdo sobre medidas del Estado rector del puerto destinadas a prevenir la pesca ilegal de la FAO, entre otras medidas.

(*) Miren Gutiérrez
Research Associate

Climate and Environment Programme
Overseas Development Institute (ODI)

La Unión Europea, cómplice del saqueo de los mares africanos

Una investigación del Overseas Development Institute y de la fundación PorCausa denuncia que la deficiente normativa de la UE socava las iniciativas para frenar la pesca ilegal

Las iniciativas para evitar el saqueo de las aguas de África Occidental, ricas en recursos pesqueros, están abocadas a fracasar si no se reforma la deficiente normativa de la Unión Europea (UE) y se prohíbe la transferencia de capturas en alta mar, según explica un nuevo informe del Overseas Development Institute (ODI), el mayor centro de estudios sobre desarrollo de Reino Unido, y la organización española de periodismo de investigación porCausa.

303510646_6846c8b143_b.jpg

El informe, titulado Western Africa’s missing fish (La pesca perdida de África Occidental), denuncia que la pesca ilegal, no declarada y no reglamentada (INDNR) está en el centro de una crisis de sostenibilidad que en ninguna parte del mundo es tan visible como en África Occidental. Las tasas actuales de extracción están llevando a varias especies hacia la extinción, al mismo tiempo que ponen en peligro los medios de subsistencia de las comunidades locales que dependen de la pesca para su supervivencia en países como Ghana, Liberia, Mauritania, Senegal y Sierra Leona.

En 2011, la Organización de las Naciones Unidas para la Agricultura y la Alimentación (FAO) estimó que más de la mitad de los caladeros del litoral africano, solamente entre Senegal y Nigeria, han sido objeto de sobreexplotación. Se considera que entre un tercio y la mitad de las capturas proceden de pesca INDNR.

La presentación del documento tuvo lugar el lunes 4 de julio y en ella participaron Alfonso Daniels, Miren Gutiérrez y Gonzalo Fanjul, coautores del mismo. Éste introduce dos grandes novedades con respecto a informes anteriores: los datos aportados permiten determinar cómo sale el pescado de las aguas africanas y llega a los mercados mundiales y calcular el impacto económico y humano que la INDNDR tiene sobre las comunidades locales.

overfishing-1200x798.jpg

Por primera vez, las actividades de los buques factorías, las grandes naves comerciales de gran escala que reciben, procesan y congelan las capturas en alta mar y que faenan frente a las costas de África Occidental son analizadas utilizando datos detallados de satélite y seguimiento. Según esta información, buques de varios países, incluyendo China, Corea del Sur y Países Bajos, faenaban allí en 2013. Las capturas de la región se exportaron a todo el mundo y, también, a los grandes mercados europeos de España, Países Bajos y Reino Unido.

El análisis de la información contenida en la base de datos de UVI (Identificadores únicos de buques) de FishSpectrum, un recurso para la identificación de pesqueros y transporte de pescado, ha permitido a los investigadores analizar los movimientos de los buques factorías y otras naves en las costas de África Occidental, según explicó su director, Roberto Mielgo, durante la rueda de prensa.

La Unión Europea es la mayor importadora mundial de pescado. A pesar de que su normativa en materia de pesca ilegal está considerada como la más avanzada del mundo, Greenpeace estima que el valor de los productos pesqueros INDNR que entran en la UE podría ascender a los 1.100 millones de euros anuales.

Greenpeace estima que el valor de los productos pesqueros ilegales que entran en la UE podría ascender a los 1.100 millones de dólares anuales

El informe además de revelar la forma de operar de las flotas pesqueras extrajeras en África Occidental, también denuncia la falta de transparencia sobre sus operaciones.

Durante años se pensaba que eran los buques factoría los que transportaban la pesca a los puertos europeos; sin embargo, este informe demuestra que eso no es así, que la gran mayoría de este producto llega en contenedores fletados desde los puertos africanos. Los barcos pesqueros pasan sus capturas a estas naves en alta mar, lo que la mayoría de las veces es ilegal al estar prohibido por la legislación internacional y la de algunos países de África Occidental. Una vez que el pescado es procesado y congelado en los buques factorías, se utilizan puertos africanos para traspasarlo a contenedores a través de los cuales llegan a la UE u otras partes del mundo.

La investigación pone en evidencia prácticas del sector relacionadas con los buques contenedores y las transferencias de pescado en alta mar que hacen muy difícil impedir que las capturas ilegales lleguen a nuestros mercados:

  • Aproximadamente las cuatro quintas partes del pescado exportado desde África Occidental en 2013 lo fue en buques contenedores, no en buques factorías.
  • Una de las principales lagunas de la normativa de la UE en lo relativo a la pesca INDNR permite que los contenedores no estén sujetos a normas tan estrictas como los pesqueros y buques factorías. Por ejemplo, no se exigen inspecciones en puerto del cargamento de los buques contenedores.
  • De los 35 buques factorías que faenaban en la región en 2013, los datos de seguimiento muestran itinerarios que coinciden con el traspaso de capturas desde pesqueros a estas naves, incluso dentro de las zonas pesqueras exclusivas de Senegal y Costa de Marfil. La legislación nacional de ambos países prohíbe dichas transferencias.
  • Los funcionarios de la UE confirmaron a los autores del informe que, entre 2012 y 2014, se bloquearon las cargas de solamente 135 buques contenedores de pescado, de todo el mundo, debido a la sospecha de pesca ilegal, un insignificante porcentaje del total de las importaciones a la UE.

El informe no solo denuncia, sino que también hace un llamamiento a mayores intervenciones de los gobiernos regionales, conjuntamente con la inversión internacional, para establecer medidas disuasorias y sanciones para quienes se dedican a la pesca ilegal.

Acabar con la pesca ilegal en África Occidental podría conllevar la creación de más de 300.000 nuevos puestos de trabajo

La mayoría de los Gobiernos de África Occidental carecen de los recursos necesarios para supervisar las actividades de las flotas pesqueras. Por ejemplo, según informaba José Naranjo en un artículo en Planeta Futuro en septiembre de 2014, titulado Cara a cara con la pesca pirata, en ese año Sierra Leona solo tenía dos naves guardacostas para patrullas todas sus aguas territoriales.

El estudio también explica que el acabar con la pesca INDNR y ayudar a este sector en África Occidental podría conllevar importantes ventajas en materia de desarrollo, incluyendo la creación de más de 300.000 nuevos puestos de trabajo.

El informe concluye con una serie de recomendaciones urgentes, entre ellas destacan las siguientes:

  • Creación de una base de datos y de un sistema de seguimiento globales, y exigencia de un número de registro de ID exclusivo a todos los pesqueros
  • Resolución de la laguna legal relativa a los contenedores de INDNR, con el objeto de que los buques de contenedores sean sometidos a las mismas inspecciones que los pesqueros y buques factorías.
  • Prohibición absoluta de traspasos en alta mar, tal y como lo establece la legislación de Senegal y Costa de Marfil para sus zonas pesqueras exclusivas
  • Los Gobiernos regionales deberán ratificar e implementar nuevas normas internacionales, dirigidas a reforzar los controles portuarios y a promover más asistencia y refuerzo de capacidades de parte de donantes internacionales.