Tag: Periodista Computacional

Por Jaime Martel

Tuve la suerte de dar mis primeros pasos profesionales en la parte técnica de un grupo de prensa, en aquellos tiempos, la prensa era un negocio boyante y por supuesto, junto a la televisión y la radio, el sector empresarial más influyente (cuarto poder). Después de unos años en el sector la vida me llevo a ser participe en el nacimiento de una nueva industria, así en el 2008, comencé a trabajar en una empresa dedicada a lo que ahora conocemos por Data Science y Big Data. Desde esta nueva y pujante industria de datos y analíticas, he contemplado con pesar, la decadencia del antes todo poderoso sector de la Prensa.

Las causas de la decadencia del sector, es por todos conocidos, así como la máquina de escribir fue víctima del ordenador, el mundo de la prensa está siendo víctima de internet.

¿Pero es esta situación reversible?, personalmente creo que sí y son dos los aspectos que creo que pueden contribuir a ello:

  • Hacer los contenidos más relevantes para los usuarios. Esto es algo que desde el mundo digital se viene trabajando desde hace años. Desde la contextualización de la publicidad a la recomendación de contenidos a partir del perfil del usuario.
  • Generar contenidos que realmente sean novedosos y que contribuyan a la mejora de la sociedad. En la mejor tradición de Woodward y Bernstein durante el Watergate.

En ambos casos el Periodismo Computacional (Computational Journalism), puede aportar las herramientas y conocimientos para que los periodistas consigan generar Noticias con mayúsculas y no copi-pega de noticias (en minúsculas) y  para que sepan cómo hacer que cada lector reciba realmente las noticias que son relevante para él.

En los próximos apartados se describe qué es el Periodismo Computacional, cómo puede ayudar a generar contenidos novedosos a partir de algunos ejemplos de la actividad ITELLIGENT.

¿Qué es el Periodismo Computacional?

De una forma simple y directa el Periodista Computacional es un periodista que además tiene conocimientos en áreas de data science, big data, inteligencia artificial y otras áreas emergentes y es capaz de dar soporte a sus artículos mediante el análisis de datos, utilizando técnicas analíticas como el análisis de redes sociales, clustering, information retrieval, recommendation systems, etc.

El Periodismo Computacional, se inicia en la Universidad Georgia Tech, pero posiblemente esto no hubiese tenido mucha repercusión, si no fuese porque con  posterioridad la Universidad de Columbia en Nuerva York, meca del periodismo norteamericano, comienza a ofrecer  programas en Computational Journalism, siendo secundada recientemente, por Stanford University, motor del Silicon Valley y referencia mundial en la nueva economía digital. La implicación temprana de universidades tan significativas nos hace pensar que el Periodismo Computacional, no solo ha venido para quedarse, si no que está llamado a ser un elemento fundamental en la transformación del periodismo tradicional hacia el nuevo modelo digital

¿Qué podemos esperar de un Periodista Computacional?

El periodista computacional, además de una solidad formación periodística debe de conocer y manejar las nuevas herramientas del Data Science y del Big Data y ser capaz, gracias a dichas herramientas, de “destilar” información de los grandes repositorios de información y datos que la era del Big Data pone a su disposición, a continuación se presentan algunos ejemplos de esto:

Información del Sector Publico (Public Sector Information): En los últimos años se ha realizado un fuerte esfuerzo legislativo para poner a disposición de los ciudadanos la información y datos que el sector publico genera (boletines oficiales, contratos públicos, presupuestos públicos, salarios y patrimonio de los políticos, etc). El objetivo de este movimiento es hacer más transparente la propia administración y fomentar la generación de nuevas áreas de negocio por la reutilización de esta información/datos (ej. la liberalización del GPS y cartografía asociada por los EEUU genero un importante negocio). El problema es que en gran parte la información puesta a disposición de los ciudadanos esta en formatos que hacen difícil su manipulación automática. Así pese a estar disponible los datos de las contrataciones públicas, los grandes escándalos (EREs, Gurtel, …) no han sido descubiertos por el análisis de esta información, si no por chivatazos o casualidades. El periodista computacional si debe ser capaz de trabajar con estos repositorios de datos, manipularlos y extraer conclusiones que le permitan generar noticias. Las posibilidades son infinitas, así a título de ejemplo ITELLIGENT viene procesando desde hace años gran cantidad de documentos del sector público (unos 4.000 documentos diarios) y  a partir de la estructuración de dichos documentos es posible analizar y generar nuevas noticias (Figura 1).

NetSolar de ITELLIGENT

Figura 1. ¿Qué se hubiese descubierto sobre la burbuja del sector fotovoltaico si hubiésemos dispuesto de periodistas computacionales?

Redes Sociales: Las redes sociales generan millones de contenidos que compiten directamente con los propios contenidos generados por los periodistas. Los Periodistas Computacionales, deben ser capaces de sacar partido de estos contenidos a partir de las herramientas analíticas y de big data disponibles. Así el “topic modelling” permite determinar que temáticas son de interés para los usuarios. El “análisis de redes sociales” permite detectar conversaciones falsas generadas por robots (ej. en política esto es conocido como astroturf, ver Figura 2) o quienes son más influyentes. La detección temprana de “hot topics” permite detectar de forma temprana “conversaciones” que acabaran siendo noticias (ver Figura 3). El “análisis del sentimiento” permite “pulsar” la opinión sobre distintos temas, personas o empresas. El nuevo Periodista Computacional debe ser capaz de utilizar las redes sociales para generar noticias de interés o ser el primero en identificar nuevas noticias o tendencias.

Detección de usuarios bots - Astroturf

Figura 2. ¿Son todas las conversaciones en Twitter reales o son creadas artificialmente? En la imagen, se muestra conjuntos de robots (conversaciones automatizadas) con fines oscuros (astroturf)

Sistema de Hot Topics de ITELLIGENT

Figura 3. ¿Podemos detectar en tiempo real los que será la próxima “gran noticia”? En la imagen, sistema de Hot Topics de ITELLIGENT durante la semana de la abdicación del Rey Juan Carlos.

IOT, Open data, Geodemografia, Hibridación de datos: Todo estos son concepto que el Periodista Computacional debe conocer, manejar y sacarles partido. El Internet de las cosas (Internet Of Things, IOT), está ya generando millones de datos que permitirán infinitas posibilidades, desde cómo se mueven las personas por la ciudad a partir de los datos de sus móviles, a cuándo están las personas en sus casa a partir de los contadores eléctricos inteligentes, estos datos que además están geolocalizados, pueden ser combinados (“hibridados”) con datos procedentes de Open Data, en este caso pueden ser sensores de tráficos que miden la intensidad en la calles o carreteras, a datos de calidad del aire o de sensores meteorológicos, además esta hibridación puede incluir datos geodemograficos, edad, nivel de estudios y otros datos, que permitan realizar al periodista computacional estudios de interés para sus lectores: desde la evaluación de políticas públicas (Figura 4)  al descubrimiento de situaciones de injusticia social.

Geo-Demografía

Figura 4. Estudio geo-demográfico para la detección de zonas de alta significancias en el número de segundas viviendas frente a servicios disponibles.

¿Cómo puede contribuir el Periodista Computacional a mejorar el modelo de negocio de la prensa digital?

Además de su capacidad de generar noticias a partir del análisis de datos, el Periodista Computacional tendrá un buen conocimiento de las nuevas tecnologías digitales y de las posibilidades de nuevos modelos de negocios que estas tecnologías pueden aportar. Así simplemente el conocer cómo funcionan los sistemas de recomendación puede ayudar a conseguir mejorar la experiencia de los lectores y crear nuevos modelos de monetización, por ejemplo, ofreciendo a cada lector alertas y noticias relevantes para él, a partir de la interacciones del lector sobre los contenidos digitales que cada periódico digital ofrece. Desgraciadamente, cosas básicas como éstas en la actualidad nos son aprovechadas por la prensa digital, posiblemente porque los profesionales que tienen que tomar estas decisiones no tienen un conocimiento “nativo” de estas tecnologías, pero el Periodista Computacional sí dispone de estos conocimientos y puede fácilmente identificar nueva oportunidades de monetización que permitan ir sustituyendo el modelo de negocio actual basado en los mismos contenidos para todos (one size fit all) por contenidos relevantes personalizados para cada lector.

 

Desde mañana 30 de septiembre hasta el sábado 1 de octubre, la prestigiosa Universidad de Stanford organizará el V Simposio Computation+Journalism bajo el título “Exploring the interface between journalism and computing“. Comenzará a las 9:00 am (GMT-7) y finalizará el sábado a las 4:00 pm (GMT-7). Por primera vez, se celebrarán estas jornadas enfocadas al Periodismo Computacional en Stanford, que junto a la Universidad de Columbia y el Instituto Tecnológico de Georgia, han sido las primeras universidades organizadoras de estas conferencias desde su primera edición en 2008. Hablar de Periodismo Computacional es hablar de un concepto con pocos años de vida pero con un avance constante.

Los primeros pasos de este campo se dieron en EE.UU en 2006, concretamente, en el Instituto Tecnológico de Georgia, con la organización de un taller impartido por el profesor Irfan Essa. Dos años más tarde, en el mes de febrero, tuvo lugar la primera edición del Simposio sobre Computación y Periodismo en el que se reunieron investigadores informáticos y periodistas de Atlanta, GA. Al año siguiente, en 2009, la Universidad de Stanford se sumó a la corriente académica que apreció el recorrido de dicha temática y organizó su propio “workshop” para dar un empujón a este nuevo campo de estudio. En 2013, se llevaría a cabo la segunda edición del Simposio en la cuna del Periodismo Computacional, la Universidad Tecnológica de Georgia, mientras que las dos siguientes ediciones fueron organizadas por la Universidad de Columbia. Ahora, en 2016, pasa el testigo a la Universidad de Stanford el próximo viernes 30 de septiembre.

A grandes rasgos, el Periodismo Computacional se centra en la adaptación de las habilidades del periodista para encontrar y contar historias a la sociedad mediante el conocimiento y utilización de las nuevas tecnologías. Este nuevo periodismo afecta a las capacidades del periodista quien debe tener ciertos conocimientos y competencias informáticas para su quehacer profesional. Este perfil profesional, el periodista computacional, además de poseer una formación en Ciencias de la Información y Comunicación, debe tener conocimientos propios de la Ciencia de Datos como son la  inteligencia artificial, el procesamiento del Lenguaje Natural, técnicas de visualización, personalización y sistemas de recomendación, entre otros.  Aunque no toda la informática y computación representa la totalidad de la materia, el periodista computacional también deberá comprender aquellos elementos provenienteS de las Ciencias de la Documentación.

Periodismo Computacional Lluis Codina

Infografía Periodismo Computacional www.lluiscodina.con

El simposio “Computation + Journalism 2016” se llevará a cabo en el Stanford’s Paul Brest Hall y tendrá la clara influencia de las próximas elecciones presidenciales en EE.UU, como puede apreciarse principalmente en la primera de las dos jornadas:

  • Viernes 30 de Septiembre:

9:00- Apertura “Verdad, confianza y la tecnología en las campañas políticas”.

10:30- Sesión de trabajo “Campaña 2016: Verificación de datos y encuestas”

11:30- Mesa redonda “Periodismo reproducible”

02:00- Sesión de trabajo “Los novedosos Muckrakers* Periodismo de investigación en la Era de de la ciencia de datos”.

3:30-  Sesión de trabajo “Historias por y para algoritmos”

4:30- “Visión global”

  • Sábado 1 de Octubre:

9:00- Apertura “Visualización y periodismo”

10:30- Sesión de Trabajo “Documentos, minería de datos y descubrimientos”

11:30- Mesa redonda “Encontrar ideas e historias en grandes conjuntos de datos”

2:00- Sesión de trabajo “Cómo captar la atención”

3:00- Sesión de trabajo “La historia detrás de la historia”

4:00- Acto de clausura.

*Todas los horarios dados son de carácter local. (GMT-7)