Tag: Computational Journalism

new-york-times_periodismo-computacional

De un tiempo a este, nuestro Blog ITelligent viene desarrollando publicaciones en torno al Periodismo Computacional, también conocido como Periodismo de Datos. La primera publicación “Nuevo Symposium COMPUTATION + JOURNALISM 2016″ en la Universidad de Standford versó sobre la celebración del mayor evento del mundo sobre ésta temática, el segundo El periodismo a muerto, viva el periodismo computacional ofrece una sinopsis sobre la situación del sector de la prensa y lo que podría ofrecer la implementación del Periodismo de Datos a los medios. Nuestro tercer post Periodismo Computacional & The Guardian. El escándalo de los gastos parlamentarios británicos analizaba un caso práctico, y de éxito, de su uso por parte de un gran tabloide.

Esta cuarta publicación sobre Periodismo de Datos nace con la intención de establecer los cuatro pilares básicos del nuevo periodismo de cara a la integración del concepto de periodismo de datos o periodismo computacional en las redacciones de los equipos periodísticos, en definitiva, los aspectos fundamentales a tener en cuenta para beneficiarse de las oportunidades para crear y ampliar contenidos que ofrecen los desarrollos tecnológicos:

No otorgar un carácter experimental o alejado de las redacciones al equipo de periodistas de datos.

Los periodistas computacionales deben de estar cerca de la redacción para potenciar la interrelación, nada ilógico teniendo en cuenta que ambos grupos están formados por periodistas con el objetivo de informar y captar la atención del público, pero que se sirven de herramientas y metodologías diferentes. Además, la retroalimentación debe ser una constante. El hecho de la cercanía física genera relaciones siempre en pro de la mejora constante y el fomento del trabajo en equipo. Estar en el eje de influencia de la redacción te convierte en parte de la redacción, de no ser así, no existes para los engranajes fundamentales del medio. El flujo de dicha presencia debe ser continuo y bidireccional, los equipos de analistas de datos son por naturaleza periodistas y no dejan de estar en su hábitat. Establecer carta de naturaleza a que la redacción y el equipo de datos puedan proponer y ejercer influencia en las noticias así como a que los periodistas de la redacción sepan en todo momento que les pueden ofrecer y en que le puede ayudar su equipo de investigadores de datos.

Sinergia interna entre el equipo de periodistas y desarrolladores de software

Si en el primer punto destacábamos la necesidad de proximidad entre las salas de redacción y el equipo de periodismo de datos, no es menos importante la sinergia interna entre el equipo de investigadores de datos y los desarrolladores de software y no sólo por la necesidad de entendimiento entre ambos para la mejora de la identificación y el análisis de datos interesantes, sino por la búsqueda de una mejora constante en los procesos de trabajo de los equipos, y la ambición de los proyectos. Experiencias de éxito dentro de equipos de investigadores de datos, se han producido a partir de no sólo la colaboración sino del aprendizaje mutuo de conocimientos de otras parcelas no propias. Potenciar la interconexión para así crear periodistas más completos. Tender a hablar un idioma común para poder exprimir todo el potencial del Periodismo Computacional.

BBC UK Datablog

Imag.1 BBC News UK, Datablog. “Fallecidos en cada calle de UK entre 1999-2010

 

Identificar el perfil de periodista con conocimientos en mineria de datos, codificación y desarrollo.

Promover lo antes posible la adaptación dentro del departamento de Recursos Humanos, para así saber y poder identificar el perfil más conveniente de periodistas y desarrolladores que se demanda, especialistas que aúnen experiencia en periodismo convencional y a la vez en minería de datos, codificación y desarrollo. Ese capital humano será fundamental de cara a la consecución de objetivos. La carrera por la adaptación el periodismo de datos nace de la adquisición de capital humano muy específico. A todo lo anterior debe añadirse la apuesta de los “rotativos” por apostar por la formación adaptativa del mayor porcentaje posible de su plantilla, todo ello se puede llevar a cabo tanto a través de cursos formativos como también mediante el rol de formadores de los profesionales especialistas en la materia. Conjugar la contratación de especialistas con la adaptación de los propios trabajadores. La transformación digital debe ser vista como algo atractivo y necesario, superar los debates estériles que se producen ante los grandes cambios, dejar atrás la prensa en su modelo clásico y subirse a la constante  Transformación Digital. Se podría aludir a la clásica frase “Cambiar para que nada cambie” pero debido a la situación del sector periodístico con respecto a tiempos mejores es “Cambiar para volver a ser lo que fuimos”.

Valor añadido al Periodismo

En último lugar, destacar la importancia de saber perfectamente transmitir que el periodismo de datos no es simplemente un nuevo camino para la elaboración de noticias, sino valor añadido para el sector, una oportunidad que no puede dejar pasar la diezmada prensa, algunos medios llevan años acumulando éxitos a través de estar a la vanguardia y conocer las potencialidades que ofrece. Tan importante es saber con qué datos debemos trabajar como transmitir al receptor de manera clara y sencilla lo que generan esos datos y su importancia. Este nuevo periodismo genera su mayor impacto  en el mundo web, hacia donde se ha movilizado la inversión en publicidad, aunque de sus métodos también se beneficia la prensa escrita (Imag. 2) a través de atractivas infografías y estadísticas en sus artículos. El ROI debe ser motivo principal para aumentar la inversión en dicho departamento, el retorno no es simplemente de carácter financiero sino que se refleja también en los lectores. Vivimos en una constante revolución y pensar que en materia de lectores eso no ocurre e intentar tratarlos como tratamos a sus antepasados es un error. El periodismo de datos entre muchos de sus atractivos posee el de hacer sentir participes del medio a sus lectores. La fidelización se obtiene a partir de ofrecer contenido de calidad que capte la atención de los lectores exigentes que pueden a su vez devolver información útil a través de sus comentarios y acciones. La creación de redes de usuarios en torno a un medio ya sea mediante comentarios, participación o el establecimiento de una comunidad en torno al grupo periodístico.

Mortalidad de la armada británica por Florence Nightingale

Imag. 2 Mortalidad de la armada británica por Florence Nightingale

Fuentes:

Por Jaime Martel

Tuve la suerte de dar mis primeros pasos profesionales en la parte técnica de un grupo de prensa, en aquellos tiempos, la prensa era un negocio boyante y por supuesto, junto a la televisión y la radio, el sector empresarial más influyente (cuarto poder). Después de unos años en el sector la vida me llevo a ser participe en el nacimiento de una nueva industria, así en el 2008, comencé a trabajar en una empresa dedicada a lo que ahora conocemos por Data Science y Big Data. Desde esta nueva y pujante industria de datos y analíticas, he contemplado con pesar, la decadencia del antes todo poderoso sector de la Prensa.

Las causas de la decadencia del sector, es por todos conocidos, así como la máquina de escribir fue víctima del ordenador, el mundo de la prensa está siendo víctima de internet.

¿Pero es esta situación reversible?, personalmente creo que sí y son dos los aspectos que creo que pueden contribuir a ello:

  • Hacer los contenidos más relevantes para los usuarios. Esto es algo que desde el mundo digital se viene trabajando desde hace años. Desde la contextualización de la publicidad a la recomendación de contenidos a partir del perfil del usuario.
  • Generar contenidos que realmente sean novedosos y que contribuyan a la mejora de la sociedad. En la mejor tradición de Woodward y Bernstein durante el Watergate.

En ambos casos el Periodismo Computacional (Computational Journalism), puede aportar las herramientas y conocimientos para que los periodistas consigan generar Noticias con mayúsculas y no copi-pega de noticias (en minúsculas) y  para que sepan cómo hacer que cada lector reciba realmente las noticias que son relevante para él.

En los próximos apartados se describe qué es el Periodismo Computacional, cómo puede ayudar a generar contenidos novedosos a partir de algunos ejemplos de la actividad ITELLIGENT.

¿Qué es el Periodismo Computacional?

De una forma simple y directa el Periodista Computacional es un periodista que además tiene conocimientos en áreas de data science, big data, inteligencia artificial y otras áreas emergentes y es capaz de dar soporte a sus artículos mediante el análisis de datos, utilizando técnicas analíticas como el análisis de redes sociales, clustering, information retrieval, recommendation systems, etc.

El Periodismo Computacional, se inicia en la Universidad Georgia Tech, pero posiblemente esto no hubiese tenido mucha repercusión, si no fuese porque con  posterioridad la Universidad de Columbia en Nuerva York, meca del periodismo norteamericano, comienza a ofrecer  programas en Computational Journalism, siendo secundada recientemente, por Stanford University, motor del Silicon Valley y referencia mundial en la nueva economía digital. La implicación temprana de universidades tan significativas nos hace pensar que el Periodismo Computacional, no solo ha venido para quedarse, si no que está llamado a ser un elemento fundamental en la transformación del periodismo tradicional hacia el nuevo modelo digital

¿Qué podemos esperar de un Periodista Computacional?

El periodista computacional, además de una solidad formación periodística debe de conocer y manejar las nuevas herramientas del Data Science y del Big Data y ser capaz, gracias a dichas herramientas, de “destilar” información de los grandes repositorios de información y datos que la era del Big Data pone a su disposición, a continuación se presentan algunos ejemplos de esto:

Información del Sector Publico (Public Sector Information): En los últimos años se ha realizado un fuerte esfuerzo legislativo para poner a disposición de los ciudadanos la información y datos que el sector publico genera (boletines oficiales, contratos públicos, presupuestos públicos, salarios y patrimonio de los políticos, etc). El objetivo de este movimiento es hacer más transparente la propia administración y fomentar la generación de nuevas áreas de negocio por la reutilización de esta información/datos (ej. la liberalización del GPS y cartografía asociada por los EEUU genero un importante negocio). El problema es que en gran parte la información puesta a disposición de los ciudadanos esta en formatos que hacen difícil su manipulación automática. Así pese a estar disponible los datos de las contrataciones públicas, los grandes escándalos (EREs, Gurtel, …) no han sido descubiertos por el análisis de esta información, si no por chivatazos o casualidades. El periodista computacional si debe ser capaz de trabajar con estos repositorios de datos, manipularlos y extraer conclusiones que le permitan generar noticias. Las posibilidades son infinitas, así a título de ejemplo ITELLIGENT viene procesando desde hace años gran cantidad de documentos del sector público (unos 4.000 documentos diarios) y  a partir de la estructuración de dichos documentos es posible analizar y generar nuevas noticias (Figura 1).

NetSolar de ITELLIGENT

Figura 1. ¿Qué se hubiese descubierto sobre la burbuja del sector fotovoltaico si hubiésemos dispuesto de periodistas computacionales?

Redes Sociales: Las redes sociales generan millones de contenidos que compiten directamente con los propios contenidos generados por los periodistas. Los Periodistas Computacionales, deben ser capaces de sacar partido de estos contenidos a partir de las herramientas analíticas y de big data disponibles. Así el “topic modelling” permite determinar que temáticas son de interés para los usuarios. El “análisis de redes sociales” permite detectar conversaciones falsas generadas por robots (ej. en política esto es conocido como astroturf, ver Figura 2) o quienes son más influyentes. La detección temprana de “hot topics” permite detectar de forma temprana “conversaciones” que acabaran siendo noticias (ver Figura 3). El “análisis del sentimiento” permite “pulsar” la opinión sobre distintos temas, personas o empresas. El nuevo Periodista Computacional debe ser capaz de utilizar las redes sociales para generar noticias de interés o ser el primero en identificar nuevas noticias o tendencias.

Detección de usuarios bots - Astroturf

Figura 2. ¿Son todas las conversaciones en Twitter reales o son creadas artificialmente? En la imagen, se muestra conjuntos de robots (conversaciones automatizadas) con fines oscuros (astroturf)

Sistema de Hot Topics de ITELLIGENT

Figura 3. ¿Podemos detectar en tiempo real los que será la próxima “gran noticia”? En la imagen, sistema de Hot Topics de ITELLIGENT durante la semana de la abdicación del Rey Juan Carlos.

IOT, Open data, Geodemografia, Hibridación de datos: Todo estos son concepto que el Periodista Computacional debe conocer, manejar y sacarles partido. El Internet de las cosas (Internet Of Things, IOT), está ya generando millones de datos que permitirán infinitas posibilidades, desde cómo se mueven las personas por la ciudad a partir de los datos de sus móviles, a cuándo están las personas en sus casa a partir de los contadores eléctricos inteligentes, estos datos que además están geolocalizados, pueden ser combinados (“hibridados”) con datos procedentes de Open Data, en este caso pueden ser sensores de tráficos que miden la intensidad en la calles o carreteras, a datos de calidad del aire o de sensores meteorológicos, además esta hibridación puede incluir datos geodemograficos, edad, nivel de estudios y otros datos, que permitan realizar al periodista computacional estudios de interés para sus lectores: desde la evaluación de políticas públicas (Figura 4)  al descubrimiento de situaciones de injusticia social.

Geo-Demografía

Figura 4. Estudio geo-demográfico para la detección de zonas de alta significancias en el número de segundas viviendas frente a servicios disponibles.

¿Cómo puede contribuir el Periodista Computacional a mejorar el modelo de negocio de la prensa digital?

Además de su capacidad de generar noticias a partir del análisis de datos, el Periodista Computacional tendrá un buen conocimiento de las nuevas tecnologías digitales y de las posibilidades de nuevos modelos de negocios que estas tecnologías pueden aportar. Así simplemente el conocer cómo funcionan los sistemas de recomendación puede ayudar a conseguir mejorar la experiencia de los lectores y crear nuevos modelos de monetización, por ejemplo, ofreciendo a cada lector alertas y noticias relevantes para él, a partir de la interacciones del lector sobre los contenidos digitales que cada periódico digital ofrece. Desgraciadamente, cosas básicas como éstas en la actualidad nos son aprovechadas por la prensa digital, posiblemente porque los profesionales que tienen que tomar estas decisiones no tienen un conocimiento “nativo” de estas tecnologías, pero el Periodista Computacional sí dispone de estos conocimientos y puede fácilmente identificar nueva oportunidades de monetización que permitan ir sustituyendo el modelo de negocio actual basado en los mismos contenidos para todos (one size fit all) por contenidos relevantes personalizados para cada lector.

 

Desde mañana 30 de septiembre hasta el sábado 1 de octubre, la prestigiosa Universidad de Stanford organizará el V Simposio Computation+Journalism bajo el título “Exploring the interface between journalism and computing“. Comenzará a las 9:00 am (GMT-7) y finalizará el sábado a las 4:00 pm (GMT-7). Por primera vez, se celebrarán estas jornadas enfocadas al Periodismo Computacional en Stanford, que junto a la Universidad de Columbia y el Instituto Tecnológico de Georgia, han sido las primeras universidades organizadoras de estas conferencias desde su primera edición en 2008. Hablar de Periodismo Computacional es hablar de un concepto con pocos años de vida pero con un avance constante.

Los primeros pasos de este campo se dieron en EE.UU en 2006, concretamente, en el Instituto Tecnológico de Georgia, con la organización de un taller impartido por el profesor Irfan Essa. Dos años más tarde, en el mes de febrero, tuvo lugar la primera edición del Simposio sobre Computación y Periodismo en el que se reunieron investigadores informáticos y periodistas de Atlanta, GA. Al año siguiente, en 2009, la Universidad de Stanford se sumó a la corriente académica que apreció el recorrido de dicha temática y organizó su propio “workshop” para dar un empujón a este nuevo campo de estudio. En 2013, se llevaría a cabo la segunda edición del Simposio en la cuna del Periodismo Computacional, la Universidad Tecnológica de Georgia, mientras que las dos siguientes ediciones fueron organizadas por la Universidad de Columbia. Ahora, en 2016, pasa el testigo a la Universidad de Stanford el próximo viernes 30 de septiembre.

A grandes rasgos, el Periodismo Computacional se centra en la adaptación de las habilidades del periodista para encontrar y contar historias a la sociedad mediante el conocimiento y utilización de las nuevas tecnologías. Este nuevo periodismo afecta a las capacidades del periodista quien debe tener ciertos conocimientos y competencias informáticas para su quehacer profesional. Este perfil profesional, el periodista computacional, además de poseer una formación en Ciencias de la Información y Comunicación, debe tener conocimientos propios de la Ciencia de Datos como son la  inteligencia artificial, el procesamiento del Lenguaje Natural, técnicas de visualización, personalización y sistemas de recomendación, entre otros.  Aunque no toda la informática y computación representa la totalidad de la materia, el periodista computacional también deberá comprender aquellos elementos provenienteS de las Ciencias de la Documentación.

Periodismo Computacional Lluis Codina

Infografía Periodismo Computacional www.lluiscodina.con

El simposio “Computation + Journalism 2016” se llevará a cabo en el Stanford’s Paul Brest Hall y tendrá la clara influencia de las próximas elecciones presidenciales en EE.UU, como puede apreciarse principalmente en la primera de las dos jornadas:

  • Viernes 30 de Septiembre:

9:00- Apertura “Verdad, confianza y la tecnología en las campañas políticas”.

10:30- Sesión de trabajo “Campaña 2016: Verificación de datos y encuestas”

11:30- Mesa redonda “Periodismo reproducible”

02:00- Sesión de trabajo “Los novedosos Muckrakers* Periodismo de investigación en la Era de de la ciencia de datos”.

3:30-  Sesión de trabajo “Historias por y para algoritmos”

4:30- “Visión global”

  • Sábado 1 de Octubre:

9:00- Apertura “Visualización y periodismo”

10:30- Sesión de Trabajo “Documentos, minería de datos y descubrimientos”

11:30- Mesa redonda “Encontrar ideas e historias en grandes conjuntos de datos”

2:00- Sesión de trabajo “Cómo captar la atención”

3:00- Sesión de trabajo “La historia detrás de la historia”

4:00- Acto de clausura.

*Todas los horarios dados son de carácter local. (GMT-7)