Tag: periodismo de datos

  • Detecta y extrae metadatos de más de mil tipos de archivos de diferentes formatos con esta herramienta útil para la indexación y el análisis de contenido.
  • Además de proporcionar extracción de contenido y metadatos es capaz de identificar idioma.

apache tika

Apache Tika es un framework de análisis y detección de contenido escrito en Java y administrado por Apache Software Foundation. Se trata de un kit de herramientas que detecta y extrae metadatos y contenido de texto de más de mil tipos y formatos de archivos diferentes, tales como Word, Excel, PDF, JPG ó Mp4, por ejemplo. Además de proporcionar una biblioteca de Java, proporciona extracción de contenido, extracción de metadatos y capacidad de identificar idioma.

Mientras que Tika está escrito en Java, se usa ampliamente en otros idiomas. El servidor RESTful y la herramienta CLI permiten que los programas que no son de Java accedan a la funcionalidad de Tika.

Todos los archivos multimedia y basados ​​en texto se pueden analizar mediante una interfaz común, lo que convierte a Tika en una biblioteca potente y versátil para el análisis de contenido. Tika es utilizada tanto por instituciones financieras como FICO y Goldman Sachs, por la NASA como por investigadores académicos. Tambien, es utilizada por los principales sistemas de gestión de contenido -como Drupal- para analizar grandes cantidades de contenido y hacerlos accesibles en formatos comunes, utilizando técnicas de recuperación de información.

Tika y el periodismo de datos: los Papeles de Panamá

Ya como parte de la historia del periodismo de datos, el 4 de abril de 2016, la revista Forbes publicó un artículo donde identificaba a Tika como una de las tecnologías clave utilizadas por más de 400 periodistas para analizar millones de documentos filtrados. Este grupo de periodistas de diferentes países sacaban a la luz el escándalo internacional en el que líderes mundiales almacenaban dinero en sociedades offshore. Gracias a esta tecnología, fue posible detectar nombres entre miles de documentos y extraer información relevante para la sociedad. Estos famosos documentos filtrados, al grupo de periodistas de datos para analizarlos y el proyecto en sí, se les conoce como los Papeles de Panamá o Panamá Papers

Tal como se describe en el artículo de Forbes sobre los Papeles de Panamá:

“Todo el software utilizado fue de código abierto, ajustado para satisfacer las necesidades de los reporteros. La herramienta de búsqueda, que permite a los reporteros buscar nombres como Putin o lugares como las Islas Vírgenes Británicas, se basó en Apache Solr, utilizada por una gran cantidad de organizaciones de búsqueda intensiva, incluida DuckDuckGo, una herramienta enfocada en la privacidad. Solr se combinó con el Tika de Apache, un software de indexación que puede analizar diferentes tipos de archivos, ya sean archivos PDF o correos electrónicos como en los Papeles de Panamá, extrayendo el texto de los datos no esenciales.”

– Thomas Brewster en “From Encrypted Drives To Amazon’s Cloud — The Amazing Flight Of The Panama Papers” 05.04.2016

new-york-times_periodismo-computacional

De un tiempo a este, nuestro Blog ITelligent viene desarrollando publicaciones en torno al Periodismo Computacional, también conocido como Periodismo de Datos. La primera publicación “Nuevo Symposium COMPUTATION + JOURNALISM 2016″ en la Universidad de Standford versó sobre la celebración del mayor evento del mundo sobre ésta temática, el segundo El periodismo a muerto, viva el periodismo computacional ofrece una sinopsis sobre la situación del sector de la prensa y lo que podría ofrecer la implementación del Periodismo de Datos a los medios. Nuestro tercer post Periodismo Computacional & The Guardian. El escándalo de los gastos parlamentarios británicos analizaba un caso práctico, y de éxito, de su uso por parte de un gran tabloide.

Esta cuarta publicación sobre Periodismo de Datos nace con la intención de establecer los cuatro pilares básicos del nuevo periodismo de cara a la integración del concepto de periodismo de datos o periodismo computacional en las redacciones de los equipos periodísticos, en definitiva, los aspectos fundamentales a tener en cuenta para beneficiarse de las oportunidades para crear y ampliar contenidos que ofrecen los desarrollos tecnológicos:

No otorgar un carácter experimental o alejado de las redacciones al equipo de periodistas de datos.

Los periodistas computacionales deben de estar cerca de la redacción para potenciar la interrelación, nada ilógico teniendo en cuenta que ambos grupos están formados por periodistas con el objetivo de informar y captar la atención del público, pero que se sirven de herramientas y metodologías diferentes. Además, la retroalimentación debe ser una constante. El hecho de la cercanía física genera relaciones siempre en pro de la mejora constante y el fomento del trabajo en equipo. Estar en el eje de influencia de la redacción te convierte en parte de la redacción, de no ser así, no existes para los engranajes fundamentales del medio. El flujo de dicha presencia debe ser continuo y bidireccional, los equipos de analistas de datos son por naturaleza periodistas y no dejan de estar en su hábitat. Establecer carta de naturaleza a que la redacción y el equipo de datos puedan proponer y ejercer influencia en las noticias así como a que los periodistas de la redacción sepan en todo momento que les pueden ofrecer y en que le puede ayudar su equipo de investigadores de datos.

Sinergia interna entre el equipo de periodistas y desarrolladores de software

Si en el primer punto destacábamos la necesidad de proximidad entre las salas de redacción y el equipo de periodismo de datos, no es menos importante la sinergia interna entre el equipo de investigadores de datos y los desarrolladores de software y no sólo por la necesidad de entendimiento entre ambos para la mejora de la identificación y el análisis de datos interesantes, sino por la búsqueda de una mejora constante en los procesos de trabajo de los equipos, y la ambición de los proyectos. Experiencias de éxito dentro de equipos de investigadores de datos, se han producido a partir de no sólo la colaboración sino del aprendizaje mutuo de conocimientos de otras parcelas no propias. Potenciar la interconexión para así crear periodistas más completos. Tender a hablar un idioma común para poder exprimir todo el potencial del Periodismo Computacional.

BBC UK Datablog

Imag.1 BBC News UK, Datablog. “Fallecidos en cada calle de UK entre 1999-2010

 

Identificar el perfil de periodista con conocimientos en mineria de datos, codificación y desarrollo.

Promover lo antes posible la adaptación dentro del departamento de Recursos Humanos, para así saber y poder identificar el perfil más conveniente de periodistas y desarrolladores que se demanda, especialistas que aúnen experiencia en periodismo convencional y a la vez en minería de datos, codificación y desarrollo. Ese capital humano será fundamental de cara a la consecución de objetivos. La carrera por la adaptación el periodismo de datos nace de la adquisición de capital humano muy específico. A todo lo anterior debe añadirse la apuesta de los “rotativos” por apostar por la formación adaptativa del mayor porcentaje posible de su plantilla, todo ello se puede llevar a cabo tanto a través de cursos formativos como también mediante el rol de formadores de los profesionales especialistas en la materia. Conjugar la contratación de especialistas con la adaptación de los propios trabajadores. La transformación digital debe ser vista como algo atractivo y necesario, superar los debates estériles que se producen ante los grandes cambios, dejar atrás la prensa en su modelo clásico y subirse a la constante  Transformación Digital. Se podría aludir a la clásica frase “Cambiar para que nada cambie” pero debido a la situación del sector periodístico con respecto a tiempos mejores es “Cambiar para volver a ser lo que fuimos”.

Valor añadido al Periodismo

En último lugar, destacar la importancia de saber perfectamente transmitir que el periodismo de datos no es simplemente un nuevo camino para la elaboración de noticias, sino valor añadido para el sector, una oportunidad que no puede dejar pasar la diezmada prensa, algunos medios llevan años acumulando éxitos a través de estar a la vanguardia y conocer las potencialidades que ofrece. Tan importante es saber con qué datos debemos trabajar como transmitir al receptor de manera clara y sencilla lo que generan esos datos y su importancia. Este nuevo periodismo genera su mayor impacto  en el mundo web, hacia donde se ha movilizado la inversión en publicidad, aunque de sus métodos también se beneficia la prensa escrita (Imag. 2) a través de atractivas infografías y estadísticas en sus artículos. El ROI debe ser motivo principal para aumentar la inversión en dicho departamento, el retorno no es simplemente de carácter financiero sino que se refleja también en los lectores. Vivimos en una constante revolución y pensar que en materia de lectores eso no ocurre e intentar tratarlos como tratamos a sus antepasados es un error. El periodismo de datos entre muchos de sus atractivos posee el de hacer sentir participes del medio a sus lectores. La fidelización se obtiene a partir de ofrecer contenido de calidad que capte la atención de los lectores exigentes que pueden a su vez devolver información útil a través de sus comentarios y acciones. La creación de redes de usuarios en torno a un medio ya sea mediante comentarios, participación o el establecimiento de una comunidad en torno al grupo periodístico.

Mortalidad de la armada británica por Florence Nightingale

Imag. 2 Mortalidad de la armada británica por Florence Nightingale

Fuentes:


El periodismo computacional ha llegado para quedarse, una definición básica del término vendría a ser la aplicación de las capacidades que otorga la informática para el tratamiento de ingentes cantidades de conjuntos de datos, en beneficio del atractivo periodístico.

No por ello debemos entender el periodismo computacional como una transformación del periodismo de investigación sino como la evolución lógica del mismo. Si bien requiere de nuevas habilidades y herramientas, los valores y los objetivos son los mismos que inspiraban a periodistas como Ramón Lobo, Manu Leguineche, Enrique Meneses, etc. por nombrar algunos de los grandes investigadores del periodismo patrio o a los celebérrimos Woodward y Bernstein del caso Watergate.

La oportunidad para los proveedores de noticias de tomar una posición más activa, seleccionando “fácilmente”  las mejores fuentes de datos para los lectores, es uno de los principales atractivos de este nuevo periodismo. Estas actividades tienen que fundamentarse en todo momento en los valores del periodismo, estableciendo la única diferencia en el camino para obtener el resultado.

El potencial no ha dejado de crecer y los principales responsables han sido:

  • Políticas gubernamentales que han facilitado el acceso a grandes cantidades de datos en su búsqueda de transparencia (Open Data).
  • La reducción de los costes.
  • La eclosión del público online. La proliferación de usuarios generadores de contenidos, blogs, twitter etc. de donde se puede extraer información importante.

Dicha evolución debe girar en torno a la figura del periodista computacional, un gestor de bases de datos, procesador de datos y analista. Todo ello teniendo en cuenta la conexión con el público. Las nuevas técnicas deben ser de carácter bidireccional, esto permitirá al periodista identificar, conectar y conversar con lectores que aporten valor.

A lo largo de esta publicación analizaremos un caso de éxito por parte de The Guardian en la aplicación de las nuevas tecnologías a sus investigaciones. Investigación por la cual se les otorgó el premio de mejor práctica de periodismo computacional entre los medios digitales. Debemos ver esta investigación y su modus operandi como un ejemplo de éxito de las opciones que puede aportar el nuevo periodismo computacional a la hora de sugerir respuestas y oportunidades en el mundo digital o para fundamentar noticias ya conocidas.

Inicios

Nos remontamos a finales de la década pasada, varios medios británicos comienzan de forma independiente a poner en relieve irregularidades en los gastos efectuados por los parlamentarios de Westminster. Comienzan a llegar filtraciones a las redacciones que en su mayoría se ven superadas por el volumen de información de las mismas. Es ahí donde, ante dicha situación, The Guardian ve en el desarrollo de la informática una oportunidad de aprovechamiento de las fuentes así como un modelo atractivo para los nuevos lectores. Destacar que si el periodismo ha cambiado, el perfil del lector también. El periodismo computacional puede cumplir un rol fundamental para devolver al periodismo la importancia perdida desde hace una década bajo la premisa de “cambiar para que nada cambie”.

Año 2009, el tabloide británico The Guardian planifica cómo encarar el tratamiento que hará de una polémica que empieza a ganar importancia entre la opinión pública. Se trata de la aparición de documentos detallados, con los gastos de ámbito personal que por parte de los parlamentarios británicos cargaban al erario público. Teniendo en cuenta que todo esto se producía a comienzos de la crisis económica global, estos datos suponían una bomba periodística.

La estrategia se basó en dos pilares fundamentales:

  1. El Periodismo Computacional.
  2. El crowdsourcing, participación abierta previamente definida.

El Escandalo de los gastos de los parlamentarios británicos

El pionero fue The Daily Telegraph cuando sus periodistas obtuvieron dos millones de documentos relativos al gasto parlamentario. Aunque encararon la investigación a nivel interno, la falta de especialistas y recursos dificultó ampliar la extracción de valor de los documentos y lo limitó a la publicación de noticias con los recibos.

Sin embargo, el periódico The Guardian establecieron un equipo de 15 personas para abordar la investigación y, a la vez, trabajaron para que en sólo una semana los documentos estuvieran a disposición de sus lectores en su web. Para dicho proceso se sirvieron de la ayuda del framework  Django y establecieron una imagen de cada recibo. El servidor de almacenimiento fué Amazon EC2 que les permitía aumentar la capacidad si fuese necesario.

Participación de los lectores

Una vez online todos los documentos, se invitó a los lectores a ser partícipes de la investigación. Es aquí donde aparece el otro factor fundamental, el crowdsourcing. Se les exigió a los lectores su nombre y su dirección para registrarse. A partir de este registro, el lector podía sumergirse en la información que más le interesase:

  1. Se establecía la opción de seleccionar: por nombre del parlamentario o por distrito electoral.
  2. Evaluar y establecer en su opinión que clase de documento era entre 4 opciones.
  3. Establecer el grado de interés entre: no interesante, interesante pero conocido, interesante o ¡Digno de investigación! así como comentar el porqué debiera ser investigado. A partir de ahí, el equipo de The Guardian los revisaba e investigaba y establecía si tenía relación con noticias ya publicadas.
  4. Los gastos se estructuraron por categorias: partido, parlamentario, categoría del gasto o mediante mapa.
  5. Los detalles de cada gasto se descargaban a través de OPENPLATFORM y en forma de hojas de cálculo. En caso de información relevante, los lectores creaban mashups y los enviaban a The Guardian.

El coste de la investigación nunca fue publicado, pero la estructura usada hace pensar que al contar con recursos propios -como Django- el coste se incrementaría en 50 libras por alquiler del servidor aumentando exponencialmente por su uso.

Entre los parlamentarios investigados, el caso de Peter Viggers alcanzó gran popularidad ya que permitió que saliera a la luz que adeudó al contribuyente la compra de una casa para patos en su estanque. Ante dicha polémica Viggers asumió su vergonzoso error y pidió disculpas.

Tras la revisión de tal cantidad de facturas muchos de los parlamentarios asumieron finalmente los gastos y se promovió una investigación oficial. Algunos de los parlamentarios no concurrieron a elecciones posteriores. Los resultados de la investigación dieron lugar a nuevas noticias por parte de The Guardian que publicó información y gráficos sobre las repercusiones. La investigación gubernamental finalizó con el reconocimiento de 1 millón de libras como gastos no justificables y la apertura de causas judiciales a 4 parlamentarios.

El periódico se benefició de su poder y conocimiento tecnológico el cual le permitió encarar la investigación de una forma que ningún otro medio de la competencia podía. La reputación ya reconocida del tabloide se vio aun mas reforzada y estableció un equipo permanente de profesionales enfocados en las oportunidades de las nuevas tendencias para poder elevar el nivel de las  investigaciones. The Guardian apreció de manera clara las oportunidades que brindan las nuevas tecnologías, y permitió a sus periodistas enfocarse en las nuevas tendencias y elevar el nivel de sus investigaciones.

¿Qué podemos aprender de todo esto?

  • Dirigirse a donde esté la audiencia
  • La mejora de los silos de información a través de las redes sociales
  • Fundamentarse en la transparencia
  • Ofrecer protagonismo a lectores y usuarios
  • La audiencia y los lectores pueden ampliar la visión de la redacción
  • Promover la colaboración con el público a través de Internet
  • Publicar en el momento de mayor atención
  • Ofrecer un servicio informático a la altura de los objetivos que se buscan
  • Que sea interactivo, divertido y personalizado

Como ejemplo de personalización y del protagonismo que otorgó The Guardian a sus lectores, la web ofreció rankings entre sus revisores y los documentos analizados. La personalización también fue importante a la hora de identificar mediante fotografías a los parlamentarios, lo que generó un aumento de la interacción. El tiempo de comprobación debe establecerse acorde al interés de la noticia ya que el margen de error ante tal volumen de datos suele percibirse como normal. Aunque no por ello deben descuidarse errores que puedan afectar de gran manera a sus protagonistas, como a uno de los parlamentarios, quien emprendió medidas legales al periódico al confundir “tanning (bronceado) con training (entrenamiento)”. The Guardian publicó un artículo sobre una reclamación para un salón de bronceado cuando en realidad se trataba de un gimnasio, un lector registrado había leído mal la letra de un recibo y el revisor de The Guardian no se percató.

Pero en definitiva, The Guardian y su buena visión de negocio les hizo incrementar el prestigio que ya poseía y colocarse a la vanguardia del nuevo periodismo. Aunque su labor había comenzado mucho antes, concretamente en 1999 con el nombramiento de un Director de Contenido Digital para un año más tarde poder lanzar su propio portal. En sólo un año de vida ya poseía 2,4 millones de usuarios únicos y adquirió una presencia global de liderazgo en el mundo anglófono. Su pionera experiencia en medios digitales les permitió adelantarse a la competencia en aprovechamiento del periodismo computacional y seguir estando a la vanguardia del periodismo mundial.

Fuente: The Guardian Reportage of the UK MP Expenses Scandal: a Case Study of Computational Journalism  por Daniel, Anna and Flew, Terry (2010)

Por Jaime Martel

Tuve la suerte de dar mis primeros pasos profesionales en la parte técnica de un grupo de prensa, en aquellos tiempos, la prensa era un negocio boyante y por supuesto, junto a la televisión y la radio, el sector empresarial más influyente (cuarto poder). Después de unos años en el sector la vida me llevo a ser participe en el nacimiento de una nueva industria, así en el 2008, comencé a trabajar en una empresa dedicada a lo que ahora conocemos por Data Science y Big Data. Desde esta nueva y pujante industria de datos y analíticas, he contemplado con pesar, la decadencia del antes todo poderoso sector de la Prensa.

Las causas de la decadencia del sector, es por todos conocidos, así como la máquina de escribir fue víctima del ordenador, el mundo de la prensa está siendo víctima de internet.

¿Pero es esta situación reversible?, personalmente creo que sí y son dos los aspectos que creo que pueden contribuir a ello:

  • Hacer los contenidos más relevantes para los usuarios. Esto es algo que desde el mundo digital se viene trabajando desde hace años. Desde la contextualización de la publicidad a la recomendación de contenidos a partir del perfil del usuario.
  • Generar contenidos que realmente sean novedosos y que contribuyan a la mejora de la sociedad. En la mejor tradición de Woodward y Bernstein durante el Watergate.

En ambos casos el Periodismo Computacional (Computational Journalism), puede aportar las herramientas y conocimientos para que los periodistas consigan generar Noticias con mayúsculas y no copi-pega de noticias (en minúsculas) y  para que sepan cómo hacer que cada lector reciba realmente las noticias que son relevante para él.

En los próximos apartados se describe qué es el Periodismo Computacional, cómo puede ayudar a generar contenidos novedosos a partir de algunos ejemplos de la actividad ITELLIGENT.

¿Qué es el Periodismo Computacional?

De una forma simple y directa el Periodista Computacional es un periodista que además tiene conocimientos en áreas de data science, big data, inteligencia artificial y otras áreas emergentes y es capaz de dar soporte a sus artículos mediante el análisis de datos, utilizando técnicas analíticas como el análisis de redes sociales, clustering, information retrieval, recommendation systems, etc.

El Periodismo Computacional, se inicia en la Universidad Georgia Tech, pero posiblemente esto no hubiese tenido mucha repercusión, si no fuese porque con  posterioridad la Universidad de Columbia en Nuerva York, meca del periodismo norteamericano, comienza a ofrecer  programas en Computational Journalism, siendo secundada recientemente, por Stanford University, motor del Silicon Valley y referencia mundial en la nueva economía digital. La implicación temprana de universidades tan significativas nos hace pensar que el Periodismo Computacional, no solo ha venido para quedarse, si no que está llamado a ser un elemento fundamental en la transformación del periodismo tradicional hacia el nuevo modelo digital

¿Qué podemos esperar de un Periodista Computacional?

El periodista computacional, además de una solidad formación periodística debe de conocer y manejar las nuevas herramientas del Data Science y del Big Data y ser capaz, gracias a dichas herramientas, de “destilar” información de los grandes repositorios de información y datos que la era del Big Data pone a su disposición, a continuación se presentan algunos ejemplos de esto:

Información del Sector Publico (Public Sector Information): En los últimos años se ha realizado un fuerte esfuerzo legislativo para poner a disposición de los ciudadanos la información y datos que el sector publico genera (boletines oficiales, contratos públicos, presupuestos públicos, salarios y patrimonio de los políticos, etc). El objetivo de este movimiento es hacer más transparente la propia administración y fomentar la generación de nuevas áreas de negocio por la reutilización de esta información/datos (ej. la liberalización del GPS y cartografía asociada por los EEUU genero un importante negocio). El problema es que en gran parte la información puesta a disposición de los ciudadanos esta en formatos que hacen difícil su manipulación automática. Así pese a estar disponible los datos de las contrataciones públicas, los grandes escándalos (EREs, Gurtel, …) no han sido descubiertos por el análisis de esta información, si no por chivatazos o casualidades. El periodista computacional si debe ser capaz de trabajar con estos repositorios de datos, manipularlos y extraer conclusiones que le permitan generar noticias. Las posibilidades son infinitas, así a título de ejemplo ITELLIGENT viene procesando desde hace años gran cantidad de documentos del sector público (unos 4.000 documentos diarios) y  a partir de la estructuración de dichos documentos es posible analizar y generar nuevas noticias (Figura 1).

NetSolar de ITELLIGENT

Figura 1. ¿Qué se hubiese descubierto sobre la burbuja del sector fotovoltaico si hubiésemos dispuesto de periodistas computacionales?

Redes Sociales: Las redes sociales generan millones de contenidos que compiten directamente con los propios contenidos generados por los periodistas. Los Periodistas Computacionales, deben ser capaces de sacar partido de estos contenidos a partir de las herramientas analíticas y de big data disponibles. Así el “topic modelling” permite determinar que temáticas son de interés para los usuarios. El “análisis de redes sociales” permite detectar conversaciones falsas generadas por robots (ej. en política esto es conocido como astroturf, ver Figura 2) o quienes son más influyentes. La detección temprana de “hot topics” permite detectar de forma temprana “conversaciones” que acabaran siendo noticias (ver Figura 3). El “análisis del sentimiento” permite “pulsar” la opinión sobre distintos temas, personas o empresas. El nuevo Periodista Computacional debe ser capaz de utilizar las redes sociales para generar noticias de interés o ser el primero en identificar nuevas noticias o tendencias.

Detección de usuarios bots - Astroturf

Figura 2. ¿Son todas las conversaciones en Twitter reales o son creadas artificialmente? En la imagen, se muestra conjuntos de robots (conversaciones automatizadas) con fines oscuros (astroturf)

Sistema de Hot Topics de ITELLIGENT

Figura 3. ¿Podemos detectar en tiempo real los que será la próxima “gran noticia”? En la imagen, sistema de Hot Topics de ITELLIGENT durante la semana de la abdicación del Rey Juan Carlos.

IOT, Open data, Geodemografia, Hibridación de datos: Todo estos son concepto que el Periodista Computacional debe conocer, manejar y sacarles partido. El Internet de las cosas (Internet Of Things, IOT), está ya generando millones de datos que permitirán infinitas posibilidades, desde cómo se mueven las personas por la ciudad a partir de los datos de sus móviles, a cuándo están las personas en sus casa a partir de los contadores eléctricos inteligentes, estos datos que además están geolocalizados, pueden ser combinados (“hibridados”) con datos procedentes de Open Data, en este caso pueden ser sensores de tráficos que miden la intensidad en la calles o carreteras, a datos de calidad del aire o de sensores meteorológicos, además esta hibridación puede incluir datos geodemograficos, edad, nivel de estudios y otros datos, que permitan realizar al periodista computacional estudios de interés para sus lectores: desde la evaluación de políticas públicas (Figura 4)  al descubrimiento de situaciones de injusticia social.

Geo-Demografía

Figura 4. Estudio geo-demográfico para la detección de zonas de alta significancias en el número de segundas viviendas frente a servicios disponibles.

¿Cómo puede contribuir el Periodista Computacional a mejorar el modelo de negocio de la prensa digital?

Además de su capacidad de generar noticias a partir del análisis de datos, el Periodista Computacional tendrá un buen conocimiento de las nuevas tecnologías digitales y de las posibilidades de nuevos modelos de negocios que estas tecnologías pueden aportar. Así simplemente el conocer cómo funcionan los sistemas de recomendación puede ayudar a conseguir mejorar la experiencia de los lectores y crear nuevos modelos de monetización, por ejemplo, ofreciendo a cada lector alertas y noticias relevantes para él, a partir de la interacciones del lector sobre los contenidos digitales que cada periódico digital ofrece. Desgraciadamente, cosas básicas como éstas en la actualidad nos son aprovechadas por la prensa digital, posiblemente porque los profesionales que tienen que tomar estas decisiones no tienen un conocimiento “nativo” de estas tecnologías, pero el Periodista Computacional sí dispone de estos conocimientos y puede fácilmente identificar nueva oportunidades de monetización que permitan ir sustituyendo el modelo de negocio actual basado en los mismos contenidos para todos (one size fit all) por contenidos relevantes personalizados para cada lector.