Tag: análisis de datos

Hace décadas, ya había empresas que recogían y analizaban datos para poder obtener perspectivas y descubrir tendencias de los consumidores. Para ello, plasmaban los números en hojas de cálculo y los examinaban manualmente. Hoy en día, el análisis de datos se realiza mediante sistemas de software sofisticados. Esto permite estudiar una mayor cantidad de datos, reduciendo el tiempo que se invierte en ello y, por tanto, posibilitando a las empresas a tomar decisiones de manera más rápida y eficaz, lo que ayuda al negocio a seguir siendo competitivo en el mercado.

A pesar de esto, muchos son los que siguen asociando aún el Big Data a las empresas de nuevas tecnologías, creyendo que sus aplicaciones no pueden salir de ese mercado.

Ejemplos de implementación de Big Data en grandes marcas

Actualmente, debido a la cantidades dispositivos que nos rodean, estamos constantemente en contacto con grandes cantidades de datos. Este hecho, ha provocado que los grandes casos de éxito de la aplicación del Big Data vengan de la mano de compañías que no tienen nada que ver con el mercado de las nuevas tecnologías. El Big Data y la Inteligencia Artificial son dos conceptos que suelen ir ligados, a continuación os exponemos 4 ejemplos de grandes marcas que los han implementado en sus estrategias de marketing:

  1. Netflix

Esta plataforma utiliza los datos en su gran mayoría para recomendar contenido a sus consumidores, pero también para poder averiguar qué series producir y a qué figuras del mundillo debe fichar. La serie original de Netflix “House of Cards”, ha sido la primera en alcanzar el éxito gracias al análisis previo de grandes conjuntos de datos. A la plataforma, le llevó alrededor de seis años recopilar todos los datos que creían necesarios para realizar una serie que tuviese una gran acogida entre el público. Emplearon dichos datos a cerca de los hábitos de los espectadores para diseñar un contenido que combinara creatividad y Big Data. Esto, ha conseguido demostrar la gran importancia del estudio de los hábitos de los consumidores a la hora de generar productos, contenidos y servicios.

  1. Nike

Uno de los mayores ejemplos de implementación del Big Data a nivel deportivo. Nike, mediante su plataforma Nike+, captura día a día una elevada cantidad de datos que hacen referencia a distintas características de su usuarios. Esto, le permite poder determinar aspectos como el potencial que posee para la marca ese cliente, cuando tendrá este la necesidad de adquirir nuevo producto en función de la actividad física que realiza o cuáles son sus intereses en ámbitos relacionados con el deporte, dándole la posibilidad de mostrarle a los usuarios una oferta de productos y servicios personalizada.

Para recoger los datos, ha desarrollado una serie de dispositivos wearables, los cuales vende a los usuarios como productos complementarios que mejoran su rendimiento físico. Esta tecnología, está interactuando de forma continua con el usuario y las aplicaciones pertinentes, lo que facilita la recopilación de datos y produce una aceleración de todo el proceso.

  1. Zara

Ya en la década de 1980, fue pionera en un concepto de moda conocido como fast-fashion: desarrolló un método de rápida reacción a las cambiantes tendencias de moda, empleando cadenas de suministros basadas en el abastecimiento cerca de la sede para poder acelerar los plazos de entrega.

Pero los nuevos competidores crecen, y esto ha hecho que Zara de un paso más en el empleo de datos en sus estrategias. Ha conseguido desarrollar una tecnología de identificación por radiofrecuencia (RFID). Esta tecnología, recoge los datos de posición de todas las prendas que se encuentran en las tiendas y los almacenes, como si cada una de ellas llevara un pequeño GPS incrustado. Permite identificar las prendas de individualmente durante su recorrido desde las plataformas logísticas hasta su venta, de manera que, cuando un cliente busca una prenda concreta, el personal de la tienda puede saber en tiempo real la disponibilidad del producto en esa tienda u otra cercana. Esto hace posible que, gracias al seguimiento del Big Data, los artículos sean localizados más rápido y con mayor precisión, lo que favorecerá al servicio y a la fidelización de los compradores.

  1. Coca-cola

Emplea el Big Data para establecer precios y mantener cierta consistencia en el sabor de productos ligados a cuestiones naturales, partiendo de datos del tiempo, información de cosechas e históricos de precios. Además, han lanzado una nueva bebida teniendo como base los datos extraídos de los sistemas self-service, los cuales proporcionan información sobre los gustos de los consumidores. Pero esto no es para lo único que utilizan la gran cantidad de datos que recogen sobre los usuarios, llevan años empleándolos para medir la presencia de sus productos y los de sus competidores en las fotografías que son subidas a la red. Una vez que han analizado esta conducta y mediante algoritmos, deciden qué anuncios deben servir a esos internautas. Con esto consiguen que su publicidad posea hasta 4 veces más posibilidades de que hagan clic en ella.

Gestionar un E-commerce requiere tiempo y esfuerzo, por lo que para poder medir de manera efectiva y rápida los resultados es necesario tener en cuenta una serie de indicadores de medición. Por esto motivo, os exponemos aquellas métricas más comunes para poder recopilar la información relevante que puede ayudarte a mejorar y rentabilizar tu e-commerce site.

1. Tráfico web. Se trata de las visitas que realizan los usuarios al sitio web, y sirve para determinar si las acciones y promociones puestas en marcha por la empresa están funcionando y ayudando a aumentar la probabilidad de captación de clientes. Esto hace que controlarlo sea el primer paso para lograr conseguir los objetivos de ventas marcados. Dentro de ella, se pueden analizar diversos parámetros, un trabajo que hoy en día lo llevan a cabo plataformas como Google Analytics :

  • Páginas más vistas. ¿Qué páginas del sitio están recibiendo la mayor parte de las visitas y cuáles menos? Con esta información, podrás comprender mejor las preferencias de los clientes y su manera de interactuar con la web.
  • Páginas de salida. Saber cuándo se marchan los usuarios es importante, de esta manera podremos optimizar estas páginas para conseguir que continúen con la compra.
  • Tiempo en la página. Como su nombre indica, nos muestra el tiempo que el cliente página en la página. De esta manera, podemos determinar si el usuario encontró lo que buscaba o le gustó el sitio.
  • Flujos de navegación. Es conveniente analizarlos para conocer la intención de los usuarios al entrar en la web, y saber con cuenta facilidad se puede encontrar el sitio en Internet. Además, ayuda a comprobar la utilidad que posee para los clientes el contenido publicado.
  • Fuentes de tráfico. Son imprescindibles para evaluar si se están trabajando bien todos los canales o, por el contrario, es necesario mejorar e incluso cambiar la estrategia de captación empleada.
  • Visitas móvil vs desktop. Nos permite ver desde que dispositivo es más visitado nuestro sitio, pudiendo adaptar la arquitectura de la web a las características del que más nos convenga.
  • Usuarios nuevos vs recurrentes. Dentro de los usuarios encontramos los nuevos, que visitan por primera vez el sitio, y los recurrentes, que son los que ya han estado alguna vez en él y vuelven porque su experiencia fue satisfactoria. Estos últimos, son en los que nos tenemos que centrar nuestros esfuerzos puesto que es más probable que realizan próximamente una compra o sean alcanzados por una promoción.

captura-googleanalytics (2)

Otras alternativas para analizar estas métricas son: Woopra y Clicky, capaces de medir de manera más precisa el tiempo en el sitio, y Crazy Egg, que está especialmente diseñada para analizar el comportamiento de los usuarios en la web. Por otro lado, otra opción es realizarlo tú mismo desde el back-end de la plataforma del E-commerce.

2. Acciones en el Carrito. Todas aquellas relacionadas con el carrito de compra del sitio web cuando el usuario accede a él. Entre ellas encontramos:

  • Tasa de abandono del carrito de compra. Se trata de una cifra clave, muestra la cantidad de clientes con intención de compra que no concluyeron la transacción, es decir, los clientes potenciales. Puede ayudar a mejorar la conversión del E-commerce y plantear distintas estrategias, evitando los abandonos y aumentando las ventas.
  • Valor medio del carrito (AOV). Muestra la cantidad media de las ventas realizadas en la web, lo que nos permite hacer una previsión de los beneficios, mostrándonos así si debemos aumentar la captación de clientes para lograr los objetivos.
  • Nº de veces que un producto se ha agregado al carrito. Te permite analizar la tasa de conversión de los productos, y ver por qué en unos esta es mayor que en otros.

3. Ticket promedio. Indica el número de ventas realizadas en el sitio durante un espacio de tiempo determinado. Conocer esta información, puede ayudarte a incrementar las ventas puesto que mide lo bien o lo mal que están posicionados los productos o servicios.

4. Retención. Nos permite saber cuántos usuarios vuelven a entrar y realizar transacciones en nuestra web, es decir, los clientes fidelizados.

5. Valor medio del pedido. Con este dato, se es capaz de identificar qué estrategias son las que mejor funcionan para incrementar el pedido medio de los usuarios.

6. Retorno de la inversión (ROI). Permite conocer cuál es el valor económico exacto de un cliente para la empresa.

7. Tasa de conversión (CR). El porcentaje de esta métrica es de los más influyentes, puesto que una pequeña mejora en este aspecto puede tener sobre los beneficios un impacto gigantesco.

8. Suscripciones, likes, follows, RRSS y formularios de contacto. Son herramientas que nos permiten medir la satisfacción de los usuarios de nuestro sitio respecto al trato y los contenidos del mismo. Además, nos muestran la efectividad de las acciones realizadas

9. Coste de adquisición del cliente (CAC). Determina la cantidad de nuevos clientes adquiridos en función de la inversión realizada en el sitio web. Con este dato podemos medir la rentabilidad de las acciones de marketing.

10. Valor del ciclo de vida del cliente (CLTV). Es de las más importantes en el ámbito del E-commerce. Presenta el ingreso total del usuario en el comercio electrónico desde que se registró en él. Este valor, nos permite comprobar los beneficios obtenidos gracias a las transacciones realizadas por el usuario con lo que nos costó conseguir adquirirlo.

new-york-times_periodismo-computacional

De un tiempo a este, nuestro Blog ITelligent viene desarrollando publicaciones en torno al Periodismo Computacional, también conocido como Periodismo de Datos. La primera publicación “Nuevo Symposium COMPUTATION + JOURNALISM 2016″ en la Universidad de Standford versó sobre la celebración del mayor evento del mundo sobre ésta temática, el segundo El periodismo a muerto, viva el periodismo computacional ofrece una sinopsis sobre la situación del sector de la prensa y lo que podría ofrecer la implementación del Periodismo de Datos a los medios. Nuestro tercer post Periodismo Computacional & The Guardian. El escándalo de los gastos parlamentarios británicos analizaba un caso práctico, y de éxito, de su uso por parte de un gran tabloide.

Esta cuarta publicación sobre Periodismo de Datos nace con la intención de establecer los cuatro pilares básicos del nuevo periodismo de cara a la integración del concepto de periodismo de datos o periodismo computacional en las redacciones de los equipos periodísticos, en definitiva, los aspectos fundamentales a tener en cuenta para beneficiarse de las oportunidades para crear y ampliar contenidos que ofrecen los desarrollos tecnológicos:

No otorgar un carácter experimental o alejado de las redacciones al equipo de periodistas de datos.

Los periodistas computacionales deben de estar cerca de la redacción para potenciar la interrelación, nada ilógico teniendo en cuenta que ambos grupos están formados por periodistas con el objetivo de informar y captar la atención del público, pero que se sirven de herramientas y metodologías diferentes. Además, la retroalimentación debe ser una constante. El hecho de la cercanía física genera relaciones siempre en pro de la mejora constante y el fomento del trabajo en equipo. Estar en el eje de influencia de la redacción te convierte en parte de la redacción, de no ser así, no existes para los engranajes fundamentales del medio. El flujo de dicha presencia debe ser continuo y bidireccional, los equipos de analistas de datos son por naturaleza periodistas y no dejan de estar en su hábitat. Establecer carta de naturaleza a que la redacción y el equipo de datos puedan proponer y ejercer influencia en las noticias así como a que los periodistas de la redacción sepan en todo momento que les pueden ofrecer y en que le puede ayudar su equipo de investigadores de datos.

Sinergia interna entre el equipo de periodistas y desarrolladores de software

Si en el primer punto destacábamos la necesidad de proximidad entre las salas de redacción y el equipo de periodismo de datos, no es menos importante la sinergia interna entre el equipo de investigadores de datos y los desarrolladores de software y no sólo por la necesidad de entendimiento entre ambos para la mejora de la identificación y el análisis de datos interesantes, sino por la búsqueda de una mejora constante en los procesos de trabajo de los equipos, y la ambición de los proyectos. Experiencias de éxito dentro de equipos de investigadores de datos, se han producido a partir de no sólo la colaboración sino del aprendizaje mutuo de conocimientos de otras parcelas no propias. Potenciar la interconexión para así crear periodistas más completos. Tender a hablar un idioma común para poder exprimir todo el potencial del Periodismo Computacional.

BBC UK Datablog

Imag.1 BBC News UK, Datablog. “Fallecidos en cada calle de UK entre 1999-2010

 

Identificar el perfil de periodista con conocimientos en mineria de datos, codificación y desarrollo.

Promover lo antes posible la adaptación dentro del departamento de Recursos Humanos, para así saber y poder identificar el perfil más conveniente de periodistas y desarrolladores que se demanda, especialistas que aúnen experiencia en periodismo convencional y a la vez en minería de datos, codificación y desarrollo. Ese capital humano será fundamental de cara a la consecución de objetivos. La carrera por la adaptación el periodismo de datos nace de la adquisición de capital humano muy específico. A todo lo anterior debe añadirse la apuesta de los “rotativos” por apostar por la formación adaptativa del mayor porcentaje posible de su plantilla, todo ello se puede llevar a cabo tanto a través de cursos formativos como también mediante el rol de formadores de los profesionales especialistas en la materia. Conjugar la contratación de especialistas con la adaptación de los propios trabajadores. La transformación digital debe ser vista como algo atractivo y necesario, superar los debates estériles que se producen ante los grandes cambios, dejar atrás la prensa en su modelo clásico y subirse a la constante  Transformación Digital. Se podría aludir a la clásica frase “Cambiar para que nada cambie” pero debido a la situación del sector periodístico con respecto a tiempos mejores es “Cambiar para volver a ser lo que fuimos”.

Valor añadido al Periodismo

En último lugar, destacar la importancia de saber perfectamente transmitir que el periodismo de datos no es simplemente un nuevo camino para la elaboración de noticias, sino valor añadido para el sector, una oportunidad que no puede dejar pasar la diezmada prensa, algunos medios llevan años acumulando éxitos a través de estar a la vanguardia y conocer las potencialidades que ofrece. Tan importante es saber con qué datos debemos trabajar como transmitir al receptor de manera clara y sencilla lo que generan esos datos y su importancia. Este nuevo periodismo genera su mayor impacto  en el mundo web, hacia donde se ha movilizado la inversión en publicidad, aunque de sus métodos también se beneficia la prensa escrita (Imag. 2) a través de atractivas infografías y estadísticas en sus artículos. El ROI debe ser motivo principal para aumentar la inversión en dicho departamento, el retorno no es simplemente de carácter financiero sino que se refleja también en los lectores. Vivimos en una constante revolución y pensar que en materia de lectores eso no ocurre e intentar tratarlos como tratamos a sus antepasados es un error. El periodismo de datos entre muchos de sus atractivos posee el de hacer sentir participes del medio a sus lectores. La fidelización se obtiene a partir de ofrecer contenido de calidad que capte la atención de los lectores exigentes que pueden a su vez devolver información útil a través de sus comentarios y acciones. La creación de redes de usuarios en torno a un medio ya sea mediante comentarios, participación o el establecimiento de una comunidad en torno al grupo periodístico.

Mortalidad de la armada británica por Florence Nightingale

Imag. 2 Mortalidad de la armada británica por Florence Nightingale

Fuentes:


El periodismo computacional ha llegado para quedarse, una definición básica del término vendría a ser la aplicación de las capacidades que otorga la informática para el tratamiento de ingentes cantidades de conjuntos de datos, en beneficio del atractivo periodístico.

No por ello debemos entender el periodismo computacional como una transformación del periodismo de investigación sino como la evolución lógica del mismo. Si bien requiere de nuevas habilidades y herramientas, los valores y los objetivos son los mismos que inspiraban a periodistas como Ramón Lobo, Manu Leguineche, Enrique Meneses, etc. por nombrar algunos de los grandes investigadores del periodismo patrio o a los celebérrimos Woodward y Bernstein del caso Watergate.

La oportunidad para los proveedores de noticias de tomar una posición más activa, seleccionando “fácilmente”  las mejores fuentes de datos para los lectores, es uno de los principales atractivos de este nuevo periodismo. Estas actividades tienen que fundamentarse en todo momento en los valores del periodismo, estableciendo la única diferencia en el camino para obtener el resultado.

El potencial no ha dejado de crecer y los principales responsables han sido:

  • Políticas gubernamentales que han facilitado el acceso a grandes cantidades de datos en su búsqueda de transparencia (Open Data).
  • La reducción de los costes.
  • La eclosión del público online. La proliferación de usuarios generadores de contenidos, blogs, twitter etc. de donde se puede extraer información importante.

Dicha evolución debe girar en torno a la figura del periodista computacional, un gestor de bases de datos, procesador de datos y analista. Todo ello teniendo en cuenta la conexión con el público. Las nuevas técnicas deben ser de carácter bidireccional, esto permitirá al periodista identificar, conectar y conversar con lectores que aporten valor.

A lo largo de esta publicación analizaremos un caso de éxito por parte de The Guardian en la aplicación de las nuevas tecnologías a sus investigaciones. Investigación por la cual se les otorgó el premio de mejor práctica de periodismo computacional entre los medios digitales. Debemos ver esta investigación y su modus operandi como un ejemplo de éxito de las opciones que puede aportar el nuevo periodismo computacional a la hora de sugerir respuestas y oportunidades en el mundo digital o para fundamentar noticias ya conocidas.

Inicios

Nos remontamos a finales de la década pasada, varios medios británicos comienzan de forma independiente a poner en relieve irregularidades en los gastos efectuados por los parlamentarios de Westminster. Comienzan a llegar filtraciones a las redacciones que en su mayoría se ven superadas por el volumen de información de las mismas. Es ahí donde, ante dicha situación, The Guardian ve en el desarrollo de la informática una oportunidad de aprovechamiento de las fuentes así como un modelo atractivo para los nuevos lectores. Destacar que si el periodismo ha cambiado, el perfil del lector también. El periodismo computacional puede cumplir un rol fundamental para devolver al periodismo la importancia perdida desde hace una década bajo la premisa de “cambiar para que nada cambie”.

Año 2009, el tabloide británico The Guardian planifica cómo encarar el tratamiento que hará de una polémica que empieza a ganar importancia entre la opinión pública. Se trata de la aparición de documentos detallados, con los gastos de ámbito personal que por parte de los parlamentarios británicos cargaban al erario público. Teniendo en cuenta que todo esto se producía a comienzos de la crisis económica global, estos datos suponían una bomba periodística.

La estrategia se basó en dos pilares fundamentales:

  1. El Periodismo Computacional.
  2. El crowdsourcing, participación abierta previamente definida.

El Escandalo de los gastos de los parlamentarios británicos

El pionero fue The Daily Telegraph cuando sus periodistas obtuvieron dos millones de documentos relativos al gasto parlamentario. Aunque encararon la investigación a nivel interno, la falta de especialistas y recursos dificultó ampliar la extracción de valor de los documentos y lo limitó a la publicación de noticias con los recibos.

Sin embargo, el periódico The Guardian establecieron un equipo de 15 personas para abordar la investigación y, a la vez, trabajaron para que en sólo una semana los documentos estuvieran a disposición de sus lectores en su web. Para dicho proceso se sirvieron de la ayuda del framework  Django y establecieron una imagen de cada recibo. El servidor de almacenimiento fué Amazon EC2 que les permitía aumentar la capacidad si fuese necesario.

Participación de los lectores

Una vez online todos los documentos, se invitó a los lectores a ser partícipes de la investigación. Es aquí donde aparece el otro factor fundamental, el crowdsourcing. Se les exigió a los lectores su nombre y su dirección para registrarse. A partir de este registro, el lector podía sumergirse en la información que más le interesase:

  1. Se establecía la opción de seleccionar: por nombre del parlamentario o por distrito electoral.
  2. Evaluar y establecer en su opinión que clase de documento era entre 4 opciones.
  3. Establecer el grado de interés entre: no interesante, interesante pero conocido, interesante o ¡Digno de investigación! así como comentar el porqué debiera ser investigado. A partir de ahí, el equipo de The Guardian los revisaba e investigaba y establecía si tenía relación con noticias ya publicadas.
  4. Los gastos se estructuraron por categorias: partido, parlamentario, categoría del gasto o mediante mapa.
  5. Los detalles de cada gasto se descargaban a través de OPENPLATFORM y en forma de hojas de cálculo. En caso de información relevante, los lectores creaban mashups y los enviaban a The Guardian.

El coste de la investigación nunca fue publicado, pero la estructura usada hace pensar que al contar con recursos propios -como Django- el coste se incrementaría en 50 libras por alquiler del servidor aumentando exponencialmente por su uso.

Entre los parlamentarios investigados, el caso de Peter Viggers alcanzó gran popularidad ya que permitió que saliera a la luz que adeudó al contribuyente la compra de una casa para patos en su estanque. Ante dicha polémica Viggers asumió su vergonzoso error y pidió disculpas.

Tras la revisión de tal cantidad de facturas muchos de los parlamentarios asumieron finalmente los gastos y se promovió una investigación oficial. Algunos de los parlamentarios no concurrieron a elecciones posteriores. Los resultados de la investigación dieron lugar a nuevas noticias por parte de The Guardian que publicó información y gráficos sobre las repercusiones. La investigación gubernamental finalizó con el reconocimiento de 1 millón de libras como gastos no justificables y la apertura de causas judiciales a 4 parlamentarios.

El periódico se benefició de su poder y conocimiento tecnológico el cual le permitió encarar la investigación de una forma que ningún otro medio de la competencia podía. La reputación ya reconocida del tabloide se vio aun mas reforzada y estableció un equipo permanente de profesionales enfocados en las oportunidades de las nuevas tendencias para poder elevar el nivel de las  investigaciones. The Guardian apreció de manera clara las oportunidades que brindan las nuevas tecnologías, y permitió a sus periodistas enfocarse en las nuevas tendencias y elevar el nivel de sus investigaciones.

¿Qué podemos aprender de todo esto?

  • Dirigirse a donde esté la audiencia
  • La mejora de los silos de información a través de las redes sociales
  • Fundamentarse en la transparencia
  • Ofrecer protagonismo a lectores y usuarios
  • La audiencia y los lectores pueden ampliar la visión de la redacción
  • Promover la colaboración con el público a través de Internet
  • Publicar en el momento de mayor atención
  • Ofrecer un servicio informático a la altura de los objetivos que se buscan
  • Que sea interactivo, divertido y personalizado

Como ejemplo de personalización y del protagonismo que otorgó The Guardian a sus lectores, la web ofreció rankings entre sus revisores y los documentos analizados. La personalización también fue importante a la hora de identificar mediante fotografías a los parlamentarios, lo que generó un aumento de la interacción. El tiempo de comprobación debe establecerse acorde al interés de la noticia ya que el margen de error ante tal volumen de datos suele percibirse como normal. Aunque no por ello deben descuidarse errores que puedan afectar de gran manera a sus protagonistas, como a uno de los parlamentarios, quien emprendió medidas legales al periódico al confundir “tanning (bronceado) con training (entrenamiento)”. The Guardian publicó un artículo sobre una reclamación para un salón de bronceado cuando en realidad se trataba de un gimnasio, un lector registrado había leído mal la letra de un recibo y el revisor de The Guardian no se percató.

Pero en definitiva, The Guardian y su buena visión de negocio les hizo incrementar el prestigio que ya poseía y colocarse a la vanguardia del nuevo periodismo. Aunque su labor había comenzado mucho antes, concretamente en 1999 con el nombramiento de un Director de Contenido Digital para un año más tarde poder lanzar su propio portal. En sólo un año de vida ya poseía 2,4 millones de usuarios únicos y adquirió una presencia global de liderazgo en el mundo anglófono. Su pionera experiencia en medios digitales les permitió adelantarse a la competencia en aprovechamiento del periodismo computacional y seguir estando a la vanguardia del periodismo mundial.

Fuente: The Guardian Reportage of the UK MP Expenses Scandal: a Case Study of Computational Journalism  por Daniel, Anna and Flew, Terry (2010)