Quantcast

Nuestro Blog

JAVA

Actualmente, según el índice TIOBE (octubre 2018) es el lenguaje de programación más popular del mundo. Tanto es así que hay miles de softwares, apps y sitios web que no funcionarán a menos que tengan Java instalado. Este lenguaje de programación posee su propia estructura, reglas de sintaxis y paradigma de programación, como cualquier otro lenguaje. Se trata de una derivación del Lenguaje C, por lo que por lo que las reglas de sintaxis se parecen mucho a este lenguaje C. Java es un lenguaje de programación que desarrollado por James Gosling de Sun Microsystems en 1995.

PYTHON

Es uno de los lenguajes de programación más utilizados y el más adecuado para implementar algoritmos de productividad. Python es de código abierto y proporciona un enfoque más generalizado para la ciencia de datos (Data Science). Toda la información relativa a este lenguaje de programación es libre. Python fue creado por Guido Van Rossum en el año 1991 en los Países Bajos. Python posee este nombre por los seis humoristas británicos “Monty Python”, coloquialmente conocidos como “Los Pythons”.

El lenguaje Python es más apropiado para implementar algoritmos de productividad. A través de Python, se tiene acceso a un gran número de paquetes para desarrolladores que permiten crear un código general de manera rápida y vincular flujos de trabajos o componentes. Python permite programar en varios estilos: programación orientada a objetos, estructurada, funcional y orientada a aspectos.

Lenguaje R

El software R se puede utilizar como lenguaje de programación, pero esa no es su fortaleza. Principalmente este lenguaje se utiliza para el análisis estadístico, manipulación de grandes volúmenes de datos y representación gráfica de alta calidad. R apareció por primera vez en 1996, de la mano de los profesores de estadística Ross Ihaka y Robert Gentleman de la Universidad de Auckland en Nueva Zelanda. El nombre surgió de las iniciales de ambos y se inspiró en el lenguaje S de Bell Labs. El lenguaje R es fruto de un proyecto colaborativa que implica a miles de usuarios de todo el mundo. Se trata de un software que está permanentemente actualizado, con funciones nuevas y paquetes accesibles en tiempo real.

Actualmente posee uno de los ecosistemas más ricos para realizar análisis de datos, alrededor de 1.200 paquetes disponibles en Open Source disponible para los sistemas operativos Windows, MACOs, Unix y Linux. Gracias a R,  se puede decodificar lenguajes de programación y se puede acceder a la lectura de datos procesados en softwares como Excel, SPSS, etc.  Tal es su potencial que se trata del software predilecto de cualquier Data Scientist de la comunidad científica internacional. Además, posee un entorno gráfico con una amplia gama de herramientas estadísticas clásicas y avanzadas para el análisis y la representación gráfica de datos exportables  en diversos formatos: pdf, bitmap, png, jpeg, etc. permite generar gráficos con alta calidad, con sólo utilizar las funciones de graficación.

R posee una gran relevancia en áreas de Big Data, minería de datos, Inteligencia Artificial, análisis predictivos, matemáticas financieras, ingeniería industrial, …

 

Por Jaime Martel Romero-Valdespino es CTO en  Intelligent Information Technologies SL
LinkedIn

Llamamos “hibridación de datos” a los procesos que permiten generar un conjunto de datos único y listo para ser utilizados, desde herramientas informáticas, a partir de fuentes de datos heterogéneas y con distintos grados de estructuración. En nuestra experiencia la “hibridación de datos” suele requerir al menos cuatro pasos: estructuración, homogenización, armonización y enriquecimiento.

Actualmente, la hibridación de datos en el sector industrial está mucho menos presente que en otros sectores como servicios o retail. Siendo la predicción de la demanda el caso más habitual, en el mundo industrial, dónde se realiza una “hibridación” previa de los datos internos de ventas con otros datos (ej. meteorología, geodemografía, trafico, festivos, etc). Salvando el caso de previsión de demanda, dentro de las plantas industriales suele ser mucho menos habitual encontrar casos “potentes” de hibridación de datos, pero esto no quiere decir que no sea necesario. Así es habitual, en muchas empresas industriales, que los sistemas de información no estén integrados con las máquinas y cuando lo están, suele ser una integración encaminada a un propósito operativo (ej. trazabilidad) y no a la obtención de unos datos de calidad que permitan su uso por sistemas de inteligencia.

Sistemas Productivos e Hibridación de Datos

Cualquier intento de desplegar sistemas de inteligencia para la mejora de la producción en plantas industriales debe haber sido precedido por un análisis de la disponibilidad de datos para alimentar el sistema y del coste asociado de obtención. Así, por ejemplo, tiene poco sentido implantar un sistema inteligente de planificación de operaciones (scheduling) en un taller si no tenemos automatizado la captura de datos necesario para actualizar el sistema de planificación. Pues muy pronto las planificaciones quedarán obsoletas o se requerirá una importante dedicación de recursos humanos para mantener el sistema actualizado.

En general, en los sistemas de producción, los datos serán internos, pero su hibridación presenta retos similares a los que se encuentran con datos externos. A continuación, vamos a describir un caso basado en nuestra experiencia.

En el taller en cuestión, que trabaja bajo pedido, la primera necesidad planteada era disponer de un sistema que les permitiese tener un seguimiento de tiempos y costes de cada trabajo en planta, para posteriormente poder generar inteligencia encaminada a ayudar a:

  1. La confección de presupuestos (ej. aprendizaje de unidades de repercusión y los factores que les afectan)
  2. La detección de desviaciones anómalas (ej. tiempos de procesamientos que los modelos de inteligencia no sean capaz de explicar)
  3. La detección de patrones de interés (ej. trabajadores con productividad alta),

El taller disponía de un ERP con información de los pedidos y materiales, un sistema CAD para el diseño de las piezas, partes manuales (papel) de producción y controles periódicos de calidad que eran volcados manualmente al ERP. Toda esta información no estaba integrada por lo que la implementación de cualquier sistema de inteligencia era imposible. Se partió de un análisis de disponibilidad de datos y a partir de dicho análisis se elaboró un plan de acción con las siguientes acciones:

  1. Nuevas fuentes de datos. Se detectaron falta de datos imprescindibles para cubrir las necesidades planteadas. Para ello, se incorporaron nuevos sensores desarrollados ad-hoc para algunas máquinas así como la introducción de tablets con aplicaciones específicas como alternativa a los partes manuales y el desarrollo de un extractor para obtener del ERP aquellos datos de interés para el sistema de inteligencia.
  2. Desarrollo de un sistema de hibridación de datos que partiendo de las distintas fuentes de datos fuese capaz de hibridarlas y volcar a un repositorio único los datos. Este sistema no podía ser totalmente automático ya que necesitaría cierta supervisión de la oficina técnica.
  3. Estructuración de datos. Información muy importante para el proceso de producción y generación de inteligencia se encontraba en formato de planos CAD. Estos son datos poco estructurados que no pueden ser utilizados directamente, pero que una vez estructurados pueden generar datos de gran interés para el proyecto. Se decide abordar mediante un proyecto de I+D la generación de modelos de inteligencia que permitan estructurar los datos de los sistemas CAD.

También puedes leer este post en el Blog de #CIC40

  • Netprice es la plataforma más avanzada del mercado que cubre todas tus necesidades y si necesitas algo más… ITELLIGENT lo desarrolla. 
  • ITELLIGENT, con diez años en el mercado, ha sido pionera en España en aplicaciones de Inteligencia Artificial y Big Data.

Big Data e Inteligencia Artificial  al servicio de la Optimización y la Gestión de Precios. Así es Netprice de  ITELLIGENT,  una plataforma pionera en España para la monitorización, modelización y gestión de precios tanto propios como de la competencia. Se trata de una plataforma de Big Data para la gestión de millones de precios, desde catálogos de productos hasta buscadores complejos. Esta plataforma ha sido desarrollada en España por expertos en modelización de precios con analíticas avanzadas para que rentabilice tu esfuerzo.

NETPRICE se compone de los siguientes módulos:

  1. Oportunidades vs Amenazas. Optimiza tu estrategia de precios gracias a la detección de oportunidades y alertas de amenazas en base a los de tu competencia.
  2. Ajuste automático de precios. Ajuste automático de precios en sistemas ERP o ecommerce con posibilidad de supervisión previo o definición de reglas.
  3. Alertas inteligentes. Nuestras Alertas Inteligentes permiten que solo recibas aquello que es relevante para ti. Evitando la saturación  de mensajes intrascendentes.
  4. Optimización en buscadores. Basado en la ofuscación de precios y el posicionamiento en buscadores, detección de patrones de fijación de precios de la competencia para establecer estrategias.
  5. SIG o Sistema de información geográfica. Visualización sobre mapas y posibilidad de representar distintas capas: recursos de interés, geodemografia, sociodemografia,…
  6. Informes. Servicio de informes automáticos o realizado por expertos que analizarán aquello que necesites.
  7. Revenue Management. Gestión de la estrategia de precios en base a la demanda de su catálogo de productos/servicios para rentabilizar sus ventas.
  8. Mapping. Sistema automatizado de Product Matching, permite enlazar tu catálogo de productos con los de tu competencia para realizar una correcta analítica de precios.
  9. Exportar datos. Servicio que permite exportar datos masivos en diversos formatos: CSV, Excel, …

netprice plataforma big data pricing

¿Qué te ofrece NETPRICE?

CENTRADO EN LO REALMENTE RELEVANTE. ¿Pierdes oportunidades porque te falta tiempo para analizar tus precios? NETPRICE permite detectar las oportunidades y las amenazas que te merecen la pena gestionar, centrando tu esfuerzo en lo realmente relevante.

ANALÍTICA AVANZADA PARA QUE RENTABILICES TU ESFUERZO. ¿Se te escapan oportunidades en la gestión de tus precios? Gracias  a la analítica avanzada de NETPRICE (Revenue Management, análisis predictivos…) podrás rentabilizar al máximo tu política de pricing.

DESARROLLOS A MEDIDA. ¿Necesitas algún desarrollo adicional sobre nuestra plataforma? Desarrollamos para ti aquello que necesites a precios muy razonables.

ALTA VELOCIDAD DE CARGA. ¿Cansado de esperar que tu herramienta muestre los datos? Con NETPRICE obtendrás acceso a tus datos en un abrir y cerrar de ojos.

INTEGRACIÓN CON TU SISTEMA. ¿Te ves saltando de una herramienta a otra para finalizar tu trabajo? ¡No desesperes más! Utiliza NETPRICE, lo integra todo en una única plataforma permitiendo integrarla con tu ERP o plataforma de e-commerce.

EXCELENCIA EN LA ATENCIÓN AL CLIENTE. ¿Cansado de esperar a que te atiendan o de hablar con un chatbot? Con ITELLIGENT no tendrás que esperar, tendrás acceso directo a nuestro equipo y además estamos en España.

EXPERIENCIA EN EL SECTOR. No estas ante una start up, somos una empresa pionera en España con más de diez años de experiencia en el mercado con un equipo de profesionales a tu servicio.

En múltiples ocasiones hemos comentado que nos encontramos en un entorno empresarial en el que cada día se generan alrededor de 3 trillones de bytes de información. Esta gran cantidad de volumen de información ha crecido debido, en parte, a Internet y al continuo aumento tecnológico en las comunicaciones y recogida de datos. Tal cantidad de datos se generan y producen al día que se ha conseguido que las organizaciones puedan  analizar, descubrir y verificar esta enorme cantidad de información a través de tecnologías específicas para ello.

visualizacion de datos netopinion

Todo esto hace que nos lleguen cantidades ingentes de información desde múltiples fuentes y lo que sucede es que, en muchas ocasiones, no se dispone del tiempo suficiente para su correcta interpretación. En este punto entra en juego el ámbito de la visualización de grandes datos cuyo objetivo principal es mostrar, a través de gráficos y de forma sencilla, medible y comprensible,  la información recopilada en el análisis y modelización de los mismo. Aunque los gráficos llevan décadas siendo utilizados en el ámbito empresarial, las tecnologías de visualización de datos han evolucionado según las necesidades del nuevo paradigma empresarial en la que la analítica empresarial y sistemas de big data proliferan.

Por este motivo, exponemos en este post aquellos aspectos más relevantes a tener en cuenta para sacar el máximo provecho a la visualización de datos en nuestros proyectos profesionales:

1| Qué es lo que vamos a contar. Un error común a la hora de visualizar la información es intentar abarcar demasiado. Debemos saber qué queremos contar y ser precisos en la información que vamos a mostrar en la visualización.

2| A quién va dirigido (público objetivo o target). Debemos tener en cuenta qué tipo de público va a trabajar con los datos a mostrar en la visualización.  Pensar quién es el usuario que va a interpretar los gráficos (si es un especialista de datos, un “marketero” o un usuario sin especialización…) y en base a esto, decidir qué tipo de datos podemos mostrar para que el target cuando lo visualice, lo comprenda.

3| Cómo vamos a contarlo. Aquí entra el juego otro aspecto a tener en cuenta: el storytelling con datos, una nueva forma de presentar y analizar los datos. Os recomendamos el libro de Cole Nussbaumer, “Storytelling con datos“, en el que ofrece una guía práctica para utilizar los conceptos de storytelling -contar una historia con un comienzo, nudo y desenlace- para comunicar datos de forma visual y efectiva. Algunos conceptos ejemplificados que os mostramos en este post son extraídos tras la lectura de este libro tal como se observa en la  imagen del consejo número (5) donde se muestra un ejemplo de “contar una historia con los datos” (opción B).

4| Simplificar. Aunque ya lo hemos mencionado en el primer punto, debemos darle una especial importancia a la simplificación. Debemos ser concisos y sólo mostrar aquello que es relevante, descartar los datos que no son ilustres o son “ruido” para que exista una correcta visualización o buen entendimiento.

5| Utilizar gráficos adecuados según el tipo de dato. Debemos utilizar los recursos gráficos de forma inteligente. No todos los gráficos sirven para todo. Por ejemplo, utilizar siempre gráficos de columnas para realizar comparativas en lugar de gráficos circulares, ya que visualmente se aprecia mejor. Un ejemplo de ello lo reflejamos en en el siguiente ejemplo sacado del libro de Nussbaumer (2015):

Visualización de datos. Storytelling con datos

FUENTE: Naussbaumer Knaflic, Cole (2015): Storytelling con datos. Visualización de datos para profesionales. Ed. ANAYA Multimedia

6| No abusar de tablas. Solo deben usarse tablas cuando necesitemos mostrar valores precisos. Asimismo, hay que tener en cuenta que las tablas estén diseñadas a una escala apropiada para que no haya confusiones en el análisis de los datos.

7| Utilizar colores apropiados para facilitar la percepción y comprensión de los datos. La selección de los colores parece algo sencillo, pero no todos los colores son eficaces para la visualización de los datos. Es aconsejable utilizar colores de tonos pastel o diferentes tonalidades de un mismo color en lugar de colores vivos como el rojo, fucsia, amarillo y naranja en una misma gráfica. Si observamos el ejemplo anterior, la gráfica de tabla con sólo dos colores para diferenciar entre “antes” y “después” se visualiza mucho mejor frente al abuso de color en el gráfico circular, donde se muestra uno por cada valor en la encuesta (cinco en total).

Por otro lado, usar de forma correcta el color puede hacer más comprensible un gráfico. El color puede ser útil para resaltar una determinada información que se considere relevante o destacar aquellos puntos donde se ha de centrar el análisis.

8| Enunciados claros y memorables. Debemos elegir un buen titular para contextualizar y dirigir la atención hacia la  información más importante. El uso de  tipografías legibles y el uso de etiquetas, ejes y leyendas fáciles de leer pueden ser un factor importante en la visualización para la lectura de los datos.

9| Organizar los datos de forma lógica. Asegurarnos que los diferentes gráficos y  pantallas de la visualización estén alineados horizontal y verticalmente para que puedan compararse con precisión y no crear ninguna ilusión óptica engañosa.

10| Citar fuentes de donde se extrae información. Ser transparentes da una mayor credibilidad. Si hemos extraído información o datos de otras fuentes (por ejemplo, Open Data) debemos citarlas para aportar credibilidad a la información que mostramos.

¡Y recuerda!