Tag: google ai

En los últimos años, Google ha apostado por múltiples iniciativas basadas en open data, desde Google Dataset Search para la localización de datos abiertos publicados en repositorios de las administraciones públicas hasta sus propios sistemas de open data con conjuntos de datos estandarizados y legibles por máquinas para ser utilizados por sistemas de Machine Learning. Todas estas iniciativa desarrolladas por Google se enmarcan dentro de un portfolio de proyectos de investigación e innovación llamado Google Research, donde no solo ha apostado por la publicación de datasets, si no que el propio Google actúa también como reutilizador de datos públicos. A continuación, os exponemos algunos ejemplos de las soluciones de Google basadas en open data.

GOOGLE DATA SEARCH: Buscador de Datos

Como antes mencionábamos, Google ha puesto a disposición de los usuarios decenas de conjuntos de datos estandarizados y legibles por máquinas para ser utilizados por sistemas de Machine Learning. Sin embargo, la apertura de datos no es suficiente si éstos no son fáciles de encontrar. Por este motivo, Google ofrece Google Dataset Search, un motor de búsqueda especializado en encontrar conjuntos de datos abiertos almacenados en cientos de repositorios asociados a instituciones públicas de todo el mundo, haciendo que sean accesibles y útiles de forma universal. El servicio está dirigido a periodistas, investigadores, estudiantes o cualquier ciudadano interesado en encontrar ciertos datos. Asimismo, Google Dataset Search complementa a Google Scholar, buscador de investigaciones, estudios e informes académicos.

google-dataset-search

Existe, además, un servicio adicional de datos abiertos enfocado al periodismo de datos: Journalist Studio. Una plataforma compuesta de 13 herramientas enfocadas al análisis de datos para facilitar la labor de investigación a periodistas de datos. En un post anterior ahondamos en este servicio, puedes consultarlo aquí.

GOOGLE EARTH: Sistema de Información Geográfica (SIG)

Google Earth es un Sistema de Información Geográfica (SIG) que muestra el globo terráqueo de forma virtual  con imágenes por satélite y en relieve en 3D.  Este SIG fue creado bajo el nombre de EarthViewer 3D por la compañía Keyhole, financiada por la CIA (EE.UU) y comprada en 2004 por Google -de ahí su actual nombre- absorbiendo la aplicación. Google Earth está compuesto por una superposición de imágenes obtenidas por fotografías aéreas, imágenes de satélites, información geográfica procedentes de modelos de datos SIG de todo el mundo y modelos creados por ordenador.

Google Earth soporta datos geoespaciales tridimensionales mediante los archivos Keyhole Markup Language (.kml). Este formato de archivo sirve para mostrar datos geográficos en un navegador terrestre, como Google Maps y Google Earth.  Asimismo, los archivos .kml se pueden crear para identificar ubicaciones, agregar superposiciones de imágenes y exponer datos enriquecidos de nuevas formas. KML se trata de un estándar internacional mantenido por OGC.

Actualmente, en la nueva actualización en 2021, Google Earth ofrece la posibilidad de ver la Tierra en una dimensión totalmente nueva bajo la función Timelapse. A partir de 24 millones de fotos satélites tomadas en los últimos 37 años, Google ofrece ver cómo ha pasado el tiempo por lugares de todo el mundo y presenciar casi cuatro décadas de cambios planetarios.

GOOGLE TRANSLATE: Sistema de Traducción Automática (NMT)

En 2016, Google anunciaba la actualización de Google Translate con el sistema de Traducción Automática Neural (NMT por sus siglas en inglés, neural machine translation), basada en el algoritmo Phrase-Based Machine Translation. Desde entonces y con los avances en Inteligencia Artificial, Google ha mejorado sus capacidades en reconocimiento de voz y reconocimiento de imágenes. Sin embargo, mejorar la traducción automática sigue siendo un objetivo desafiante ya que el sistema no se iguala al nivel de calidad que se obtiene con una traducción realizada por un ser humano experto en el campo de la traducción, sobre todo, en el caso de los idiomas más minoritarios, por lo que siguen realizando ajustes y avances.

Google no hace públicos los datos exactos que utiliza para el entrenamiento del sistema. Sin embargo, en su informe «Sistema de traducción automática neuronal de Google: superando la brecha entre la traducción humana y la automática» sí destacan que han realizado pruebas de referencia con dos corpus disponibles públicamente: WMT’14 English-to-French y WMT´14 English-German.

OTRAS INICIATIVAS DE GOOGLE RESEARCH

Google ha desarrollado otras iniciativas como la predicción del tiempo y el pronóstico de precipitación basados en modelos de computationally intensive physics (como HRRR de National Oceanic and Atmospheric Administration) para producir pronósticos a corto plazo de hasta ocho horas, con una mayor resolución temporal y espacial. Esto es, no solo conocer la predicción meteorológica en tu ciudad (ej. en Madrid) sino en un área en concreto (ej. en el Parque de El Retiro) gracias a estos modelos de Machine Learning.

Otro ejemplo, a raíz de la Covid19, ha sido la puesta en marcha la reutilización de datos centrados en la movilidad, como son los informes de movilidad local. Estos informes sirven para descubrir cómo han cambiado los desplazamientos de una comunidad debido a la pandemia actual -éstos pueden descargarse tanto en formato .pdf como .csv para su reutilización-. Asimismo, en un post anterior, mostrábamos una actualización de Google Maps (2020) en la que implementaban una nueva capa en sus mapas para conocer la incidencia de la Covid19 en un destino en concreto. Esta capa mostraba la media de casos de coronavirus de los últimos 7 días por cada 100.000 personas así como una etiqueta donde se indica si la tendencia de nuevos casos es al alza o a la baja.

googlemaps-data-covid19