Tag: Machine Learning

En los últimos años, Google ha apostado por múltiples iniciativas basadas en open data, desde Google Dataset Search para la localización de datos abiertos publicados en repositorios de las administraciones públicas hasta sus propios sistemas de open data con conjuntos de datos estandarizados y legibles por máquinas para ser utilizados por sistemas de Machine Learning. Todas estas iniciativa desarrolladas por Google se enmarcan dentro de un portfolio de proyectos de investigación e innovación llamado Google Research, donde no solo ha apostado por la publicación de datasets, si no que el propio Google actúa también como reutilizador de datos públicos. A continuación, os exponemos algunos ejemplos de las soluciones de Google basadas en open data.

GOOGLE DATA SEARCH: Buscador de Datos

Como antes mencionábamos, Google ha puesto a disposición de los usuarios decenas de conjuntos de datos estandarizados y legibles por máquinas para ser utilizados por sistemas de Machine Learning. Sin embargo, la apertura de datos no es suficiente si éstos no son fáciles de encontrar. Por este motivo, Google ofrece Google Dataset Search, un motor de búsqueda especializado en encontrar conjuntos de datos abiertos almacenados en cientos de repositorios asociados a instituciones públicas de todo el mundo, haciendo que sean accesibles y útiles de forma universal. El servicio está dirigido a periodistas, investigadores, estudiantes o cualquier ciudadano interesado en encontrar ciertos datos. Asimismo, Google Dataset Search complementa a Google Scholar, buscador de investigaciones, estudios e informes académicos.

google-dataset-search

Existe, además, un servicio adicional de datos abiertos enfocado al periodismo de datos: Journalist Studio. Una plataforma compuesta de 13 herramientas enfocadas al análisis de datos para facilitar la labor de investigación a periodistas de datos. En un post anterior ahondamos en este servicio, puedes consultarlo aquí.

GOOGLE EARTH: Sistema de Información Geográfica (SIG)

Google Earth es un Sistema de Información Geográfica (SIG) que muestra el globo terráqueo de forma virtual  con imágenes por satélite y en relieve en 3D.  Este SIG fue creado bajo el nombre de EarthViewer 3D por la compañía Keyhole, financiada por la CIA (EE.UU) y comprada en 2004 por Google -de ahí su actual nombre- absorbiendo la aplicación. Google Earth está compuesto por una superposición de imágenes obtenidas por fotografías aéreas, imágenes de satélites, información geográfica procedentes de modelos de datos SIG de todo el mundo y modelos creados por ordenador.

Google Earth soporta datos geoespaciales tridimensionales mediante los archivos Keyhole Markup Language (.kml). Este formato de archivo sirve para mostrar datos geográficos en un navegador terrestre, como Google Maps y Google Earth.  Asimismo, los archivos .kml se pueden crear para identificar ubicaciones, agregar superposiciones de imágenes y exponer datos enriquecidos de nuevas formas. KML se trata de un estándar internacional mantenido por OGC.

Actualmente, en la nueva actualización en 2021, Google Earth ofrece la posibilidad de ver la Tierra en una dimensión totalmente nueva bajo la función Timelapse. A partir de 24 millones de fotos satélites tomadas en los últimos 37 años, Google ofrece ver cómo ha pasado el tiempo por lugares de todo el mundo y presenciar casi cuatro décadas de cambios planetarios.

GOOGLE TRANSLATE: Sistema de Traducción Automática (NMT)

En 2016, Google anunciaba la actualización de Google Translate con el sistema de Traducción Automática Neural (NMT por sus siglas en inglés, neural machine translation), basada en el algoritmo Phrase-Based Machine Translation. Desde entonces y con los avances en Inteligencia Artificial, Google ha mejorado sus capacidades en reconocimiento de voz y reconocimiento de imágenes. Sin embargo, mejorar la traducción automática sigue siendo un objetivo desafiante ya que el sistema no se iguala al nivel de calidad que se obtiene con una traducción realizada por un ser humano experto en el campo de la traducción, sobre todo, en el caso de los idiomas más minoritarios, por lo que siguen realizando ajustes y avances.

Google no hace públicos los datos exactos que utiliza para el entrenamiento del sistema. Sin embargo, en su informe «Sistema de traducción automática neuronal de Google: superando la brecha entre la traducción humana y la automática» sí destacan que han realizado pruebas de referencia con dos corpus disponibles públicamente: WMT’14 English-to-French y WMT´14 English-German.

OTRAS INICIATIVAS DE GOOGLE RESEARCH

Google ha desarrollado otras iniciativas como la predicción del tiempo y el pronóstico de precipitación basados en modelos de computationally intensive physics (como HRRR de National Oceanic and Atmospheric Administration) para producir pronósticos a corto plazo de hasta ocho horas, con una mayor resolución temporal y espacial. Esto es, no solo conocer la predicción meteorológica en tu ciudad (ej. en Madrid) sino en un área en concreto (ej. en el Parque de El Retiro) gracias a estos modelos de Machine Learning.

Otro ejemplo, a raíz de la Covid19, ha sido la puesta en marcha la reutilización de datos centrados en la movilidad, como son los informes de movilidad local. Estos informes sirven para descubrir cómo han cambiado los desplazamientos de una comunidad debido a la pandemia actual -éstos pueden descargarse tanto en formato .pdf como .csv para su reutilización-. Asimismo, en un post anterior, mostrábamos una actualización de Google Maps (2020) en la que implementaban una nueva capa en sus mapas para conocer la incidencia de la Covid19 en un destino en concreto. Esta capa mostraba la media de casos de coronavirus de los últimos 7 días por cada 100.000 personas así como una etiqueta donde se indica si la tendencia de nuevos casos es al alza o a la baja.

googlemaps-data-covid19

El evento para desarrolladores Google I/O 2021 se ha celebrado del 18 al 20 de mayo de este año y ha sido totalmente virtual y gratuito. Como acostumbra a ocurrir, Google se cita con la comunidad de desarrolladores para presentar las novedades más importantes que llegarán a la plataforma, tanto al propio sistema como a sus aplicaciones. A continuación, analizamos todo lo que Google ha presentado y te resumimos las novedades más relevantes del evento Google I/O 2021.

Herramienta para detectar problemas de piel

Esta función no estará disponible hasta finales de año, cuando se lanzará una prueba piloto. Esta herramienta permite que, a partir de tres fotografías realizadas con la cámara de tu móvil, a través de modelos de Inteligencia Artificial, detecte si existen alteraciones en tu piel, como pueden ser infecciones en zonas como en el cabello, las uñas o la piel. Al instante de capturar las fotografías, tendrás que responder algunas preguntas relacionadas con síntomas y el estado de tu piel, y es allí donde esta IA buscará entre una lista de 288 condiciones para predecir qué problemática puedes padecer en tu piel.

Google Fotos: dos funciones nuevas

Google carpeta oculta fotos

Por un lado, tenemos la herramienta «Carpeta Bloqueada» que permitirá ocultar fotos para que no aparezcan visibles en la propia galería de la aplicación o en cualquier otra app. Para poder acceder a ellas, basta con ingresar la huella digital o una contraseña y ya estará el contenido oculto en otra sección de tu teléfono. Actualmente, solo está disponible para móviles Pixels.

Y por otro lado, podemos tener un vídeo secuencia a partir de tres imágenes que gracias a redes neuronales, podremos tomar dos imágenes casi idénticas y llenar los vacíos creando nuevos cuadros en el medio. Esto crea imágenes vívidas y en movimiento llamadas momentos cinematográficos. Producir este efecto desde cero llevaría horas a los animadores profesionales, pero gracias al machine learning podemos generar automáticamente estos momentos.

E855_Photos_IO_Social_Assets_CinematicPhotos_Part01_v01_cl

Cambia el canal de la TV con tu teléfono

Con esta nueva actualización, han incluido funciones de control remoto directamente en tu teléfono Android. Puedes cambiar de canal, o si, por ejemplo, necesitas ingresar una contraseña larga para iniciar sesión en una de tus muchas suscripciones de servicios de transmisión, puedes también usar el teclado de tu teléfono para ingresar el texto. Este control remoto integrado será compatible con dispositivos que tengan sistema operativo Android TV (incluido Google TV), y se lanzará a finales de 2021.

Phone-As-Remote

Abre, cierra y arranca tu coche con el móvil

Android Auto está diseñado para que sea más seguro usar aplicaciones desde tu teléfono mientras estás conduciendo. Está disponible en más de 100 millones de marcas de coches, y este año se sumarán nuevas marcas que admitirán Android Auto inalámbrico.

Eso no es todo, están desarrollando una llave para abrir, cerrar e incluso arrancar el coche de manera digital con Android 12. Al usar la tecnología de banda ultra ancha (UWB), ni siquiera tendrás que sacar tu teléfono para usarlo como llave. Para los modelos de coche que tengan NFC, solo tendrás que tocar la puerta del piloto con el teléfono para desbloquearla. Dado que todo es digital, puedes compartir de forma segura y remota la llave de tu coche con amigos y familiares.

llave remota para abrir el coche

Obtén más información sobre los resultados de la búsqueda

Cuando buscas información en línea, es importante verificar qué tan creíble es una fuente, especialmente si no estás familiarizado con el sitio web. Van a proporcionar detalles sobre un sitio web antes de que lo visites: descripción, cuándo se indexó por primera vez y si tu conexión al sitio es segura. Por otro lado, también incluirán cómo se describe el sitio web a sí mismo y qué dicen otras fuentes al respecto.

Cambie su contraseña usando Chrome y el Asistente.

Se avecinan cambios y mejoras en el gestor de contraseñas que Google integra en Google Chrome. Además de avisarte cuando tus contraseñas están en riesgo, podrás arreglar tus contraseñas comprometidas de forma más rápida, casi automática.

La novedad comenzará a activarse primero en Estados Unidos y funcionará del siguiente modo: cuando Chrome encuentre una contraseña que posiblemente vulnerada, el Asistente de Google nos proporcionará un botón para cambiar la contraseña directamente, sin tener que abrir la web en cuestión. Con la tecnología de Duplex on the Web, el Asistente no solo navegará al sitio, sino que también realizará todo el proceso de cambio de contraseña por ti. Esta función ya está disponible para comprar entradas para el cine, pedir comida y registrarse en los vuelos.

Google Lens para traducir o para encontrar productos a través de una captura

Lens_Homework_1

Esta herramienta te permite buscar lo que ves desde tu cámara, tus fotos e incluso tu barra de búsqueda. Para muchos estudiantes, sus tareas pueden estar en un idioma con el que no se sienten tan cómodos. Es por eso que Google está actualizando el filtro «Traducir» en Lens y AR, lo que facilita copiar, escuchar o buscar texto traducido en más de 100 idiomas.

Mucha gente toma capturas de pantalla de las cosas que les interesa comprar, pero puede ser difícil hacer un seguimiento de esas capturas de pantalla después. Ahora, cuando mires cualquier captura de pantalla en Google Photos, Google te pedirá que busque la foto con Lens. Esto te ayudará a encontrar cualquier producto que no sepas cómo se llama o incluso su marca.

_080_LensScreenshot_Gif_1920_256_1

Obtenga el mejor valor por los productos que compra online

Shopping Graph es un modelo dinámico mejorado por IA que comprende un conjunto de productos, vendedores, marcas, reseñas en constante cambio y, lo que es más importante, la información del producto y los datos de inventario de las marcas y los minoristas directamente, así como la forma en que esos atributos relacionarse entre sí. Con personas comprando en Google más de mil millones de veces al día, el gráfico de compras hace que esas sesiones sean más útiles al conectar a las personas con más de 24 mil millones de listados de comerciantes en la web. Funciona en tiempo real para que las personas puedan descubrir y comprar productos que están disponibles en este momento.

Google Maps

Maps ha sacado dos novedades: la primera, la aplicación Live View. Es útil para navegar en la app en tiempo real gracias a la realidad aumentada. Podrás tener información rápida sobre el congestionamiento de restaurantes y tiendas, sus reseñas y fotos. También, podrás usarlo en aeropuertos y centros comerciales. Por ejemplo, si estás de viaje, Live View te dirá dónde te encuentras en relación con tu hotel, para que siempre puedas encontrar el camino de regreso.

Por otra parte, la segunda novedad que incluye Maps es que mostrará información más relevante según la hora del día. Eso significa que le mostrará por ejemplo, cafeterías por la mañana y hamburgueserías por la noche. Si por el contrario, te encuentras en una escapada de fin de semana, te saldrán actividades y lugares turísticos para ver y hacer.

Google Workspace

Lanzan Smart Canvas, una nueva experiencia de producto que ofrece la próxima evolución de colaboración para Google Workspace. Tiene muchas actualizaciones interesantes en Documentos, Hojas de cálculo y Meet. Las nuevas funciones incluyen bloques de construcción interactivos (chips inteligentes, plantillas y listas de verificación), así como un nuevo formato sin páginas en Docs y reacciones con emoji.

Sin duda, hay más herramientas que Google I/O 2021, pero estamos de acuerdo con que precisamente éstas son las novedades más interesantes de cara a nuestra vida diaria, con una asistencia más presente y una mayor presencia de tecnología basada en inteligencia artificial para facilitarnos las cosas. Destacamos también, la tecnologia «machine learning» que se adapta a momentos y lugares, ofreciendo en los viajes la mejor experiencia, como adivinar qué nos interesa en cada momento del día o ayudarnos qué visitar.

Adobe lanzaba la semana pasada una nueva versión de Photoshop tanto para el escritorio como para el iPad, en la que presentaban cinco funciones nuevas basadas en Inteligencia Artificial.

Con esta versión, Photoshop presenta cinco nuevas funciones importantes de inteligencia artificial. Estas nuevas funciones, sumadas a las consolidadas funciones de IA y machine learning de Adobe Sensei, hacen de Photoshop la aplicación de Inteligencia Artificial más avanzada del mundo para diseñadores, artistas y creativos. Este uso inteligente de la tecnología permite trabajar más rápido que nunca.

El objetivo de Adobe con esta actualización es reemplazar de forma sistemática, siempre que sea posible, los pasos que requieren mucho tiempo con tecnología inteligente y automatizada. Con estas cinco funcionalidades nuevas, diseñadores, artistas y creativos podrán liberarse de tareas mundanas y centrarse en lo que más les importa: su creatividad.

¿Cuáles son las nuevas funciones de Inteligencia Artificial de Adobe Photoshop?

1. Sky replacement

La nueva función de «Reemplazo del cielo» separa inteligentemente el cielo del primer plano y permite crear las mejores imágenes con cielos dinámicos con solo unos pocos clics. Photoshop ahora sabe qué es el primer plano y el cielo. Ya se puede seleccionar el cielo con Seleccionar> Cielo y editar al gusto. O utilizando Editar> Reemplazo de cielo, eligiendo un nuevo cielo de la base de datos de Adobe o agregando uno propio y dejando que los nuevos modelos de machine learning, impulsados ​​por Sensei, hagan el enmascaramiento y la mezcla. Adobe utiliza algoritmos de vanguardia para armonizar el primer plano de la imagen con el cielo, por lo que si se cambia un cielo brillante de la tarde por un atardecer, toda la imagen adquiere la calidez de la hora dorada.

2. Neural Filters.

Neural Filters es el comienzo de una completa reimaginación de los filtros y la manipulación de imágenes dentro de Photoshop. Esta primera versión se envía con un gran conjunto de filtros nuevos. Muchos de estos filtros todavía se encuentran en estado de calidad beta. Adobe los ofrece a sus clientes para que puedan probarlo, den su opinión y puedan ayudar a dar forma al futuro de la IA en Photoshop. Neural Filters es parte de una nueva plataforma de aprendizaje automático, que evolucionará y mejorará con el tiempo, expandiendo lo que es posible de manera exponencial. Los primeros filtros neuronales «destacados» y que no son beta son: Skin Smoothing y Style Transfer, que pueden ayudar a los retocadores de fotografías e inspirar a los artistas.

Ls principal ventaja de estos filtros neuronales es que reducen los flujos de trabajo complejos a un clic o un par de controles deslizantes mediante el aprendizaje automático.

Esta función está disponible en Photoshop 22.0 en todos los dispositivos, pero el rendimiento es particularmente rápido en computadoras de escritorio y portátiles con aceleración de gráficos.

3. Intelligent Refine Edge

Photoshop posee a profesionales científicos de imágenes que han invertido toda su carrera para hacer selecciones increíbles para que el usuario, prácticamente con tan sol un clic lo tenga fácil. Los últimos lanzamientos son funciones basadas en IA como «selección sujeto» y «selección de objeto», agregando múltiples algoritmos que manejan inteligentemente, por ejemplo, el cabello complicado y fondos complejos, para que el usuario no tenga que hacerlo. Actualmente, Photoshop posee dos nuevas funciones de Sensei en el espacio de trabajo Seleccionar y enmascarar, «Refine Hair» y «Object Aware Refine Mode».

4. Nuevo panel para descubrir con mejor búsqueda, ayuda y acciones contextuales

El nuevo panel «Descubrir» aporta una experiencia de búsqueda y aprendizaje completamente nuevo a Photoshop. Combina una biblioteca muy ampliada en contenido para el aprendizaje de la aplicación, nuevos tutoriales con «paso a paso» y una nueva potente funcionalidad de búsquedas. La inteligencia artificial hace que la nueva experiencia sea sensible al contexto y le brinda recomendaciones basadas en el usuario y su trabajo. Estas recomendaciones incluyen consejos y tutoriales sobre cómo hacer que los flujos de trabajo de varios pasos se realicen más rápido, y también Adobe ha empaquetado los principales flujos de trabajo en acciones rápidas automatizadas con un solo clic que ayudan a eliminar y difuminar fondos, crear un fondo en blanco y negro o mejorar una imagen.

Para acceder al panel Descubrir, se puede hacer en cualquier momento haciendo clic en el icono de la lupa en la parte superior derecha del marco de la aplicación, CMD-F o mediante el menú Ayuda de Photoshop.

guia adobe

5. Vista previa del Pattern

Los patterns o patrones creados en Photoshop a menudo terminan en la ropa que usamos, en los juegos que jugamos y en una gran variedad de objetos que usamos. Crear un patrón que se repita perfectamente puede ser complicado, pero ahora es más fácil que nunca con Photoshop.  La vista previa de patrón es un modo de visualización de documentos que permite al usuario visualizar cómo aparecerá su creación gráfica como patrón. En este modo de visualización, se coloca en mosaico y se repite virtualmente la gráfica creada. También, se puede mover y ajustar capas en este modo visual para no tener que preguntarse cómo se verá como un patrón.

ejemplo vista previa patron de adobe

Fuente: Blog Adobe