Nuestro Blog

En la carrera por construir tecnologías subyacentes que puedan impulsar la próxima ola de revolución de la Inteligencia Artificial, un laboratorio chino acaba de derrocar a OpenAI y a Google,  al presentar un modelo de Deep Learning con una inmensa cantidad de parámetros de entrenamiento. La Academia de Inteligencia Artificial de Beijing, denominada BAAI, ha lanzado este mes de junio la última versión de Wu Dao, un modelo de Deep learning previamente entrenado que el laboratorio denominó «el primero de China» y » el más grande del mundo ”, con la friolera de 1,75 billones de parámetros.

Teniendo en cuenta que, Wu Dao 2.0 es 10 veces mayor que el modelo GPT-3 de OpenAI, el venerado laboratorio de investigación con sede en EEUU, el cual ya era ampliamente considerado como el mejor modelo en términos de la generación del lenguaje (Natural Language Generation), podemos afirmar que este nuevo modelo chino desafía a todos los anteriores logrando un nuevo avance en Inteligencia Artificial.

Google presentó el pasado mes de mayo  en su evento para desarrolladores Google IO, dos Inteligencias Artificials, LaMDA y MUM, que revolucionarán los chatbots y el motor de búsqueda, respectivamente. En el caso de MUM, modelo unificado multitarea que es capaz de responder preguntas complejas y extraer información tanto de texto como de imágenes, es un ejemplo reciente de modelos multimodales. Sin embargo, los submodelos de Wu Dao 2.0 lograron un mejor rendimiento que los modelos anteriores, superando OpenAI y Google en la indexación de imágenes y texto.

¿Qué es Wu Dao?

Wu Dao es principalmente un sistema de inteligencia artificial multimodelo, lo que significa que está repleto de energía para realizar una gran cantidad de tareas como generación de texto, reconocimiento de imágenes, generación de imágenes, etc.

Poema generado por Wu Dao 2.0

A diferencia de los modelos de aprendizaje profundo convencionales que suelen ser específicos de una tarea, Wu Dao 2.0 es un modelo multimodal entrenado para abordar tanto el texto como la imagen. Pero el componente más extraordinario de este modelo de IA que lo diferencia de todos los demás es, sin duda, su tamaño. Para hacer una comparación, este modelo de IA se entrenó utilizando 1,75 billones de parámetros; por el contrario, el modelo más destacado de OpenAI, GPT-3, que ha sido entrenado utilizando solo 175 mil millones de parámetros. Además, el modelo desarrolla tanto en chino como en inglés las habilidades adquiridas a medida que ha «estudiado» 4,9 terabytes de imágenes y textos, incluidos 1,2 terabytes de texto en esos dos idiomas. WuDao 2.0 ya tiene 22 socios, como el fabricante de teléfonos inteligentes Xiaomi o el gigante de videos cortos Kuaishou.

Este modelo es capaz de simular conversaciones, comprender imágenes, escribir poemas originales, responder preguntas, escribir ensayos, generar texto alternativo para imágenes y generar imágenes correspondientes a partir de la descripción del lenguaje natural con un nivel decente de fotorrealismo.

Hua Zhibing

Hua Zhibing, la primera estudiante virtual de China impulsada por el sistema de inteligencia artificial WuDao 2.0.

Asimismo, estamos ante el primer estudiante virtual con inteligencia artificial de China, Hua Zhibing, hija de Wu Dao 2.0, es la primera estudiante virtual china. Ella puede aprender continuamente, componer poesía, hacer dibujos y aprenderá a codificar en el futuro. A diferencia de GPT-3, Wu Dao 2.0 puede aprender diferentes tareas a lo largo del tiempo, sin olvidar lo aprendido anteriormente. Esta característica parece acercar aún más la IA a la memoria humana y los mecanismos de aprendizaje.

Wu Dao 2.0 es ahora la red neuronal más grande jamás creada y probablemente la más poderosa. Su potencial y sus límites aún no se han revelado por completo, pero las expectativas son altas y con razón.

Fuentes: gpt3demo.com towardsdatascience.com pingwest.com marktechpost.com

Comentarios ( 0 )

    Deja un comentario