¿Va Google MUM a acabar con el SEO?

Hace unas semanas, Google celebró su conferencia anual Google I/O. Presentaron actualizaciones de tecnologías existentes como Google Maps o Google Photos junto con algunas tecnologías sorprendentes como LaMDA, una IA conversacional experta que podría revolucionar la tecnología de los chatbot, o MUM.
Hoy hablaré de MUM, que son las siglas de Multitask Unified Model. En resumen, esta tecnología está dirigida a hacer más potentes los motores de búsqueda, lo mismo que hizo BERT hace un par de años.
Revisaré lo que es el MUM y cómo podría impactar en el SEO en el futuro, hasta el punto de hacerlo obsoleto.

MUM – Un cerebro para el motor de búsqueda

MUM es una mejora del motor de búsqueda de Google. Al igual que otros modelos lingüísticos populares del estado de la técnica, como GPT-3 o LaMDA, MUM se basa en la arquitectura de transformadores. BERT (el predecesor de MUM) es similar en este sentido, con la principal diferencia de que MUM es 1000 veces más potente.
El principal problema que pretende resolver MUM es, como escribe Pandu Nayak en el blog de Google, “tener que escribir muchas consultas y realizar muchas búsquedas para obtener la respuesta que necesitas”. MUM aprovecha mejor su potencia para las consultas que no tienen una respuesta fácil, ayudando al motor de búsqueda de Google a afrontar tareas complejas.
En esta demostración, Prabhakar Raghavan ilustró la potencia de MUM con un ejemplo de consulta: “Has ido de excursión al monte Adams. Ahora quieres ir de excursión al monte Fuji el próximo otoño, y quieres saber qué hacer de forma diferente para prepararte”. Esta es una pregunta que podríamos imaginarle a un experto en senderismo, pero no a un motor de búsqueda.
Con la tecnología actual tendríamos que buscar cada una de las variables que se nos ocurran (por ejemplo, el clima, la época del año, la elevación del terreno, el tipo de equipo, el tipo de rocas…) y luego comparar nuestros resultados para extraer una respuesta válida.
Sin embargo, MUM podría resolver la consulta directamente utilizando su todopoderoso conjunto de herramientas: “El monte Fuji está más o menos a la misma altura que el monte Adams, pero el otoño es la estación de las lluvias en el monte Fuji, así que puede que necesites una chaqueta impermeable”, respondió MUM.

Habilidades de MUM – Multilingüe y multitarea

MUM ha sido entrenado en 75 idiomas, lo que permite al sistema romper las barreras lingüísticas. Con la tecnología actual, tendríamos que buscar información en japonés para encontrar respuestas satisfactorias para nuestra excursión al Monte Fuji. MUM podría simplemente buscar la información directamente y luego traducirla para ti.
MUM ha sido entrenado en múltiples tareas, logrando “una comprensión más completa de la información y el conocimiento del mundo que los modelos anteriores”. Las posibilidades aquí son salvajes. MUM podría entender que el monte Adams y el monte Fuji son montañas. Podría entender que necesitarás conocer las diferencias en geología pero que no te importará la fauna y la flora. Podría entender que prepararse no se refiere a entrenar físicamente (pues ya has hecho senderismo en el monte Adams), sino que podría significar cosas como “encontrar el equipo adecuado”.
MUM es capaz no sólo de “entender” el lenguaje, sino de “generarlo” (en este sentido podría compararse con la GPT-3). Sin embargo, yo matizaría aquí la palabra “comprensión”. No creo que MUM (ni GPT-3) pueda entender el lenguaje. Yo diría que estos sistemas son verdaderos ejemplos del argumento de la habitación china de Searle. Para entender necesitamos el significado. Para obtener el significado, necesitamos vincular la forma de los símbolos del lenguaje con sus representaciones externas, experienciales, en el mundo. Un modelo lingüístico dentro de un ordenador -MUM, GPT-3 o LaMDA- puede acceder a la forma de los símbolos, pero no puede experimentar el mundo, lo que mantiene el significado fuera de su alcance.
Por último, siempre hay que mencionar que Google considera la responsabilidad como la principal prioridad de sus sistemas de IA. Para cada IA que crean, intentan reducir el sesgo y la huella de carbono. Y MUM no es diferente.

La ventaja de MUM – Multimodalidad

Pero, con mucho, el avance más importante que nos aporta MUM es su capacidad para gestionar información multimodal (que va más allá de las capacidades de GPT-3 y LaMDA). MUM puede combinar información de imágenes y texto (en el futuro Google incluirá audio y vídeo).

“Con el tiempo, podrías hacer una foto de tus botas de montaña y preguntar: “¿puedo usarlas para hacer senderismo en el monte Fuji?”. MUM entendería la imagen y la relacionaría con tu pregunta para hacerte saber que tus botas funcionarían bien.”

Esto es nuevo en el mundo de la IA a este nivel y es un paso clave hacia la inteligencia general artificial. La importancia de este hito puede ilustrarse mejor si se comparan los sistemas de IA con el cerebro humano. Una de las características que hacen que nuestro cerebro sea magnífico para navegar por el mundo es su naturaleza multisensorial.

  • El mundo es multimodal. Esto significa que la mayoría de los acontecimientos/objetos que nos rodean producen información de distintos tipos (electromagnética, mecánica, de presión, química, etc.). Piensa en cualquier objeto, una manzana por ejemplo. Tiene color, forma, textura, sabor, olor…
  • Nuestro cerebro es multisensorial. Estamos dotados de un conjunto de sistemas sensoriales que nos permiten percibir la naturaleza multimodal del mundo. El cerebro interpreta e integra toda esta información en una única representación de la realidad.

Salvando las distancias, MUM podría ser la primera de una generación de IAs capaces de combinar la información multimodal de forma similar a como lo hacemos nosotros.

MUM podría dejar obsoleto el SEO

Google ha estado tratando de hacer que el motor de búsqueda se sienta más natural desde su concepción. Cuando lanzaron BERT en 2019, Nayak escribió en su blog que el hecho de que el motor de búsqueda no entendiera adecuadamente las consultas era “una de las razones por las que la gente suele utilizar el “lenguaje de palabras clave”. Una búsqueda en Google es su propio estilo de comunicación, nada parecido a cómo haríamos una pregunta a otra persona.
BERT fue la primera piedra del camino para que el motor de búsqueda pasara de cotejar palabras clave a interpretar el contexto de las palabras en una frase. BERT, antes de MUM, ya cambió el juego para el SEO. Google reconoció que no hay otra forma de optimizar para BERT que no sea optimizando para los usuarios. BERT redujo el impacto del uso de palabras clave en la clasificación de las páginas web. El sistema ahora se preocupa sobre todo de si una página web responde a la consulta del usuario, incluso si faltan las palabras clave exactas.
MUM podría revolucionar el motor de búsqueda hasta el punto de que el concepto de SEO quede obsoleto. La gente no buscaría las páginas directamente, simplemente haría una consulta a MUM y éste haría el trabajo como si fuera un asistente personal humano. Las palabras clave importarían muy poco. ¿Por qué íbamos a obligarnos a escribir las consultas en el lenguaje de las “palabras clave” cuando MUM puede entender el lenguaje natural?
Por supuesto, las palabras clave siguen siendo importantes en el sentido de que las consultas seguirán conteniéndolas, pero ya no ayudarán a que una página web se posicione mejor. La idea de optimizar el contenido para MUM no existirá. No habrá una forma directa de jugar con el motor de búsqueda. La gente dejará de escribir artículos para el algoritmo definitivamente y los escribirá para la gente en su lugar.

Reflexiones finales

La potencia de MUM radica en su carácter multilingüe, multitarea y, sobre todo, multimodal. Revolucionará el motor de búsqueda, probablemente multiplicando el impacto que tuvo el BERT en 2019. Como dice Edwin Toonen, el motor de búsqueda de Google dejará de ser un motor de búsqueda para evolucionar a una “máquina de presentación de conocimientos”.
Los expertos en SEO tienen que adaptarse cada vez que Google hace una actualización del algoritmo. Cuando salió el BERT no vieron mucho impacto en su rendimiento. Sin embargo, si llega el momento en que no necesitemos buscar nada y en su lugar podamos simplemente escribir en lenguaje natural nuestras consultas para que una IA superpoderosa encuentre nuestras respuestas por nosotros, sólo podemos esperar a ver qué pasaría con el SEO.

¿Te ha sido útil este contenido?

¡Haz clic para puntuar!

Promedio de puntuación 5 / 5. Recuento de votos: 5

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.

Ya que has encontrado útil este contenido...

¡Sígueme en los medios sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Comentarios

Comenta