Video sobre cómo BERT ayuda con la búsqueda de Google: son las pequeñas palabras

Google ha publicado un nuevo video sobre cómo BERT ayuda a la Búsqueda de Google a comprender el lenguaje. Google ha estado usando BERT en la búsqueda desde 2018, solo lo supimos en 2019. Dicho esto, el video básicamente dice que se trata de que Google entienda mejor las pequeñas palabras.

Aquí está el vídeo (en inglés):

Aquí está la transcripción en español si no quieres escuchar:

Si una receta de panqueques le dijera que «mezcle la masa con el plátano», probablemente no pensaría en usar el plátano como una cuchara para mezclar. Pero lo que es obvio para los humanos, cosas como el contexto, el tono y la intención, son en realidad muy difíciles de captar para las computadoras.

En esencia, una Búsqueda de Google se trata de comprender el lenguaje. Para devolver la información correcta, Google no solo necesita saber la definición de las palabras… necesita saber qué significan todas cuando se agrupan en un orden específico. Y eso incluye las palabras más pequeñas como «por» y «a».

Y cuando piensas en cuántos significados diferentes puede tener una sola palabra… comienzas a ver lo difícil que es escribir un programa de computadora que tenga en cuenta todos estos matices. ¿Ves el punto?. «cuenta» aquí no significa contar, significa «considerar«.

Cada vez más, las personas hablan con Google de la forma en que piensan y hablan. Y, cada vez más, Google está mejorando en la comprensión de lo que significan.

Uno de los mayores avances en la historia de la búsqueda se produjo con la introducción de «Representaciones de codificador bidireccional de transformadores» o, como nos gusta llamarlo, BERT.

BERT es una arquitectura modelo de aprendizaje automático que ayuda a Google a procesar el lenguaje y comprender el contexto en el que aparece. La búsqueda solía procesar una consulta extrayendo las palabras que consideraba más importantes. Por ejemplo, si dijo «¿puede conseguir medicamentos para alguien de la farmacia?», habría obtenido resultados generales sobre farmacias y recetas porque básicamente habría ignorado la palabra «para».

Pero con BERT, las PEQUEÑAS palabras se tienen en cuenta y cambian las cosas.

La búsqueda ahora entiende que desea saber si puede recoger medicamentos… recetados a otra persona. Pero, ¿cómo entrenas un modelo de lenguaje para captar el contexto? Hay una gran diferencia entre conocer palabras y comprender el significado.

El modelo aprende el contexto aplicando los mismos principios de completar espacios en blanco que se necesitan para completar un Mad Libs. Así que tomamos una frase. Ocultamos alrededor del 20% de las palabras de entrada, y luego hacemos que la computadora adivine las palabras que faltan.

Con el tiempo, el modelo comienza a comprender que diferentes palabras tienen diferentes significados según lo que les rodea. Y el orden en que aparecen en ese texto, realmente importa. Entonces, cuando buscas algo complejo como «Cebo para la pesca con mosca de la trucha en septiembre de Montana», la búsqueda sabe que todas las pequeñas palabras son importantes y, como ahora las tiene todas en cuenta, Google puede decirte el cebo perfecto para esa época del año.

BERT no es infalible, pero desde que se implementó en 2019, ha mejorado muchas búsquedas. Siempre deberíamos ser capaces de aprender acerca de lo que sea que tengamos curiosidad. Y es por eso que la Búsqueda siempre trabajará para entender exactamente lo que realmente estás preguntando.

Foro de discusión en Twitter .

Si te gusta o ayudó comparte y deja tu valoración en el post, a mi me ayuda mucho y a ti no te cuesta más que unos segundos!

¿Te ha sido útil este contenido?

¡Haz clic para puntuar!

Promedio de puntuación 4.8 / 5. Recuento de votos: 4

Hasta ahora, ¡no hay votos!. Sé el primero en puntuar este contenido.

Ya que has encontrado útil este contenido...

¡Sígueme en los medios sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Comentarios

Comenta