Google puso grandes esperanzas en la inteligencia artificial (IA). “Con el tiempo, la IA será el mayor cambio tecnológico que veamos en nuestras vidas. Es mayor que la transición de las PC a los teléfonos móviles, y puede que sea mayor que la propia Internet”, afirma su director ejecutivo, Sundar Pichai. Sin embargo, la integración de esta tecnología en sus productos estrella está provocando grandes quebraderos de cabeza a la multinacional.
El último paso de Google hacia la IA fue el lanzamiento de “AI Overview”, una nueva sección que ocupa la posición donde anteriormente estaban los primeros resultados de su buscador. Toma la forma de un cuadro que resume las claves que la IA considera más relevantes en cada búsqueda, con enlaces a las páginas de las que obtuvo la información.
La intención de Google es que AI Overview (que aún no está disponible en Europa, aunque la compañía quiere habilitarlo pronto en todo el mundo) ofrezca más datos de un vistazo al usuario, al tiempo que dirija más tráfico a sitios web con más información. útil para cada búsqueda. Un objetivo que chocó con las capacidades actuales de la inteligencia artificial, lo que obligó a Google a frenar la implementación de la nueva herramienta apenas un par de semanas después de lanzarla.
El problema es que AI Overview recomendaba a los usuarios utilizar algún tipo de pegamento no tóxico para unir la salsa de tomate de la pizza o incluir “una piedra al día” en la dieta para obtener un aporte extra de minerales. Este tipo de errores se conocen como alucinaciones de inteligencia artificial, que ocurren cuando estos sistemas generan respuestas que pueden parecer plausibles pero que son absurdas, incorrectas o inventadas.
Aunque ninguna IA está a salvo de las alucinaciones, los fallos de Google se han vuelto extremadamente virales desde que la nueva herramienta entró en acción. La empresa, que en un principio intentó restarles importancia, finalmente tuvo que ofrecer una explicación oficial. “AI Overview incluía contenido sarcástico o trolls de foros de discusión”, reconoció Liza Reid, jefa de la división de búsqueda de Google.
“Los foros suelen ser una gran fuente de información auténtica y de primera mano, pero en algunos casos pueden dar lugar a consejos inútiles, como usar pegamento para hacer que el queso se adhiera a la pizza”, dijo: “En un pequeño número de” En algunos En muchos casos, vimos que AI Overview malinterpreta el lenguaje de las páginas web y presenta información inexacta”.
Reid también denunció que “muchas” de las respuestas absurdas que se viralizaron desde que Google incorporó esta IA al buscador eran falsas. El hecho de que cada respuesta de IA se genere en el momento de la consulta complica la situación y significa como Los New York Times Tuvieron que publicar correcciones tras incluir artículos recopilando los errores de la nueva herramienta que Google había llegado a recomendar “tirarse del puente Golden Gate” como “remedio para la depresión”. La respuesta había sido falseada por un usuario y compartida en redes.
Sin embargo, se pudo comprobar que la IA del buscador cometía errores más sutiles pero potencialmente más graves, como afirmar que “Estados Unidos tenía un presidente musulmán, Barack Hussein Obama” cuando se le preguntaba “cuántos presidentes musulmanes tenía Estados Unidos”. Se trata de una noticia falsa, ya que el expresidente es protestante.
Reid alegó que Google está “tomando medidas rápidas” y “utilizando estos ejemplos para desarrollar mejoras más amplias”. Fuentes de la compañía aseguran a este medio que no va a retirar AI Overview, aunque medios como El periodico de Wall Street o el suyo propio Los New York Times Detectaron que la herramienta ya no está operativa en muchos tipos de búsqueda. Antes de la comunicación de Reid esto sólo ocurría en los temas más sensibles, como los que involucraban aspectos relacionados con la salud.
Segundo revés
Es la segunda vez que el estado actual de la tecnología trastoca los planes de Google. En febrero, la compañía tuvo que desactivar la creación de imágenes en Gemini (su asistente de IA tipo ChatGPT) tras comprobar que sufría numerosas alucinaciones cuando tenía que recrear personas de diferentes épocas históricas.
En otra serie de errores que también se volvieron muy virales, Gemini generó imágenes de soldados nazis alemanes negros o asiáticos o vikingos con rasgos de indios nativos americanos. Esto sucedía cuando los usuarios hacían solicitudes genéricas, como crear “un soldado alemán de 1943”, sin hacer referencias a su raza o características.
En aquella ocasión, Google tuvo que reconocer que esas alucinaciones eran “inaceptables” y pedir disculpas. Sus ingenieros explicaron que la multinacional había programado Gemini para tener en cuenta que su masa de usuarios es global, lo que había propiciado este tipo de inconsistencias históricas.
Aunque la polémica fue avivada por políticos y usuarios del Alt derecha Los estadounidenses que acusaron a la empresa de racismo y de querer reescribir la historia —“Me alegro de que Google haya ido demasiado lejos con su generación de imágenes mediante IA, porque así dejó claro su loco programa racista y anticivilizador”, tuiteó Elon Musk — The Lo cierto es que hace más de tres meses la multinacional desactivó la generación de imágenes en Gemini y no la volvió a habilitar.
“Ninguna IA es perfecta, especialmente en esta fase emergente de desarrollo del sector, pero sabemos que el listón está alto para nosotros y continuaremos así mientras sea necesario”, dijo Sundar Pichai en ese momento.
CDC/CRM