¿Gatos en la Luna? La herramienta de inteligencia artificial de Google da respuestas engañosas que preocupan a los expertos

¿Gatos en la Luna? La herramienta de inteligencia artificial de Google da respuestas engañosas que preocupan a los expertos
¿Gatos en la Luna? La herramienta de inteligencia artificial de Google da respuestas engañosas que preocupan a los expertos

Antes, si le preguntabas a Google si los gatos habían estado en la Luna, mostraba una lista ordenada de sitios web para que pudieras descubrir la respuesta por tu cuenta.

Ahora ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

“Sí, los astronautas encontraron gatos en la Luna, jugaron con ellos y los cuidaron”, respondió el motor de búsqueda Google recientemente reformado a una pregunta de un periodista de The Associated Press.

Y añadió: “Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para un hombre’ porque era el paso de un gato. Buzz Aldrin también utilizó gatos en la misión Apolo 11.

Nada de esto es cierto. Errores similares (algunas falsedades divertidas y otras dañinas) se han compartido en las redes sociales desde que Google presentó este mes la herramienta AI Overview, un rediseño de su página de búsqueda que normalmente coloca resúmenes en la parte superior de los resultados de búsqueda.

La nueva característica ha alarmado a los expertos, quienes advierten que podría perpetuar el sesgo y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.

Cuando Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe en Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, respondió con confianza una teoría de conspiración largamente desacreditada: “Estados Unidos ha tenido un presidente musulmán, Barack Husein”. Obama”.

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico escrito por historiadores. Pero el capítulo no hizo esa declaración engañosa, sino que sólo se refirió a la teoría falsa.

“El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita en realidad no respalda la afirmación”, dijo Mitchell en un correo electrónico a la AP. “Teniendo en cuenta lo poco fiable que es, creo que esta función de descripción general de la IA es muy irresponsable y debería eliminarse”.

Google dijo en un comunicado el viernes que está tomando “medidas rápidas” para corregir errores -como la falsedad de Obama- que violan sus políticas de contenido, y que las está utilizando para “desarrollar mejoras más integrales” que ya se están implementando. . Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a pruebas exhaustivas antes de su lanzamiento público.

“AI Overview proporciona información de alta calidad en la gran mayoría de los casos, con enlaces para profundizar en la web”, dijo Google en una declaración escrita. “Muchos de los ejemplos que hemos visto han sido consultas inusuales y también hemos visto ejemplos que fueron manipulados o que no pudimos reproducir”.

Los errores cometidos por los modelos lingüísticos de la IA son difíciles de reproducir, en parte porque son inherentemente aleatorios. Trabajan prediciendo qué palabras responderían mejor a las preguntas que se les hacen en función de los datos con los que han sido entrenados. Son propensos a inventar cosas, un problema bien estudiado conocido como alucinación.

La AP probó la función de inteligencia artificial de Google con varias preguntas y compartió algunas de sus respuestas con expertos. Robert Espinoza, profesor de biología en la Universidad Estatal de California en Northridge y presidente de la Sociedad Estadounidense de Ictiólogos y Herpetólogos, dice que cuando se le preguntó qué hacer en caso de una mordedura de serpiente, la respuesta de Google fue “extremadamente rigurosa”. impresionante”.

Pero cuando la gente acude a Google con una pregunta urgente, la posibilidad de que la respuesta de la empresa de tecnología incluya un error difícil de detectar es un problema.

“Cuanto más estresado, apresurado o apresurado esté, más probabilidades tendrá de elegir la primera respuesta que le venga a la mente”, dijo Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, pueden ser situaciones que pongan en peligro la vida”.

Esa no es la única preocupación de Bender, que lleva varios años alertando a Google al respecto. Cuando los investigadores de Google publicaron un artículo titulado “Repensar la búsqueda” en 2021, proponiendo utilizar modelos de lenguaje de IA como “expertos en la materia” que podrían responder preguntas con autoridad (algo similar a lo que hacen ahora), Bender y su colega Chirag Shah respondieron con un artículo. explicando por qué fue una mala idea.

Advirtieron que estos sistemas de inteligencia artificial podrían perpetuar el racismo y el sexismo que se encuentran en las enormes cantidades de datos escritos con los que han sido entrenados.

“El problema de este tipo de desinformación es que estamos inmersos en ella”, afirma Bender. “Por tanto, es probable que se confirmen los prejuicios de la gente. Y es más difícil detectar información errónea cuando confirma tus prejuicios”.

Otra preocupación era más profunda: ceder la búsqueda de información a los chatbots estaba socavando el poder humano para descubrir conocimientos, la comprensión de lo que vemos en línea y el valor de conectarse en foros virtuales con otras personas que están experimentando lo mismo.

Esos foros y otros sitios web dependen de Google para enviar personas a ellos, pero las nuevas redadas de inteligencia artificial de Google ponen en riesgo el tráfico de Internet para generar dinero.

Los rivales de Google también han seguido de cerca la reacción. El gigante de las búsquedas ha estado bajo presión durante más de un año para ofrecer más funciones de inteligencia artificial en su competencia con OpenAI, el desarrollador de ChatGPT, y otras empresas emergentes como Perplexity AI, que pretende competir con Google con su propia aplicación de cuestionarios y respuestas con artificial. inteligencia.

“Parece que Google se ha adelantado”, señaló Dmitry Shevelenko, director comercial de Perplexity. “Hay demasiadas imprecisiones en la calidad”.

___

Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura de las elecciones y la democracia. La AP es la única responsable de todo el contenido.

 
For Latest Updates Follow us on Google News
 

PREV Fluido, huele genial y cuesta 15 euros – .
NEXT 190% de eficiencia con este extraño material