Una búsqueda de inteligencia artificial en Google dijo erróneamente que Obama es musulmán. Ahora la empresa desactiva algunos resultados

Una búsqueda de inteligencia artificial en Google dijo erróneamente que Obama es musulmán. Ahora la empresa desactiva algunos resultados
Una búsqueda de inteligencia artificial en Google dijo erróneamente que Obama es musulmán. Ahora la empresa desactiva algunos resultados

Valeria Ordóñez Ghio

Nueva York (CNN) — Google prometió que sus nuevas herramientas de búsqueda de Inteligencia Artificial (IA) “harían el trabajo por usted” y harían que la búsqueda de información en línea sea más rápida y sencilla. Pero pocos días después del lanzamiento, la compañía ya está dando marcha atrás después de algunos resultados objetivamente incorrectos.

Google presentó a principios de este mes una herramienta de descripción general de resultados de búsqueda generada por IA, que resume los resultados de búsqueda para que los usuarios no tengan que hacer clic en varios enlaces para obtener respuestas rápidas a sus preguntas. Pero la función fue criticada a finales de esta semana por proporcionar información falsa o engañosa a las preguntas de algunos usuarios.

Por ejemplo, varios usuarios publicaron en X que el resumen de inteligencia artificial de Google decía que el ex presidente estadounidense Barack Obama es musulmán. De hecho, Obama es cristiano. Otro usuario publicó un resumen de Google AI que decía que “ninguno de los 54 países reconocidos en África comienza con la letra ‘K’”, olvidándose claramente de Kenia.

Los editores de noticias advierten sobre una nueva búsqueda en Google basada en IA y advierten sobre impactos “catastróficos”

Google confirmó a CNN el viernes que los resúmenes de IA para ambas consultas habían sido eliminados por violar las políticas de la empresa.

“La gran mayoría de las resúmenes de IA proporcionan información de alta calidad, con enlaces para profundizar en la web”, dijo la portavoz de Google, Colette García, en un comunicado, añadiendo que algunos otros ejemplos virales de errores de IA de Google parecen haber sido imágenes manipuladas. “Realizamos pruebas exhaustivas antes de lanzar esta nueva experiencia y, al igual que con otras funciones que lanzamos en la Búsqueda, agradecemos sus comentarios. “Estamos tomando medidas rápidas cuando corresponda según nuestras políticas de contenido”.

La parte inferior de cada descripción general de búsqueda de IA de Google reconoce que “la IA generativa es experimental”. Y la compañía dice que realiza pruebas diseñadas para imitar a posibles malos actores en un esfuerzo por evitar que aparezcan resultados falsos o de baja calidad en los resúmenes de IA.

Las descripciones generales de búsqueda de Google son parte del impulso más amplio de la compañía para incorporar su tecnología Gemini AI en todos sus productos mientras intenta mantenerse al día en la carrera armamentista de AI con rivales como OpenAI y Meta. Pero la debacle de esta semana muestra el riesgo de que agregar IA, que tiende a proporcionar información falsa, pueda socavar la reputación de Google como fuente confiable para encontrar información en línea.

Google muestra cómo funcionará la inteligencia artificial de Gmail, Fotos y compras online

Incluso en búsquedas menos serias, la descripción general de la IA de Google a veces parece proporcionar información errónea o confusa.

En una prueba, CNN preguntó a Google “cuánto sodio hay en el jugo de pepinillos”. La revisión de IA respondió que una porción de 8 onzas líquidas de jugo de pepinillos contiene 342 miligramos de sodio, pero que una porción de menos de la mitad del tamaño (3 onzas líquidas) contenía más del doble de sodio (690 miligramos). (El jugo de pepinillos Best Maid, que se vende en Walmart, contiene 250 miligramos de sodio en solo 1 onza).

CNN también buscó: “datos utilizados para el entrenamiento de inteligencia artificial de Google”. En su respuesta, AI Overview reconoció que “no está claro si Google impide que se incluyan materiales protegidos por derechos de autor” en los datos en línea recopilados para entrenar sus modelos de IA, citando una gran preocupación sobre cómo operan las empresas de datos. AI.

Esta no es la primera vez que Google tiene que revertir las capacidades de sus herramientas de inteligencia artificial debido a un error vergonzoso. En febrero, la compañía detuvo la capacidad de su generador de fotografías de IA para crear imágenes de personas después de que fue criticada por producir imágenes históricamente inexactas que presentaban en gran medida a personas de color en lugar de personas blancas.

El sitio web Search Labs de Google permite a los usuarios de áreas donde se han implementado resúmenes de búsqueda de IA activar y desactivar la función.

El-CNN-Wire
™ y © 2024 Cable News Network, Inc., una compañía de Warner Bros. Discovery. Reservados todos los derechos.

 
For Latest Updates Follow us on Google News
 

PREV Llegará en 2026 y no llegará a Steam en PC
NEXT creatividad y potencia estroboscópica – .