La falla de la IA de Facebook eliminó los enlaces de Kansas Reflector. Es posible que incluso Facebook no sepa qué salió mal. • Reflector de Kansas – .

La falla de la IA de Facebook eliminó los enlaces de Kansas Reflector. Es posible que incluso Facebook no sepa qué salió mal. • Reflector de Kansas – .
La falla de la IA de Facebook eliminó los enlaces de Kansas Reflector. Es posible que incluso Facebook no sepa qué salió mal. • Reflector de Kansas – .

TOPEKA: La inteligencia artificial sin refinar de Facebook clasificó erróneamente un artículo del Kansas Reflector sobre el cambio climático como un riesgo para la seguridad, y en una cascada de fallas. bloqueó los dominios de sitios de noticias que publicó el artículo, según los expertos en tecnología entrevistados para esta historia y las declaraciones públicas de Facebook.

La evaluación es consistente con una revisión interna de States Newsroom, la organización matriz de Kansas Reflector, que culpa a Facebook por las deficiencias de su IA y la falta de responsabilidad por su error.

No está claro por qué la IA de Facebook determinó que la estructura o el contenido del artículo era una amenaza, y los expertos dijeron que es posible que Facebook no sepa realmente qué atributos causaron el error.

“Parece que Facebook utilizó una IA demasiado entusiasta y poco confiable para identificar erróneamente un artículo de Reflector como un intento de phishing”, dijo el presidente y editor de States Newsroom, Chris Fitzsimon. “La respuesta de Facebook al incidente ha sido confusa y difícil de descifrar. Igual de preocupante fue la información falsa proporcionada a nuestros lectores de que nuestro contenido de alguna manera representaba un riesgo de seguridad, daño a nuestra reputación y confiabilidad que aún no han corregido con nuestros seguidores en su plataforma”.

El 4 de abril, Facebook se negó a permitir que Kansas Reflector compartiera una columna de opinión escrita por Dave Kendall sobre su documental sobre el cambio climático, luego eliminó todas las publicaciones que todos los usuarios habían hecho y que apuntaban a alguna historia en el sitio web de Kansas Reflector. Facebook restableció esas publicaciones unas siete horas después, pero continuó bloqueando la columna.

Al día siguiente, Kansas Reflector intentó compartir la columna tal como apareció en Noticias de los Estados Unidosque está dirigido por States Newsroom, y El cesto, boletín dirigido por la periodista independiente Marisa Kabas. Facebook rechazó esas publicaciones y luego eliminó todos los enlaces que apuntaban a ambos sitios, tal como lo había hecho con Kansas Reflector el día anterior.

Al eliminar publicaciones, Facebook envió notificaciones a los usuarios que identificaron falsamente los sitios de noticias como riesgos de ciberseguridad.

Meta, la empresa detrás de Facebook, Instagram y Threads, se disculpó públicamente por el “error de seguridad”. Pero un portavoz de Meta dijo que Facebook no haría un seguimiento de los usuarios para corregir la información errónea que les había proporcionado.

Kansas Reflector continúa escuchando a lectores que están confundidos acerca de la situación. Las acciones de Facebook también interrumpieron las operaciones de recopilación de noticias de Kansas Reflector durante los últimos días de la sesión legislativa y tuvieron un impacto escalofriante en otros medios de comunicación.

Daniel Kahn Gillmor, tecnólogo senior de la Unión Estadounidense por las Libertades Civiles, dijo que las acciones de Facebook demuestran el peligro para la sociedad de depender en gran medida de una única plataforma de comunicaciones para determinar qué es digno de discusión.

“Esa simplemente no es su competencia principal”, dijo Gillmor. “En cierto nivel, puedes ver a Facebook como alguien que se ha adelantado. Facebook originalmente era una aplicación de conexión para estudiantes universitarios en el pasado y, de repente, ahora le pedimos que nos ayude a separar la realidad de la ficción”.

Las publicaciones en las redes sociales reflejan las acciones de Facebook para bloquear los sitios de noticias que publicaron la columna de Dave Kendall. (Ilustración de Sherman Smith/Kansas Reflector)

‘Bienvenido a la IA’

Adam Mosseri, director de Instagram de Meta, atribuyó el error a clasificadores de aprendizaje automático, un tipo específico de IA que está entrenada para reconocer características asociadas con estafas de phishing, que intentan engañar a las personas para que revelen información personal.

Los clasificadores evalúan millones de contenidos cada día, afirmó Mosseri. en una publicación de Threadsy a veces se equivocan. Mosseri no respondió a una publicación de hilos buscando más detalles.

Jason Rogers, director ejecutivo de Invariaruna empresa de ciberseguridad que utiliza tecnología con licencia de la NSA y tiene vínculos con la Parque de Innovación de la Universidad de Kansasrevisó la columna de Kendall tal como apareció en Kansas Reflector, News From the States y The Handbasket.

Los sensores de Facebook podrían ser sensibles a cosas como un gran volumen de hipervínculos incluidos dentro de la columna o la resolución de las fotos que aparecieron en la página, dijo Rogers. Aún así, dijo, era “extraño que una IA lo marcara como una amenaza ‘cibernética’”.

“Bienvenidos a la IA y a por qué no está tan ‘lista’ como algunas personas creen”, dijo Rogers.

Dijo que era posible que los intentos de Kansas Reflector de eludir el filtro de Facebook (diciendo a la gente que leyera la columna de Kendall yendo a KansasReflector.comy luego intentar compartir la misma columna desde otros sitios, puede haberle indicado a la IA que este era el comportamiento de una estafa de phishing, lo que provocó que bloqueara los dominios de los tres sitios.

Sagar Samtani, director del Laboratorio de Inteligencia Artificial y Ciencia de Datos de la Kelley School of Business de la Universidad de IndianaDijo que es común que este tipo de tecnología produzca falsos positivos y falsos negativos.

Dijo que Facebook está pasando por un “proceso de aprendizaje”, tratando de evaluar cómo las personas de todo el mundo podrían ver diferentes tipos de contenido y proteger la plataforma de malos actores.

“Facebook simplemente está tratando de aprender cuál sería el contenido apropiado y adecuado”, dijo Samtani. “Así que en ese proceso, siempre habrá gritos, como, ‘No deberíamos haber hecho eso’. “

Y, dijo, es posible que Facebook no pueda decir por qué su tecnología clasificó erróneamente a Kansas Reflector como una amenaza.

“A veces es realmente muy difícil para ellos decir algo así porque a veces los modelos no necesariamente mostrarán exactamente cuáles son las características que pueden haber activado la alarma”, dijo Samtani. “Eso puede ser algo que no esté dentro de su capacidad técnica para hacerlo”.

El 4 de abril, Kansas Reflector vio eliminadas todas sus publicaciones de Facebook. La plataforma también impidió que los usuarios compartieran enlaces al sitio. La interrupción creció hasta incluir otros dos sitios el viernes. (Sherman Smith/Reflector de Kansas)

“¿Dónde está la responsabilidad?”

La columna de Kendall criticaba a Facebook porque la plataforma se había negado a permitirle comprar un anuncio para promocionar su película sobre el cambio climático. Facebook le había dicho que el tema era demasiado controvertido.

En un par de llamadas telefónicas del 5 de abril, el portavoz de Meta, Andy Stone, insistió en que las acciones de Facebook contra los tres sitios de noticias que publicaron la columna de Kendall no tenían nada que ver con el contenido de la columna.

Gillmor, el tecnólogo de la ACLU, cuestionó esa explicación.

“Están actuando como un filtro para sus lectores y tratando de mantenerlos alejados de lo que consideran influencias malignas, sea lo que sea que eso signifique”, dijo Gillmor. “Me sorprendería profundamente si no hubiera nada que un humano normal consideraría ‘contenido’ que pudiera activar esos detectores”.

En realidad, dijo, sería difícil programar la IA para ignorar la semántica de un artículo.

“Saben qué tipo de reacciones tiene la gente ante los medios que lee”, dijo Gillmor. “Saben el tiempo de permanencia que la gente tiene en un artículo. Saben mucha información. “No sé cómo ni por qué mantendrían eso fuera de su clasificador”.

También dijo que es posible que los sistemas de inteligencia artificial no puedan proporcionar una explicación que “cualquier humano normal entendería” sobre por qué rechazaron las columnas de Kendall y bloquearon los dominios de los sitios de noticias que las publicaron.

Stone, el portavoz de Meta, se negó a responder preguntas para esta historia, entre ellas: ¿Cómo cree Facebook que debería responsabilizarse por su error? ¿Facebook realmente sabe qué causó el error? ¿Qué cambios se hicieron para evitar que el error vuelva a ocurrir? es de facebook Junta de Supervisión revisando la situación?

El trabajo de Gillmor con la ACLU se centra en las formas en que la tecnología puede afectar las libertades civiles como la libertad de expresión, la libertad de asociación y la privacidad.

“Este es un gran ejemplo de uno de los grandes problemas de tener tanta dependencia de un ecosistema para distribuir información”, dijo Gillmor. “Y la explicación que te dan es: ‘Bueno, la cagamos’. Está bien, la cagaste, pero las consecuencias son para todos”.

“¿Dónde está la responsabilidad aquí?” Yo he añadido. “¿Facebook va a responsabilizar al sistema de inteligencia artificial?”

 
For Latest Updates Follow us on Google News
 

NEXT Escuche jazz de los 70 de Miles Davis, Alice Coltrane y más en “Visions”