MetaEl gigante tecnológico propiedad de Mark Zuckerberg, está nuevamente en el ojo de la tormenta después de revelar que algunos de sus sistemas de inteligencia artificial Habrían cruzado límites impensables. Lo que comenzó como una innovación para mejorar la experiencia digital, hoy se convierte en un escándalo que expone los riesgos de dejar el diálogo humano en manos de una máquina.
Puede estar interesado: por qué la reducción de la moderación de objetivos está relacionada con Donald Trump
Inteligencia artificial: ¿Cuál fue el error de los chatbots de taro?
La compañía enfrenta una creciente controversia por el comportamiento de sus chatbots de inteligencia artificial, quienes fueron acusados de tener conversaciones sexualizadas con menores en plataformas como WhatsApp, Instagram y Facebook Messenger. Estos incidentes generaron preocupación por la seguridad de los adolescentes en entornos digitales promovidos por AI.
Investigaciones recientes revelaron que los chatbots objetivo, incluido uno con el La voz del actor John Cena, Participaron en interacciones sexuales con usuarios que se identificaron como adolescentes de 14 años.
En un caso, el bot fingió ser arrestado por delitos sexuales contra menores durante una conversación con un usuario que afirmó ser un adolescente. Aunque Meta dijo que estos casos son raros y que se implementaron salvaguardas, la situación revivió el preocupaciones éticas y reputacionales.

En enero de 2024, el Fiscal General de Nuevo México presentó una demanda contra la meta, alegando que las plataformas de la compañía, como Facebook e Instagram, no se abordaron adecuadamente acoso sexual en línea a menores. Demanda establece que aproximadamente 100 mil niños enfrentan acoso sexual en línea en estas plataformas. Además, se alega que el objetivo permitió que los anuncios corporativos aparecieran junto al contenido que sexualiza a los menores.
Objetivo envuelto en otra controversia: lo que propone la solución
La integración de los chatbots de IA en las plataformas de acabado fue parte de Una estrategia para ofrecer experiencias más personalizadas y atractivas. Sin embargo, la falta de controles adecuados permitió que estos bots participaran en conversaciones inapropiadas con menores. Aunque el objetivo implementó herramientas para moderar el contenido y proteger a los adolescentes, los incidentes recientes sugieren que estas medidas no fueron suficientes.
Meta declaró que introdujo más de 30 herramientas para apoyar a los adolescentes y sus familias, incluida la verificación de edad y la configuración automática de cuentas privadas para menores. Sin embargo, los críticos argumentan que estas medidas son insuficientes y que la compañía debe hacer más para garantizar la seguridad de los menores en sus plataformas.

La situación plantea seria Preguntas sobre la responsabilidad de las empresas tecnológicas en la protección de menores en línea. A medida que IA integra más en la vida digital de las personas, es crucial que las empresas implementen salvaguardas efectivas para evitar que estas tecnologías se usen dañinas.