Empleados advierten sobre riesgos extremos de la Inteligencia Artificial – .

En una carta publicada el martes, firmada por empleados actuales y anteriores de empresas de inteligencia artificial, incluida OpenAI, los firmantes señalan que Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva.

Descubriendo la luz líquida, el fascinante “quinto estado de la materia”

Además, insisten en la necesidad de fomentar una cultura de crítica abierta que dé la bienvenida, en lugar de castigar, a quienes expresan sus preocupaciones, especialmente en un contexto donde las leyes aún no han alcanzado el rápido avance de la tecnología.

Riesgos y falta de transparencia

Las empresas han reconocido los “graves riesgos” que plantea la IA, que van desde la manipulación hasta la pérdida de control, conocida como la “singularidad”, que podría conducir a la extinción humana. Sin embargo, según los empleados, Deberían hacer más para educar al público sobre estos riesgos y las medidas de protección necesarias..

Vídeo: ¿Sabes cuánta agua consume la inteligencia artificial?

Actualmente, las leyes no exigen que las empresas de inteligencia artificial compartan voluntariamente información crítica sobre la tecnología. Es fundamental, entonces, que los empleados actuales y anteriores hablen y que las empresas no apliquen acuerdos de “difamación” o tomar represalias contra quienes expresan preocupaciones relacionadas con los riesgos. “Las protecciones ordinarias a los denunciantes son insuficientes porque se centran en actividades ilegales, mientras que muchos de los riesgos que nos preocupan aún no están regulados”, escribieron los empleados.

La carta llega en un momento en que las empresas avanzan rápidamente para implementar herramientas de IA generativa en sus productos, mientras los reguladores gubernamentales, las empresas y los consumidores luchan por un uso responsable. Muchos expertos en tecnología, investigadores y líderes han pedido una pausa temporal en la carrera de la IA o que el gobierno intervenga y cree una moratoria.

Inteligencia artificial abierta AI

La UE acuerda la primera ley de inteligencia artificial del mundo: ¿qué significa?

La respuesta de OpenAI

En respuesta a la carta, un portavoz de OpenAI le dijo a CNN que la compañía está “orgullosa de su historial de proporcionar los sistemas de IA más capaces y seguros” y cree en su enfoque científico para abordar los riesgos. También añadió que la empresa coincide en que “un debate riguroso es crucial dada la importancia de esta tecnología”.

OpenAI destacó que tiene una línea directa de integridad anónima y un Comité de Seguridad dirigido por miembros de su junta directiva y líderes de seguridad de la empresa. Además, recalcaron que no venden información personal, no construyen perfiles de usuario, ni utilizan esos datos para orientar publicidad o vender productos.

La perspectiva crítica

OpenAI ha logrado varios hitos extraordinarios con ChatGPT desde su inicio. En 2020, lanzaron GPT-3, un modelo de lenguaje a gran escala con 175 mil millones de parámetros, que destacó por su capacidad para generar texto coherente y creativo a partir de una variedad de instrucciones. Esta tecnología no sólo demostró un avance significativo en el procesamiento del lenguaje natural, sino que también se utilizó en aplicaciones prácticas como la generación automática de contenido, asistencia en programación y atención al cliente.

Además, OpenAI se compromete a desarrollar IA de forma segura y ética, promoviendo el uso responsable de sus modelos mediante la implementación de revisiones y pautas de uso.

Pero Daniel Ziegler, uno de los organizadores detrás de la carta e ingeniero de aprendizaje automático que trabajó en OpenAI entre 2018 y 2021, ha manifestado la importancia de mantener el escepticismo respecto al compromiso de la compañía con la transparencia.

Ziegler también espera que más profesionales de la industria de la IA expresen sus preocupaciones a raíz de la carta, y que sirva para alimentar la urgencia de abordar los riesgos de la IA y proteger a quienes se atrevan a hablar, en un esfuerzo por garantizar que la tecnología se desarrolle de manera responsable y en beneficio de toda la humanidad.

 
For Latest Updates Follow us on Google News
 

PREV el periodista aseguró que ya está definido el ganador
NEXT ¿Cuándo juegan Eslovaquia y Rumanía por la Eurocopa? – .