“Estamos aplicando la IA de manera responsable” – .

“Estamos aplicando la IA de manera responsable” – .
“Estamos aplicando la IA de manera responsable” – .

Para despejar dudas sobre la IA en Apple, la compañía organizó ayer una charla en el escenario del Steve Jobs Theatre en la que un periodista formuló varias preguntas clave al vicepresidente de ingeniería de software, Craig Federighi, y al vicepresidente de aprendizaje automático y estrategia. IA, John Giannandrea. Federighi señaló que “el papel de la IA no es reemplazar a nuestros usuarios, sino empoderarlos”. El directivo consideró que esta tecnología “tiene que integrarse a la experiencia que estás utilizando todo el tiempo. Tiene que ser intuitivo, pero también tiene que basarse en tu contexto personal, en conocerte realmente. Y si vas a hacer eso, tienes una gran responsabilidad: tiene que ser proteger tu privacidad.

El directivo afirmó que su empresa no es nueva en esta tecnología y aseguró que antes del anuncio de ayer cada iPhone “probablemente tenía alrededor de 200 modelos de aprendizaje automático haciendo de todo”, como mejorar fotos o detectar un accidente automovilístico o una caída de usuario para pedir ayuda. “La IA ha sido un elemento clave durante todo este tiempo, pero no la vemos como un fin en sí misma, sino como un medio para lograr un fin”, afirmó Federighi.

Para el gestor de software de Apple, los requisitos de privacidad no representan una limitación. “Es todo lo contrario, que sólo la solicitud de privacidad nos permite aplicar estos modelos a sus datos en sus dispositivos”, subrayó. “Queremos que todo sea muy privado, ya sea que se ejecute localmente en el dispositivo o en una nueva instancia de computación en la nube privada. Así es como podemos estar seguros de que podemos utilizar sus datos personales para que estas experiencias realmente funcionen. Por eso estamos muy entusiasmados con el enfoque”.

Giannandrea (centro) y Federighi (derecha), durante la entrevista en el Teatro Steve Jobs

F. Bracero

Ante algunos problemas conocidos de varios modelos del lenguaje, como la información que se inventa, llamadas alucinaciones, Giannandrea indicó que pusieron a prueba “todo este material”. “Hemos invertido una cantidad considerable de energía en crear estos modelos con mucho cuidado”, añadió. Y con los datos que hemos utilizado, con mucho cuidado, y luego, por supuesto, pruebas y pruebas y pruebas. Por eso, estamos bastante seguros de que estamos aplicando esta tecnología de manera responsable”.

Giannandrea explicó que el planteamiento de Apple es que en el iPhone se ejecuten tres modelos de lenguaje propio, mientras que en conexión con la nube existe otro. También se despejaron algunas dudas sobre cómo Apple entrena a sus modelos. No lo hacen, a diferencia de OpenAI con contenido extraído de Internet sin permiso. “Utilizamos una amplia variedad de datos para entrenar los modelos básicos. Comenzamos con una inversión que hemos hecho en búsquedas web durante muchos años. Seleccionamos cuidadosamente los datos de la más alta calidad que podemos”, comentó. “Concedemos licencias para una gran cantidad de datos, una amplia variedad de datos, incluidos archivos de noticias, libros de texto, fotografías de archivo y todo eso se incluye en estos modelos”.


Federighi durante la presentación de ChatGPT como servicio de IA en dispositivos Apple

F. Bracero

Detrás de las explicaciones de Apple está la idea de que la percepción pública es que hay mucha falta de privacidad en la IA, especialmente en modelos potentes como los de OpenAI. Federighi pidió un voto de confianza, como suele hacer, sobre el hecho de que su empresa no se dedica a recopilar datos de sus usuarios: “es fundamental que sepáis que nadie, ni Apple ni nadie, tendrá acceso a cualquier información utilizada para procesar sus solicitudes”

Leer también

 
For Latest Updates Follow us on Google News
 

PREV La conmovedora fotografía con la que Paulina Peña felicitó a EPN por el Día del Padre
NEXT Un juzgado abre proceso contra el hermano de Pedro Sánchez