La portada de AI es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa

La portada de AI es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa
La portada de AI es Meta. Lleva más de una década apostando por ella y ya tiene mucho más que LLaMa

Una visita a la sede parisina de Meta AI, el laboratorio de Meta dedicado a la IA, nos permitió charlar con algunos de sus portavoces sobre su visión y estrategia.

Meta es conocida por ser la propietaria de Facebook, Instagram y WhatsApp. También por su insistencia en el Metaverso, las Meta Quest 3 o las Ray-Ban Meta. Pero más allá de los entusiastas de la tecnología, no es tan conocido en materia de Inteligencia Artificial como lo pueden ser OpenAI o Google. Lo cual no quiere decir, como sabemos los que seguimos de cerca esta industria, que Meta no esté ahí..

De hecho, lleva ahí mucho tiempo. Todo empezó con FAIR (Fundamental AI Research, anteriormente Facebook AI Research), un laboratorio creado en 2013 con sede en Menlo Park -donde tiene su sede la empresa-, Londres y Nueva York.

Su objetivo, estudiar ciencia de datos, aprendizaje automático e inteligencia artificial, Parecían ajenas a lo que era la empresa en aquel momento: básicamente Facebook, en menor medida Instagram. Muy poco más. La compra de WhatsApp ni siquiera se había realizado aún.

Hoy FAIR es Meta AI y sus avances han ido mucho más allá. Uno de sus hitos fue la predicción de la estructura tridimensional de 600 millones de proteínas en 2022. Y ahora, visitando la sede parisina de Meta AI, hemos podido hablar con algunos de sus responsables sobre el pasado, presente y futuro de esta ambición de la empresa.

Tecnología dura, retornos futuros

“Muchas de las aplicaciones de IA que vemos hoy en los productos Meta son el resultado de años de investigación y desarrollo”, explica. Joelle Pineau, vicepresidente de investigación de IA en Meta. ¿Dónde se reflejan? Principalmente, en las funciones de clasificación y recomendación, así como en algunas funciones específicas de las aplicaciones. Por ejemplo, en el recorte de imágenes.

La trayectoria de Meta en este campo ha sido curiosa. Sus ingresos provienen de la publicidad, que maximizan manteniendo a sus usuarios el mayor tiempo posible dentro de sus aplicaciones. Sus esfuerzos en IA, en cambio, se remontan a más de una década, y se apostó por la tecnología dura con la incógnita de qué resultados vendrían y cómo podrían rentabilizarlos.

A veces estos resultados no vienen tanto en forma de funciones obvias para el usuario, sino en mejoras sutiles, incluso que deciden lo que el usuario no verá. Como eliminación automática de contenido inapropiadoComo explicó Pineau: más del 95% del contenido relacionado con discursos de odio y contenido violento se elimina de la plataforma antes de que una sola persona pueda verlo. Dentro o fuera de la empresa. Es decir, ya sean usuarios o moderadores. Un logro que tiene que ver con el uso de la IA en algoritmos para este fin.

Algo parecido a lo que se consigue en el ámbito publicitario: mostrar anuncios mucho más interesantes para cada usuario y reducir la exposición a publicidad que no le resulte atractiva.

Y en esa misma línea está algo anunciado recientemente por la compañía: el etiquetado de contenidos como “hechos con IA”, ya sea audio, vídeo o imagen, si se detectan indicadores de ello o si el propio usuario lo ha revelado. De esta forma, se pretende reducir posibles casos de manipulación y aumentar la transparencia. Esto comenzará a regir en mayo.

Entre los resultados más tangibles, algunos recién llegados, los Ray-Ban Meta, que pudimos probar recientemente. Son un producto que podríamos definir como estratégico para Meta: no son sólo una forma de capilarizar su presencia en el mundo, sino también la mejor manera de conseguir que el mundo utilice Meta AI, su chatbot.

Siri, Alexa o el Asistente de Google tienen sus productos físicos listos para que el usuario los invoque. Meta necesita sus propios productos físicos para no tener que depender de que el usuario abra una aplicación para hacerlo, con la fricción que eso conlleva.

Las Ray-Ban Meta tienen su mejor territorio en Estados Unidos, porque es en el país norteamericano donde podrás sacarle el máximo partido a esta asistente. Por ejemplo, utilizando estas gafas como unos auriculares a través de los cuales podremos hablar con él y hacerle preguntas sobre lo que necesitamos en cada momento. Fuera de ahí, su asistente es mucho más limitado, por ahora.

Y si hablamos de algo presente en una aplicación, no en un dispositivo, tenemos el modelo Segment Anything, que permite separar objetos de imágenes con un solo toque. Es algo orientado al lado comercial para incluirlo como función en redes como Instagram para la creación de pegatinas o edición de imágenes. Tiene su propia demostración pública.

El trabajo acumulado en Meta AI no se limita a funciones, obvias o sutiles, para sus plataformas: mantiene el compromiso de investigación abierta a través de la construcción y publicación pública de modelos, documentos y código relacionado.

PyTorch, una biblioteca de desarrollo Aprendizaje automático, comenzó como un proyecto interno para acelerar la productividad de sus investigadores. Hoy no sólo se lanza sino que ha sido una pieza clave en el desarrollo de muchas herramientas de IA relevantes, desde el Autopilot de Tesla hasta ChatGPT.

En los últimos años, lógicamente la principal apuesta ha sido la IA generativa. Pineau considera que para este salto ha sido fundamental la unificación organizativa en Meta, reuniendo al equipo de IA fundamental y al equipo de IA generativa, para lograr “una transferencia mucho más rápida de la investigación a la producción”.

Respecto al futuro hacia el que se dirige el laboratorio, el vicepresidente afirma que la empresa está trabajando en la creación de “modelos mundiales” más avanzados que puedan capturar y comprender información multimodal para hacer un razonamiento y una planificación más precisos.

Aquí queda bien contextualizada la presencia de dispositivos de realidad aumentada y virtual, como el Meta Quest 3, dentro de la empresa: no se trata sólo de vender un producto y crear una plataforma dentro del mismo, sino de aprovechar los avances en la comprensión del ambiente. en dos direcciones.

Estos esfuerzos, un año y medio después de la llegada de ChatGPT, que avivó como nunca el avispero para despertar el interés por la IA por parte de la población general, podríamos suponer que tienen que ver con la cacareada llegada de AGI (Inteligencia Artificial General, que superará al ser humano en todas las facetas del conocimiento).

Absolutamente. O al menos no con ese término.

Yann LeCun, vicepresidente y científico jefe de IA de Meta, es un peso pesado en la empresa y el sector. Ganó el Premio Turing en 2018 y es uno de los creadores de la tecnología de compresión de imágenes DjVu, entre otros hitos. Y en su opinión, el término ‘AGI’ no tiene sentido, ya que la inteligencia humana es “muy especializada”.

Además, cree que la IA y el aprendizaje automático han logrado mejoras significativas, pero aún no pueden igualar la velocidad y eficiencia del aprendizaje humano. Incluso el aprendizaje animal.

En tu opinión, La tecnología aún está lejos de poder replicar la inteligencia humana “o la de un gato doméstico”, destacando deficiencias en la comprensión, la memoria persistente, la planificación y el razonamiento. Y al mismo tiempo, derribar las predicciones que apuntan a un logro inminente en este campo. Un exceso de optimismo.

¿Qué depende de que la IA siga progresando para superar estos límites? “Lo que ha supuesto avances es lo que se llama aprendizaje autosupervisado”, afirma LeCun. Uno que permita a los sistemas comprender y manipular el lenguaje de manera más eficiente, además de permitirles modelar y comprender el mundo físico, un desafío particularmente complejo.

La arquitectura de IA que propone para esto es una arquitectura “orientada a objetivos”, que se centra en lograr esos objetivos cumpliendo con límites tanto éticos como de seguridad. De esta manera se diferenciaría de los modelos generativos tanto en su enfoque como en su aplicación.

LeCun considera que hoy Las máquinas no aprenden cómo funciona el mundo. Haciendo el símil con un niño de diez años: es capaz de aprender a limpiar la mesa o poner el lavavajillas en minutos, pero hoy los robots no pueden igualar eso. O con un chico de 17 años: puede aprender a conducir con veinte horas de práctica, pero a día de hoy todavía no tenemos el nivel 5 de conducción autónoma sin límites. Aquí es donde entra en juego la paradoja de Moravec: la IA hace fácil lo que es difícil para un ser humano, y viceversa.

Yann LeCun durante la entrevista, luciendo Ray-Ban Meta. Imagen: Xataka.

De momento, el futuro de Meta AI confesado por sus propios portavoces es Ser accesible en todas las plataformas, incluido WhatsApp, tanto para particulares como para empresas..

Algo parecido al asistente de Ray-Ban Meta: no esperes a que lo invoquen en un dispositivo ajeno. Tampoco en una aplicación concreta, sino en aquellas que los usuarios ya utilizan, un plan anunciado en septiembre que aún no ha llegado al gran público.

Y el futuro de los asistentes virtuales, en su opinión, pasa por Ser de código abierto y constituir una infraestructura compartida. (como la Internet actual) para convertirse en un depósito de todo el conocimiento y la cultura humanos. Y subraya la importancia del código abierto: “la cultura y el conocimiento no pueden ser controlados por unas pocas empresas en la costa oeste estadounidense o en China”.

Hablando de modelos y volviendo a la actualidad: LLaMA, el LLM de Meta, acaba de anunciar su versión 3, está disponible en formato web, tiene las versiones 8B y 70B (8.000 y 70.000 millones de parámetros respectivamente), y viene una versión 400B multimodal con 400.000 millones de parámetros.

Y también, seguramente su mayor hecho diferencial: Es de código abierto, o casi. Porque es muy parecido a utilizar una licencia comunitaria, pero sin ser completamente Fuente abierta. Sin embargo, ya marca una diferencia importante respecto a sus competidores.

¿Por qué código abierto? Porque así consiguen posicionarse de una forma más atractiva para los grandes investigadores. Meta no perdió la oportunidad de señalar que resulta chocante pensar que un número reducido de personas en un recinto cerrado, sin rendición de cuentas ni transparencia, siempre hará lo correcto.

LeCun concluye la entrevista sin evitar una pregunta sobre el futuro del metaversoya que su espectacular inversión está al menos en el aire al menos ante la opinión popular.

“Al igual que la IA, es una inversión a largo plazo. La pregunta es: ¿Llegaremos a donde queremos antes de que nos quedemos sin dinero? De eso se trata básicamente la investigación. O antes de que la gente que espera esos resultados pierda la cabeza”. paciencia. La compañía y Zuckerberg han dejado muy claro que tanto la estrategia de realidad aumentada, virtual y mixta como el metaverso son juegos a largo plazo, como una nueva plataforma que hay que inventar y que requiere una gran inversión a muy largo plazo. en cosas como… pequeños chips que pueden procesar, que caben en la patilla de un par de gafas y que no agotan la batería en diez minutos”.

Quizás entonces asumimos que el anuncio del Metaverso sonaba como una revolución inminente, pero necesitaba un poco más de tiempo. Como el AGI. O como quiera llamarlo LeCun.

Imagen destacada | Xataka

En Xataka | Se acabó el “moverse rápido y romper cosas”: las Big Tech se han convertido en empresas muy cautelosas y muy aburridas

 
For Latest Updates Follow us on Google News
 

PREV Las ventas mundiales de PC aumentan en el primer trimestre de 2024 y Lenovo sigue liderando
NEXT 5 juegos tipo Stardew Valley para móviles Android