Primer plano de menta | Cariño, encogí la IA: lo último en adquisición de tecnología

Primer plano de menta | Cariño, encogí la IA: lo último en adquisición de tecnología
Primer plano de menta | Cariño, encogí la IA: lo último en adquisición de tecnología

¿Por qué las empresas se están volviendo pequeñas con modelos de IA?

Los modelos de lenguaje pequeño (SLM) son tan pequeños como solo el 0,1% de los LLM. Por ejemplo, el Gemini Nano-1 de Google utiliza 1.800 millones de parámetros de datos, en comparación con el GPT-4 de OpenAI que utiliza 1,75 billones de parámetros. Esto tiene muchas ventajas: las empresas que crean modelos necesitan menos datos pero más específicos, lo que es más fácil de obtener. Además, los modelos pequeños necesitarán computadoras menos potentes para entrenarse, por lo que los costos bajarán. Para los usuarios, cualquier teléfono inteligente promedio podría ejecutar y procesar dichos modelos de IA, ahorrando así el costo de la computación en la nube. Esto hace que los modelos de IA sean más comercializables y, por tanto, más directamente monetizables que los LLM.

¡Hola! ¡Estás leyendo un artículo premium! Suscríbete ahora para seguir leyendo.

Suscríbase ahora

¿Ya suscrito? Acceso

Beneficios premium

  • 35+ Premium artículos todos los días

  • Especialmente curado Boletines cada dia

  • El acceso a los 15+ edición impresa artículos todos los días

  • Seminario web solo para suscriptores por periodistas especializados

  • E Paper, Archivos, seleccione Artículos de The Wall Street Journal y The Economist

  • Acceso a ofertas especiales solo para suscriptores: Infografías I Podcasts

Desbloquea más de 35 bien investigados
artículos premium todos los días

Acceso a conocimientos globales con
Más de 100 artículos exclusivos de
publicaciones internacionales

Obtenga acceso gratuito a
Más de 3 aplicaciones basadas en inversiones

TRENDLYNE
Obtenga el plan GuruQ de un mes por Rs 1

FINOLOGÍA
Suscripción gratuita a finología durante 1 mes.

PEQUEÑA CAJA
20% de descuento en todos los casos pequeños

Más de 5 boletines informativos solo para suscriptores
especialmente curado por los expertos

Acceso gratuito a papel electrónico y
actualizaciones de WhatsApp

¿Por qué las empresas se están volviendo pequeñas con modelos de IA?

Los modelos de lenguaje pequeño (SLM) son tan pequeños como solo el 0,1% de los LLM. Por ejemplo, el Gemini Nano-1 de Google utiliza 1.800 millones de parámetros de datos, en comparación con el GPT-4 de OpenAI que utiliza 1,75 billones de parámetros. Esto tiene muchas ventajas: las empresas que crean modelos necesitan menos datos pero más específicos, lo que es más fácil de obtener. Además, los modelos pequeños necesitarán computadoras menos potentes para entrenarse, por lo que los costos bajarán. Para los usuarios, cualquier teléfono inteligente promedio podría ejecutar y procesar dichos modelos de IA, ahorrando así el costo de la computación en la nube. Esto hace que los modelos de IA sean más comercializables y, por tanto, más directamente monetizables que los LLM.

¿Por qué necesitamos modelos grandes?

La mayor ventaja de los LLM radica en su gran variedad, lo que los convierte en de naturaleza general. Esto es similar a un motor de búsqueda general como Google, versus una función de búsqueda integrada en una página web. Los SLM no pueden ser tan versátiles, lo que significa que cada tema o categoría necesitaría sus modelos individuales para funcionar de manera eficiente. Los LLM también suelen ser más capaces, ya que se crean y capacitan durante un período de tiempo más largo y tienen más datos para comparar para consultas complejas. Si bien los SLM son buenos para casos de uso específicos, los LLM son cruciales para propósitos fundamentales, como la investigación de alto rendimiento.

¿Las empresas ya utilizan modelos pequeños?

Además de Meta y Microsoft, Salesforce ha introducido XGen-7b, que utiliza 7 mil millones de parámetros de datos y se utiliza para generar sintaxis para codificación. La empresa de tecnología estadounidense Hugging Face también tiene un SLM, Zephyr, que está diseñado específicamente para conversaciones. Los SLM de Google, Gemini Nano, potencian las transcripciones y resúmenes de chat en teléfonos inteligentes.

¿Cómo cambiaría esto nuestros dispositivos?

El mayor beneficio es su necesidad de una potencia informática mucho menor. Esto significa que los teléfonos inteligentes, las computadoras portátiles y dispositivos como parlantes y electrodomésticos inteligentes podrán ejecutar dichos modelos. Esto significa que cualquier aplicación móvil promedio puede cambiar. Las transcripciones de llamadas y grabaciones de voz pueden convertirse en algo común, mientras que las interfaces de voz en parlantes y dispositivos inteligentes pueden mejorar la conversación. Incluso la edición de fotografías puede incluir inteligencia artificial para crear fondos o eliminar objetos; Samsung y Google ya tienen esto en sus teléfonos.

¿Esto les importa a las empresas?

Tenedores. Las grandes empresas tecnológicas, que construyen principalmente estos modelos de IA, ahora pueden crear modelos de IA especializados para una amplia variedad de aplicaciones e industrias y, por lo tanto, monetizar la IA generativa, que hasta ahora ha sido un campo muy costoso. Los desarrolladores podrán acceder a una gama más amplia de funciones, lo que podría desencadenar una carrera para ser pioneros en llevar la IA generativa a las masas. Empresas como Nvidia pueden verse afectadas: ejecutar modelos de IA localmente en teléfonos y portátiles puede eliminar la necesidad generalizada de infraestructura de nube y GPU.

Vea todas las noticias de la industria, noticias bancarias y actualizaciones en Live Mint. Descargue la aplicación The Mint News para obtener actualizaciones diarias del mercado.

 
For Latest Updates Follow us on Google News
 

PREV El asesinato de Neha no es un asesinato aislado sino parte de una conspiración, dice Shah; pide al Estado que entregue el caso a CBI si no puede investigar – .
NEXT “Los murciélagos de La Quinta cobran vida en la victoria 11-3 sobre Heritage en los playoffs CIF -“.