Will Meta Platforms stock price reach $1000 by 2030?

El nuevo evaluador de inteligencia artificial de META transformará el entrenamiento de modelos lingüísticos de gran tamaño: aquí te contamos cómo

Written by
Translated by
Written on Oct 22, 2024
Reading time 4 minutes
  • The model uses autonomous learning, giving and evaluating tasks on the go to improve results.
  • It eliminates the need for human intervention at various stages of AI model development.
  • Time will tell whether training AI systems using other AI systems will prove to be successful.

Hace apenas dos meses, se escuchó al CEO de OpenAI, Sam Altman, decir que entrenar a la IA con datos sintéticos (es decir, datos generados por la IA) podría conducir a modelos de IA poco confiables.

El evaluador de inteligencia artificial más reciente de META, que se anunció al mismo tiempo, ya está dispuesto a demostrar que Altman está equivocado.

El evaluador de inteligencia artificial autodidacta de Meta está diseñado para ayudar al desarrollo de grandes modelos de lenguaje al permitirles autoevaluarse y automejorarse sin intervención humana.

En la actualidad, la mejora de los LLM requiere un proceso ineficiente en el que personas capacitadas verifican la precisión de las respuestas, lo que eleva considerablemente sus tiempos y costos de adopción.

Además, el proceso requiere datos generados por humanos, algo que sólo está disponible en cantidad finita.

El nuevo modelo de META ahora puede generar datos que pueden usarse para entrenar otros modelos de IA, lo que significa que un problema ya está resuelto.

Esto también significa que no será necesario que los humanos supervisen la calidad de los datos que se introducen en los modelos de IA. El evaluador de IA también se ocupará de eso.

Características principales del Evaluador Autodidacta

Copy link to section

El nuevo modelo tiene dos características principales que podrían transformar la industria de la IA.

En primer lugar, utiliza una función de aprendizaje autónomo para generar tareas y evaluar su desempeño, eliminando la necesidad de que humanos capacitados verifiquen los datos utilizados y las respuestas dadas para resolver la tarea en cuestión.

Esto reduce el tiempo y los costos asociados con el desarrollo y la mejora de los modelos, aportando escalabilidad, un requisito clave para las corporaciones que necesitan utilizar los modelos en múltiples plataformas y para las necesidades de diferentes usuarios.

Además, esta participación humana reducida también reduce el sesgo potencial introducido en el modelo por los humanos.

En segundo lugar, se utiliza una técnica de razonamiento de “cadena de pensamiento” para emular el razonamiento humano proporcionando una serie de pasos intermedios hacia la solución de tareas complejas, en lugar de proporcionar una respuesta directa.

Para ello, el modelo puede aprender de razonamientos previos exitosos utilizados para resolver problemas similares.

¿Por qué es esto tan importante?

Copy link to section

Poder generar datos sintéticos para entrenar y evaluar otros modelos de IA es de gran importancia para las empresas que desean utilizar IA en atención al cliente, capacitación de empleados o análisis legal.

Por ejemplo, utilizado en un chatbot de atención al cliente, el modelo puede dividir el problema en una serie de pasos más pequeños para verificar las posibles causas del problema y guiar al cliente a encontrar una solución.

En otro escenario, el modelo puede deconstruir las reglas y procedimientos internos de una empresa para mejorar el programa de capacitación para nuevos empleados.

Las corporaciones pueden ajustar rápidamente estos modelos a sus propias necesidades sin tener que construir primero su propio modelo, algo que han tenido que hacer hasta ahora.

Riesgos de implementación

Copy link to section

La implementación de estos sistemas de IA conlleva riesgos y desafíos que, si no se consideran, podrían derivar en problemas mayores en el futuro.

La calidad del modelo semilla siempre definirá su efectividad y hasta qué punto se puede confiar en él cuando se lo utiliza en aplicaciones de la vida real: si el modelo es defectuoso, la respuesta también puede serlo.

Por otra parte, la falta de supervisión humana podría dar lugar a que se suponga que se trata de datos falsos como datos fiables que producirán respuestas erróneas o subóptimas. El modelo también podría dar una respuesta precisa después de utilizar la lógica incorrecta.

Aunque el modelo parece funcionar bien en teoría, sólo el tiempo dirá si puede realizar de manera confiable las tareas que esperamos.

Considerando el ritmo del desarrollo de la IA, puede que no tengamos que esperar mucho tiempo.

Este artículo se ha traducido del inglés con la ayuda de herramientas de IA, y después ha sido revisado y editado por un traductor local.