Few-Shot-Learning (FSL) es una técnica de apre­n­di­za­je au­to­má­ti­co en el que un modelo de in­te­li­ge­n­cia ar­ti­fi­cial aprende a realizar pre­di­c­cio­nes precisas a partir de una cantidad muy limitada de ejemplos eti­que­ta­dos. Este se entrena en patrones y ca­ra­c­te­rí­s­ti­cas generales que se aplican a diversas tareas. Este método se usa pri­n­ci­pa­l­me­n­te en áreas donde solo hay datos limitados di­s­po­ni­bles, como el re­co­no­ci­mie­n­to de imágenes y el pro­ce­sa­mie­n­to del lenguaje.

¿Qué significa Few-Shot-Learning?

Few-Shot-Learning (FSL) es un framework del campo del Machine Learning o del apre­n­di­za­je au­to­má­ti­co, en otras palabras, es una es­tru­c­tu­ra básica para el código de pro­gra­ma­ción. Se utiliza para entrenar modelos de IA para que realicen pre­di­c­cio­nes precisas con una pequeña cantidad de datos de en­tre­na­mie­n­to. Mientras que los métodos tra­di­cio­na­les de apre­n­di­za­je au­to­má­ti­co suelen necesitar miles de puntos de datos para ofrecer re­su­l­ta­dos fiables, el método Few-Shot-Learning se centra en optimizar el apre­n­di­za­je con una cantidad mínima de datos.

El objetivo principal de Few-Shot-Learning es aprender de manera efectiva con solo unos pocos ejemplos. Debido a que se trabaja con una cantidad mínima de datos, el método Few-Shot-Learning resulta pa­r­ti­cu­la­r­me­n­te valioso en si­tua­cio­nes donde es difícil recopilar grandes volúmenes de datos eti­que­ta­dos. A menudo, los costes son si­m­ple­me­n­te demasiado altos o, en algunos casos, solo hay di­s­po­ni­bles unos pocos ejemplos o muestras. Esto ocurre, por ejemplo, en el dia­g­nó­s­ti­co de en­fe­r­me­da­des raras o en la in­te­r­pre­ta­ción de es­cri­tu­ras únicas.

He­rra­mie­n­tas de IA
Saca el máximo partido a la in­te­li­ge­n­cia ar­ti­fi­cial
  • Crea tu página web en tiempo récord
  • Impulsa tu negocio gracias al marketing de IA
  • Ahorra tiempo y obtén mejores re­su­l­ta­dos

El método Few-Shot-Learning se puede co­n­si­de­rar como una su­b­ca­te­go­ría del apre­n­di­za­je n-Shot. Esto significa que el FSL se organiza ge­ne­ra­l­me­n­te como un sistema de ca­te­go­ri­za­ción N-Way-K-Shot, donde “N” re­pre­se­n­ta el número de clases y “K” la cantidad de ejemplos pro­po­r­cio­na­dos para cada clase. Esta rama de la in­te­li­ge­n­cia ar­ti­fi­cial también incluye el apre­n­di­za­je One-Shot (con un solo ejemplo eti­que­ta­do por clase) y el apre­n­di­za­je Zero-Shot-Learning (sin ejemplos eti­que­ta­dos). El primero se considera una variante de­sa­fia­n­te de FSL, mientras que el último se valora como un problema de apre­n­di­za­je in­de­pe­n­die­n­te.

¿Cómo funciona Few-Shot-Learning?

Aunque los al­go­ri­t­mos es­pe­cia­li­za­dos y las redes neu­ro­na­les resuelven muchas tareas de FSL con éxito, el método Few-Shot-Learning se define más por el problema de apre­n­di­za­je en cuestión que por el uso de una es­tru­c­tu­ra de modelo es­pe­cí­fi­ca. Por lo tanto, existe una amplia gama de métodos FSL, desde la ada­p­ta­ción de modelos pre­via­me­n­te en­tre­na­dos hasta el Meta-Learning y el uso de modelos ge­ne­ra­ti­vos. A co­n­ti­nua­ción, de­s­cri­bi­mos algunos de estos enfoques de forma más detallada.

Transfer Learning

Los enfoques basados en Transfer Learning se centran en ajustar modelos pre­via­me­n­te en­tre­na­dos para afrontar nuevas tareas. En lugar de entrenar un modelo desde cero, las ca­ra­c­te­rí­s­ti­cas y re­pre­se­n­ta­cio­nes ya apre­n­di­das se tra­n­s­fie­ren a una nueva tarea mediante unos pocos ajustes. Esto ayuda a evitar la so­bre­ca­r­ga de ajustes, que a menudo ocurre en el apre­n­di­za­je su­pe­r­vi­sa­do con pocos ejemplos eti­que­ta­dos, es­pe­cia­l­me­n­te en modelos con una gran cantidad de pa­rá­me­tros, como las redes neu­ro­na­les co­n­vo­lu­cio­na­les o Co­n­vo­lu­tio­nal Neural Networks.

Un pro­ce­di­mie­n­to común consiste en co­n­fi­gu­rar un modelo de cla­si­fi­ca­ción en­tre­na­n­do nuevas clases de datos con pocos ejemplos. En enfoques más complejos de Few-Shot-Learning, a menudo se ajusta la ar­qui­te­c­tu­ra de la red. El apre­n­di­za­je por tra­n­s­fe­re­n­cia o Transfer Learning es pa­r­ti­cu­la­r­me­n­te efectivo cuando existen fuertes si­mi­li­tu­des entre la tarea original y la nueva, o cuando el en­tre­na­mie­n­to original se ha realizado en un contexto similar.

Enfoque basado en datos

El método Few-Shot-Learning basado en datos se fu­n­da­me­n­ta en la idea de generar datos adi­cio­na­les de en­tre­na­mie­n­to para resolver el problema de las muestras limitadas. Este método es es­pe­cia­l­me­n­te útil en si­tua­cio­nes en las que los ejemplos del mundo real son ex­tre­ma­da­me­n­te escasos, como en el caso de las especies recién de­s­cu­bie­r­tas. En caso de que haya muestras su­fi­cie­n­te­me­n­te variadas, se pueden generar datos adi­cio­na­les que sean similares a estas, por ejemplo, mediante modelos ge­ne­ra­ti­vos como las redes ge­ne­ra­ti­vas an­ta­gó­ni­cas o Ge­ne­ra­ti­ve Ad­ve­r­sa­rial Networks (GAN). Además, es posible combinar la am­plia­ción de datos con otros métodos, como el Meta-Learning.

Meta-Learning

El Meta-Learning adopta un enfoque más amplio e indirecto que el Transfer Learning clásico y el Su­pe­r­vi­sed Learning, ya que aquí el modelo no solo se entrena para tareas es­pe­cí­fi­cas re­la­cio­na­das con su propósito. En cambio, aprende a resolver tareas a corto plazo dentro de un contexto de­te­r­mi­na­do, y a largo plazo, reconoce patrones y es­tru­c­tu­ras entre tareas. Esto permite hacer pre­di­c­cio­nes sobre el grado de similitud entre puntos de datos de distintas clases y usar estos co­no­ci­mie­n­tos para resolver tareas futuras.

Meta-Learning basado en métricas

Los enfoques de Meta-Learning basados en métricas no modelan fronteras de cla­si­fi­ca­ción directas, sino valores continuos para re­pre­se­n­tar una muestra de datos es­pe­cí­fi­ca. Las in­fe­re­n­cias se basan en el apre­n­di­za­je de nuevas funciones que miden la similitud entre el valor y las muestras y clases in­di­vi­dua­les. Entre los al­go­ri­t­mos de Few-Shot-Learning basados en métricas se incluyen:

  • Redes siamesas: utilizan el apre­n­di­za­je co­n­tra­s­ti­vo para resolver problemas de cla­si­fi­ca­ción binaria. Comparan si dos muestras forman un par positivo (coin­ci­de­n­cia) o un par negativo (no hay coin­ci­de­n­cia).
  • Redes de coin­ci­de­n­cia: también son capaces de realizar una cla­si­fi­ca­ción múltiple. Utilizan una red neuronal adecuada para emitir una in­cru­s­ta­ción para cada muestra dentro de los conjuntos de soporte y consulta. Las redes de coin­ci­de­n­cia predicen la cla­si­fi­ca­ción co­m­pa­ra­n­do las muestras de soporte con las de consulta.
  • Redes pro­to­tí­pi­cas: calculan ca­ra­c­te­rí­s­ti­cas promedio de las muestras pro­po­r­cio­na­das para cada clase para de­te­r­mi­nar un prototipo de clase. Los puntos de datos in­di­vi­dua­les se ca­te­go­ri­zan en función de su pro­xi­mi­dad relativa a los pro­to­ti­pos de clase.
  • Redes de re­la­cio­nes: también emplean un módulo de in­cru­s­ta­ción, pero además utilizan un módulo de re­la­cio­nes para generar una función de distancia no lineal adecuada para el problema de cla­si­fi­ca­ción.

Meta-Learning basado en op­ti­mi­za­ción

Los métodos de Few-Shot-Learning basados en op­ti­mi­za­ción tienen como objetivo crear modelos o hi­pe­r­pa­rá­me­tros iniciales para redes neu­ro­na­les que puedan adaptarse de manera eficiente a tareas es­pe­cí­fi­cas. Estos métodos utilizan la meta-op­ti­mi­za­ción (es decir, otras técnicas de op­ti­mi­za­ción) para mejorar el proceso de op­ti­mi­za­ción, lo que también se conoce como op­ti­mi­za­ción del descenso de gradiente.

El método más conocido de Few-Shot-Learning basado en op­ti­mi­za­ción es el Meta-Learning agnóstico al modelo (MAML). Este enfoque no se centra en una tarea es­pe­cí­fi­ca y se puede aplicar a todos los modelos que aprenden a través del descenso de gradiente. También es posible utilizar redes de memoria larga a corto plazo o LSTM (abre­via­tu­ra de Long Short-Term Memory) para entrenar modelos de Meta-Learning. La ca­ra­c­te­rí­s­ti­ca especial de la op­ti­mi­za­ción de in­cru­s­ta­ción latente (también conocida como Latent Embedding Op­ti­mi­za­tion o por su abre­via­tu­ra LEO) es que aprende una di­s­tri­bu­ción ge­ne­ra­ti­va de los pa­rá­me­tros del modelo es­pe­cí­fi­cos de la tarea.

¿Cuáles son los pri­n­ci­pa­les campos de apli­ca­ción de Few-Shot-Learning?

El método Few-Shot-Learning se puede aplicar en muchas áreas, ya que numerosas in­du­s­trias y campos de in­ve­s­ti­ga­ción se be­ne­fi­cian de la capacidad de aprender de manera eficiente con pocos ejemplos. Algunas áreas clave de apli­ca­ción incluyen:

  • Visión por ordenador: muchos de los al­go­ri­t­mos de Few-Shot-Learning más uti­li­za­dos se de­sa­rro­lla­ron ini­cia­l­me­n­te para tareas de cla­si­fi­ca­ción de imágenes, pero también son útiles en problemas más complejos, como la detección de objetos, donde se requiere localizar con precisión co­m­po­ne­n­tes es­pe­cí­fi­cos de una imagen.
  • Robótica: el método Few-Shot-Learning tiene el potencial de ayudar a los robots a adaptarse de forma más rápida a nuevos entornos y a realizar nuevas tareas con mayor rapidez.
  • Pro­ce­sa­mie­n­to del lenguaje: los métodos FSL, en pa­r­ti­cu­lar el Transfer Learning, ayuda a adaptar modelos de lenguaje extenso (LLM) pre­via­me­n­te en­tre­na­dos con grandes ca­n­ti­da­des de datos para tareas es­pe­cí­fi­cas que requieren co­m­pre­n­sión co­n­te­x­tual. Entre estas tareas se incluyen, por ejemplo, la cla­si­fi­ca­ción de texto y el análisis de se­n­ti­mie­n­tos.
  • Sector sanitario: debido a su capacidad para capturar o aprender rá­pi­da­me­n­te de clases de datos de­s­co­no­ci­das o raras, Few-Shot-Learning es ideal en áreas médicas en las que la obtención de datos eti­que­ta­dos es difícil. Un ejemplo clásico de esto es el dia­g­nó­s­ti­co de en­fe­r­me­da­des raras.
  • Banca: las in­s­ti­tu­cio­nes fi­na­n­cie­ras utilizan al­go­ri­t­mos de Few-Shot-Learning en la detección de fraudes para ide­n­ti­fi­car patrones anómalos o co­m­po­r­ta­mie­n­tos inusuales en tra­n­sac­cio­nes fi­na­n­cie­ras. Esto funciona incluso cuando solo hay unos pocos casos de fraude di­s­po­ni­bles como datos.

Desafíos prácticos en la im­ple­me­n­ta­ción de Few-Shot-Learning

La im­ple­me­n­ta­ción del método Few-Shot-Learning conlleva algunos desafíos prácticos: uno de los mayores ob­s­tácu­los es el riesgo de ove­r­fi­t­ti­ng (o so­bre­aju­s­tes). Los modelos en­tre­na­dos con pocos ejemplos tienden a aprender demasiado de los datos di­s­po­ni­bles, lo que los lleva a una mala capacidad de ge­ne­ra­li­za­ción. Además, el método Few-Shot-Learning requiere que los modelos se ajusten y optimicen con mucho cuidado para lograr un buen re­n­di­mie­n­to.

También, la calidad de los datos di­s­po­ni­bles es un factor clave para el éxito: si los pocos ejemplos no son re­pre­se­n­ta­ti­vos o contienen errores, esto puede afectar si­g­ni­fi­ca­ti­va­me­n­te el re­n­di­mie­n­to del modelo. Además, se­le­c­cio­nar ca­ra­c­te­rí­s­ti­cas adecuadas y métodos para aumentar el conjunto de datos es un desafío debido a la cantidad limitada de datos. Las recursos co­mpu­tacio­na­les y el tiempo necesario para entrenar modelos Few-Shot-Learning op­ti­mi­za­dos tampoco deben su­b­e­s­ti­mar­se.

Ir al menú principal