El apre­n­di­za­je au­to­má­ti­co o machine learning es una rama de la in­te­li­ge­n­cia ar­ti­fi­cial en la que los modelos in­fo­r­má­ti­cos aprenden a partir de datos para hacer pre­di­c­cio­nes o tomar de­ci­sio­nes sin necesidad de pro­gra­ma­ción explícita. No solo es in­te­re­sa­n­te para la ciencia y empresas te­c­no­ló­gi­cas como Google o Microsoft, sino que también puede tra­n­s­fo­r­mar el mundo del marketing online.

¿Qué es el apre­n­di­za­je au­to­má­ti­co?

En principio, las máquinas, los or­de­na­do­res y los programas funcionan solo según lo que se haya es­ta­ble­ci­do pre­via­me­n­te: “Si ocurre el caso A, entonces hace B”. Sin embargo, nuestras ex­pe­c­ta­ti­vas sobre los sistemas in­fo­r­má­ti­cos modernos siguen creciendo, y los pro­gra­ma­do­res no pueden prever todos los casos posibles ni dictarle una solución al ordenador para cada uno de ellos. Por eso, es necesario que el software tome de­ci­sio­nes por sí mismo y reaccione de manera adecuada ante si­tua­cio­nes de­s­co­no­ci­das. Para ello, deben existir al­go­ri­t­mos que permitan que el programa aprenda. Esto significa que, en un primer paso, el sistema se alimenta con datos y, a co­n­ti­nua­ción, ide­n­ti­fi­ca patrones y establece aso­cia­cio­nes. Eso es exac­ta­me­n­te lo que implica el apre­n­di­za­je au­to­má­ti­co.

En torno a los sistemas de apre­n­di­za­je autónomos surgen siempre términos re­la­cio­na­dos que hay que co­m­pre­n­der para tener una idea más clara de lo que significa machine learning.

IONOS AI Model Hub
Su puerta de acceso a una pla­ta­fo­r­ma segura de IA mu­l­ti­mo­dal
  • Una pla­ta­fo­r­ma para los modelos de IA más potentes
  • Precios justos y tra­n­s­pa­re­n­tes basados en tokens
  • Sin de­pe­n­de­n­cia de pro­vee­do­res gracias al código abierto

In­te­li­ge­n­cia ar­ti­fi­cial (IA)

Los proyectos en torno a la in­te­li­ge­n­cia ar­ti­fi­cial (IA) tienen como objetivo crear programas que puedan co­m­po­r­tar­se como si de personas se trataran. Por co­n­si­guie­n­te, estos necesitan analizar el entorno para tomar la decisión más acertada, o como diríamos en lenguaje común, deben co­m­po­r­tar­se de manera in­te­li­ge­n­te. Además, nos topamos con el problema de la de­no­mi­na­ción, más cuando ni siquiera estamos seguros de los criterios para calificar nuestra propia in­te­li­ge­n­cia, la in­te­li­ge­n­cia humana. En la ac­tua­li­dad la IA, o lo que se considera como tal, no simula al ser humano en su totalidad (incluida la in­te­li­ge­n­cia emocional). Por el contrario, se aíslan ca­pa­ci­da­des concretas para realizar tareas es­pe­cí­fi­cas, lo que se conoce ge­ne­ra­l­me­n­te como “in­te­li­ge­n­cia ar­ti­fi­cial débil”.

Desde 2022, los sistemas con IA ge­ne­ra­ti­va han ganado gran re­le­va­n­cia. Estos se basan en modelos de tra­n­s­fo­r­ma­do­res capaces de generar textos, imágenes o código a partir de enormes volúmenes de datos. Sin embargo, siguen siendo sistemas es­pe­cia­li­za­dos que no poseen una verdadera in­te­li­ge­n­cia general.

Redes neu­ro­na­les

Una de las ramas de in­ve­s­ti­ga­ción de la in­te­li­ge­n­cia ar­ti­fi­cial es la neu­roi­n­fo­r­má­ti­ca, que intenta co­n­ti­nua­me­n­te crear programas in­fo­r­má­ti­cos que se asimilen al cerebro humano; analiza el sistema nervioso de forma abstracta, al margen de sus funciones bio­ló­gi­cas, y se centra en su lógica de fu­n­cio­na­mie­n­to. Bajo el término de red neuronal ar­ti­fi­cial no se hace re­fe­re­n­cia a una ma­ni­fe­s­ta­ción real, sino al conjunto de procesos ma­te­má­ti­cos ab­s­tra­c­tos con los que se crea “una red de neuronas” (funciones ma­te­má­ti­cas o al­go­ri­t­mos) que pueden resolver tareas complejas al igual que el cerebro humano. Las co­ne­xio­nes entre neuronas tienen distinta in­te­n­si­dad y pueden adaptarse a los distintos problemas.

El de­sa­rro­llo de las redes neu­ro­na­les ha dado lugar al auge del apre­n­di­za­je profundo. Se trata de redes neu­ro­na­les complejas con múltiples capas que ac­tua­l­me­n­te dominan el campo.

Big data

En principio, el término big data o datos masivos sirve para describir la cantidad ingente de in­fo­r­ma­ción de la que se dispone, sin que realmente exista un punto de inflexión entre lo que se considera data y lo que se estima como datos masivos. El motivo de que en los últimos años haya crecido la atención de los medios con respecto a los ma­cro­da­tos reside en su origen, ya que en muchos casos el flujo de in­fo­r­ma­ción proviene de los propios datos de usuarios (intereses, perfiles de mo­vi­mie­n­to, datos pe­r­so­na­les, etc.). Esto permite a las empresas pe­r­so­na­li­zar al máximo su oferta para los clientes al obtener esta in­fo­r­ma­ción de Google, Amazon o Meta (Facebook).

Además, los sistemas de co­mpu­tación tra­di­cio­na­les no son capaces de analizar co­rre­c­ta­me­n­te este volumen de in­fo­r­ma­ción, dado que el software tra­di­cio­nal solo encuentra lo que el usuario busca, motivo por el que se necesitan sistemas de apre­n­di­za­je autónomo que puedan encontrar re­la­cio­nes pre­via­me­n­te de­s­co­no­ci­das.

Data mining

La minería de datos o data mining hace re­fe­re­n­cia al análisis del big data, ya que en sí la re­co­pi­la­ción de in­fo­r­ma­ción carece de valor y solo adquiere im­po­r­ta­n­cia cuando de ella se pueden extraer y analizar rasgos re­le­va­n­tes. A di­fe­re­n­cia del apre­n­di­za­je au­to­má­ti­co, la minería de datos se centra en encontrar nuevos patrones, mientras que el apre­n­di­za­je au­to­má­ti­co se enfoca en aplicar patrones ya conocidos. Entre las técnicas de la minería de datos se incluyen análisis de clústeres, árboles de decisión, métodos de regresión y análisis de aso­cia­ción. Hoy en día, el data mining suele ser parte de los sistemas de in­te­li­ge­n­cia em­pre­sa­rial o se utiliza en la analítica pre­di­c­ti­va para predecir el co­m­po­r­ta­mie­n­to de los clientes o las te­n­de­n­cias del mercado.

Di­fe­re­n­tes métodos de apre­n­di­za­je au­to­má­ti­co

En términos generales, los de­sa­rro­lla­do­res di­s­ti­n­guen entre apre­n­di­za­je su­pe­r­vi­sa­do, apre­n­di­za­je no su­pe­r­vi­sa­do y apre­n­di­za­je profundo. Los al­go­ri­t­mos uti­li­za­dos en cada uno de estos enfoques son muy di­fe­re­n­tes.

Apre­n­di­za­je su­pe­r­vi­sa­do

En el apre­n­di­za­je su­pe­r­vi­sa­do (su­pe­r­vi­sed learning) se pro­po­r­cio­na al sistema un conjunto de ejemplos y el pro­gra­ma­dor establece qué valor recibe cada dato, por ejemplo, si este pertenece a la categoría A o B. A partir de entonces, el sistema de au­to­apre­n­di­za­je saca co­n­clu­sio­nes, reconoce patrones y, por co­n­si­guie­n­te, puede lidiar mejor con los datos de­s­co­no­ci­dos, siempre con el objetivo de reducir pro­gre­si­va­me­n­te la tasa de error.

Un ejemplo conocido de apre­n­di­za­je su­pe­r­vi­sa­do es el filtro de spam. En función de las ca­ra­c­te­rí­s­ti­cas que presente el mensaje recibido, el sistema decide si debe aparecer en la bandeja de entrada o si, por el contrario, se almacena di­re­c­ta­me­n­te en la bandeja de correo no deseado. Si el sistema comete un error, el usuario puede reajustar las ca­ra­c­te­rí­s­ti­cas ma­nua­l­me­n­te de modo que el filtro adapte sus cálculos en el futuro, pe­r­mi­tie­n­do al software conseguir cada vez mejores re­su­l­ta­dos.

Apre­n­di­za­je no su­pe­r­vi­sa­do

En el apre­n­di­za­je no su­pe­r­vi­sa­do, el programa intenta reconocer patrones por sí mismo. Para ello, puede utilizar técnicas como el clu­s­te­ri­ng: se se­le­c­cio­na un elemento de un conjunto de datos, se analizan sus ca­ra­c­te­rí­s­ti­cas y luego se compara con los elementos ya ana­li­za­dos. Si encuentra elementos equi­va­le­n­tes, el objeto actual se añadirá a ellos. Si no es así, se al­ma­ce­na­rá de forma aislada.

Los sistemas que se basan en el apre­n­di­za­je no su­pe­r­vi­sa­do se llevan a cabo, entre otros, en las redes neu­ro­na­les. Se usan, por ejemplo, para ga­ra­n­ti­zar la seguridad de la red, dado que pueden reconocer los co­m­po­r­ta­mie­n­tos anómalos. Así, si el sistema, al analizar un elemento (que supone un ci­ber­ata­que) no es capaz de asociarlo con ninguno de los grupos conocidos, reconoce el riesgo que este elemento conlleva y hace saltar la alarma.

Además de estas dos di­re­c­cio­nes pri­n­ci­pa­les, existen otros enfoques como el apre­n­di­za­je se­mi­su­pe­r­vi­sa­do (semi-su­pe­r­vi­sed learning), el apre­n­di­za­je por refuerzo (re­in­fo­r­ce­me­nt learning), el apre­n­di­za­je activo (active learning) y el apre­n­di­za­je au­to­su­pe­r­vi­sa­do (self-su­pe­r­vi­sed learning). Estos métodos pe­r­te­ne­cen al apre­n­di­za­je su­pe­r­vi­sa­do y se di­fe­re­n­cian en el tipo y la cantidad de pa­r­ti­ci­pa­ción por parte de los usuarios. Uno de los más re­le­va­n­tes hoy en día es el apre­n­di­za­je au­to­su­pe­r­vi­sa­do, donde los sistemas generan las tareas de apre­n­di­za­je por sí mismos, sin in­te­r­ve­n­ción del usuario.

Apre­n­di­za­je profundo

A di­fe­re­n­cia de los al­go­ri­t­mos clásicos de apre­n­di­za­je au­to­má­ti­co, como los árboles de decisión o las máquinas de vectores de soporte, el apre­n­di­za­je profundo utiliza redes neu­ro­na­les mu­l­ti­ca­pas para procesar conjuntos de datos más complejos y difíciles de entender. Así, por ejemplo, los programas que se ocupan del re­co­no­ci­mie­n­to facial, de voz o de escritura se basan en datos naturales, difíciles de entender desde un punto de vista ma­te­má­ti­co. Por eso, aunque en un principio resulten muy fáciles de procesar para los seres humanos, aumentan en di­fi­cu­l­tad cuando son las máquinas las que se encargan de la actividad.

Existe también una relación estrecha entre los conceptos de apre­n­di­za­je profundo y la red neuronal ar­ti­fi­cial, pues la forma en la que se entrenan las redes neu­ro­na­les puede ser descrita como apre­n­di­za­je profundo. De hecho, recibe la de­no­mi­na­ción de profundo dado que la red de neuronas está ordenada en di­fe­re­n­tes niveles je­rá­r­qui­cos. Se inicia en el primer nivel con una capa de neuronas de entrada que registra los datos, empieza con el análisis y envía los re­su­l­ta­dos a las si­guie­n­tes capas neu­ro­na­les. Fi­na­l­me­n­te, esta in­fo­r­ma­ción, que cada vez se va pe­r­fe­c­cio­na­n­do más, alcanza el nivel de salida y la red da un valor. Los numerosos niveles que se en­cue­n­tran entre la entrada y la salida se denominan capas ocultas (hidden layers).

¿Cómo funciona el apre­n­di­za­je au­to­má­ti­co para el marketing?

En la ac­tua­li­dad, el apre­n­di­za­je au­to­má­ti­co desempeña im­po­r­ta­n­tes funciones en el ámbito del marketing, aunque, por lo general, las empresas usan esta te­c­no­lo­gía in­te­r­na­me­n­te, es­pe­cia­l­me­n­te en el caso de Google. De hecho, estos sistemas son tan nuevos que no se pueden adquirir como so­lu­cio­nes out of the box, listas para usarlas, sino que son los grandes pro­vee­do­res de servicios de Internet los que de­sa­rro­llan sus propios sistemas, im­pu­l­sa­n­do los avances en este campo. Esto, unido a que también existen so­lu­cio­nes de código abierto pro­mo­vi­das por in­ve­s­ti­ga­do­res in­de­pe­n­die­n­tes cuyo interés no se basa en el beneficio económico, está ace­le­ra­n­do el progreso en esta área.

Análisis de datos y pro­nó­s­ti­cos

El marketing, además de su vertiente creativa, siempre tiene un aspecto analítico: las es­ta­dí­s­ti­cas sobre el co­m­po­r­ta­mie­n­to de los clientes juegan un papel crucial en la toma de de­ci­sio­nes sobre las campañas pu­bli­ci­ta­rias. Cuanto mayor es la cantidad de datos, más in­fo­r­ma­ción se puede extraer de ellos. Los modelos de apre­n­di­za­je au­to­má­ti­co ide­n­ti­fi­can patrones y pueden hacer pre­di­c­cio­nes fu­n­da­me­n­ta­das, algo que los humanos, que tienden a manejar los datos de manera sesgada, solo pueden hacer de forma limitada.

Por norma general, cuando un analista trabaja con los datos tiene ciertas ex­pe­c­ta­ti­vas sobre los valores. Estos pre­jui­cios son casi in­e­vi­ta­bles para los seres humanos y a menudo son la causa de di­s­to­r­sio­nes. Cuanto mayores sean los volúmenes de datos, más fuertes serán las de­s­via­cio­nes. No obstante, aunque las máquinas in­te­li­ge­n­tes también pueden tener ciertos pre­jui­cios, dado que in­co­n­s­cie­n­te­me­n­te los seres humanos las programan con este rasgo, son más objetivas pues tratan con hechos estables, pe­r­mi­tie­n­do que en la mayoría de los casos puedan realizar análisis re­le­va­n­tes.

Vi­sua­li­za­ción

Los sistemas de apre­n­di­za­je au­to­má­ti­co también facilitan la vi­sua­li­za­ción de datos, mejorando la forma en que se presentan los re­su­l­ta­dos de los análisis. Gracias a la vi­sua­li­za­ción au­to­ma­ti­za­da, el propio sistema se­le­c­cio­na el tipo de gráfico más adecuado y resume los hallazgos, lo que ayuda a los analistas a in­te­r­pre­tar pro­nó­s­ti­cos y de­s­cu­bri­mie­n­tos. Dado que los grandes volúmenes de datos son difíciles de re­pre­se­n­tar de forma manual, es fu­n­da­me­n­tal que la vi­sua­li­za­ción se genere di­re­c­ta­me­n­te a partir de los cálculos del ordenador.

Pe­r­so­na­li­za­ción y diseño ge­ne­ra­ti­vo

También en el ámbito de la creación de contenido, el apre­n­di­za­je au­to­má­ti­co está ad­qui­rie­n­do cada vez más pro­ta­go­ni­s­mo, es­pe­cia­l­me­n­te en lo que se refiere al diseño ge­ne­ra­ti­vo. En lugar de diseñar la misma ex­pe­rie­n­cia para todos los usuarios, los sistemas dinámicos basados en apre­n­di­za­je au­to­má­ti­co permiten crear ex­pe­rie­n­cias pe­r­so­na­li­za­das. Los co­n­te­ni­dos de una página web siguen siendo pro­po­r­cio­na­dos por re­da­c­to­res y di­se­ña­do­res, pero el sistema combina los elementos es­pe­cí­fi­ca­me­n­te para cada usuario. Hoy en día, los sistemas de in­te­li­ge­n­cia ar­ti­fi­cial y apre­n­di­za­je au­to­má­ti­co se utilizan incluso para diseñar de forma autónoma o generar contenido. Por ejemplo, con Project Drea­m­ca­t­cher es posible que una máquina diseñe co­m­po­ne­n­tes de in­ge­nie­ría. Además, los LLM (modelos de lenguaje extensos) como ChatGPT pueden crear textos para páginas web adaptados a grupos es­pe­cí­fi­cos de usuarios.

Chatbots in­te­li­ge­n­tes y pro­ce­sa­mie­n­to del lenguaje

El apre­n­di­za­je au­to­má­ti­co también se puede utilizar para optimizar los chatbots. Muchas empresas ya im­ple­me­n­tan programas que gestionan parte del soporte al cliente a través de un chatbot. Sin embargo, en muchos casos, los usuarios se frustran rá­pi­da­me­n­te con los bots tra­di­cio­na­les. Un chatbot basado en un sistema de apre­n­di­za­je au­to­má­ti­co con IA y con un buen (pro­ce­sa­mie­n­to del lenguaje natural) y re­co­no­ci­mie­n­to de voz puede hacer que los clientes sientan que realmente están in­ter­ac­tua­n­do con una persona, ace­r­cá­n­do­se al llamado “efecto Turing”.

Su­ge­re­n­cias pe­r­so­na­li­za­das

Las conocidas re­co­me­n­da­cio­nes de Amazon y Netflix han co­n­tri­bui­do al de­sa­rro­llo del apre­n­di­za­je au­to­má­ti­co, be­ne­fi­cia­n­do en gran medida a los pro­fe­sio­na­les del marketing. Un factor im­po­r­ta­n­te en el éxito de estos pro­vee­do­res se basa en la capacidad de sus programas de predecir lo que el usuario querrá en un futuro próximo, pues en función de los datos re­co­pi­la­dos estos sistemas pueden re­co­me­n­dar a los usuarios otros productos re­la­cio­na­dos. Lo que en un principio se realizaba de una forma muy general (a nuestros clientes les gusta A, por lo que la mayoría también querrá B) tiene hoy un mayor grado de precisión gracias a estos programas in­te­li­ge­n­tes (el cliente X ha adquirido los productos A, B y C, por lo que el producto D pro­ba­ble­me­n­te también le guste). En resumen, se puede afirmar que los sistemas de apre­n­di­za­je au­to­má­ti­co pueden influir en cuatro puntos im­po­r­ta­n­tes en el marketing online:

  • Volumen de in­fo­r­ma­ción: aquellos programas que funcionan gracias al machine learning y han sido bien pro­gra­ma­dos permiten analizar un volumen elevado de datos y ofrecer pro­nó­s­ti­cos fiables.
  • Velocidad: los análisis suponen una cantidad de tiempo co­n­si­de­ra­ble si se pretenden hacer a mano, por lo que el uso de modelos de apre­n­di­za­je au­to­má­ti­co reducirá el tiempo de análisis, pe­r­mi­tie­n­do al mismo tiempo reac­cio­nar con mayor rapidez a los cambios.
  • Au­to­ma­ti­za­ción: con el apre­n­di­za­je au­to­má­ti­co resulta más fácil mecanizar procesos complejos y permite a los sistemas modernos adaptarse a las nuevas ci­r­cu­n­s­ta­n­cias de forma autónoma.
  • Pe­r­so­na­li­za­ción: los programas in­fo­r­má­ti­cos pueden atender a in­nu­me­ra­bles clientes. Como los sistemas de apre­n­di­za­je au­to­má­ti­co recopilan y procesan los datos de cada usuario, también pueden ofre­ce­r­les ex­pe­rie­n­cias y re­co­me­n­da­cio­nes pe­r­so­na­li­za­das.

Otros campos de apli­ca­ción para sistemas de apre­n­di­za­je au­to­má­ti­co

El marketing no es el único ámbito en el que la apli­ca­ción del apre­n­di­za­je au­to­má­ti­co crece pro­gre­si­va­me­n­te, sino que también tiene presencia en otros muchos campos: co­n­tri­bu­ye al progreso de la ciencia, apoya el avance de la te­c­no­lo­gía, facilita el día a día gracias a los di­s­po­si­ti­vos ele­c­tró­ni­cos, etc. Estos son solo algunos ejemplos dentro de la gran variedad de ámbitos de actuación del apre­n­di­za­je au­to­má­ti­co, lo que nos hace suponer que en un futuro no tan lejano este tipo de sistemas in­te­li­ge­n­tes estará presente en todos los aspectos de nuestra vida.

Ciencia

En el ámbito de la ciencia, el apre­n­di­za­je au­to­má­ti­co tiene una im­po­r­ta­n­cia igual o mayor que en el ámbito del marketing, dado que el pro­ce­sa­mie­n­to in­te­li­ge­n­te del big data facilita eno­r­me­me­n­te el trabajo de los in­ve­s­ti­ga­do­res, pe­r­mi­tie­n­do, por ejemplo, a la física de pa­r­tí­cu­las recoger más datos de medición, pro­ce­sar­los y de esta forma de­te­r­mi­nar las de­s­via­cio­nes. Pero también en medicina es de gran utilidad pues en la ac­tua­li­dad los médicos ya recurren a la in­te­li­ge­n­cia ar­ti­fi­cial para realizar dia­g­nó­s­ti­cos y aplicar tra­ta­mie­n­tos, además de utilizar el apre­n­di­za­je au­to­má­ti­co para predecir diabetes o en­fe­r­me­da­des ca­r­dio­va­s­cu­la­res.

Robótica

La amplia presencia de los robots es es­pe­cia­l­me­n­te im­po­r­ta­n­te en las fábricas. Son ne­ce­sa­rios en la pro­du­c­ción en masa, ya que permiten au­to­ma­ti­zar di­fe­re­n­tes procesos de trabajo, pero en general tienen poca relación con los sistemas de au­to­apre­n­di­za­je, pues se programan para realizar una actividad concreta de forma re­pe­ti­ti­va y sin va­ria­cio­nes. Sin embargo, si el apre­n­di­za­je au­to­má­ti­co se in­tro­du­je­se en estos procesos, las máquinas podrían aprender a dominar otras tareas. Pero los robots que integran sistemas in­te­li­ge­n­tes también pueden ser útiles en otros muchos campos que abarcan desde la carrera espacial hasta el ámbito doméstico.

Movilidad

Uno de los grandes retos del apre­n­di­za­je au­to­má­ti­co es la co­n­du­c­ción autónoma. Conseguir que los coches sean capaces de conducir por sí mismos y sin causar ac­ci­de­n­tes fuera de los circuitos de prueba puede hacerse realidad gracias a estos sistemas in­te­li­ge­n­tes. Como no es posible programar todos los es­ce­na­rios, es im­po­r­ta­n­te dotar a los coches autónomos de sistemas de apre­n­di­za­je au­to­má­ti­co, pero no es la co­n­du­c­ción autónoma el único campo en el que estos sistemas han dejado huella, dado que los al­go­ri­t­mos in­te­li­ge­n­tes en forma de redes neu­ro­na­les pueden analizar el tráfico y de­sa­rro­llar sistemas efectivos que, por ejemplo, regulen semáforos in­te­li­ge­n­tes, para mejorar así el flujo de tráfico y evitar la formación de atascos.

Internet

En Internet, este apre­n­di­za­je in­te­li­ge­n­te co­n­s­ti­tu­ye una pieza muy im­po­r­ta­n­te. Un ejemplo son los filtros de spam. Con un apre­n­di­za­je pro­gre­si­vo, este programa filtra cada vez con mayor exactitud los mensajes no deseados y hace que el spam des­apa­re­z­ca de la bandeja de entrada. Lo mismo ocurre con los programas in­te­li­ge­n­tes que protegen a los sistemas de co­mpu­tación de virus y malware cada vez con mayor efe­c­ti­vi­dad. Los al­go­ri­t­mos de búsqueda de los motores de búsqueda, es­pe­cia­l­me­n­te RankBrain de Google, también son sistemas de au­to­apre­n­di­za­je. Incluso cuando el algoritmo no sabe cómo responder a la búsqueda de un usuario porque es la primera vez que alguien la realiza, puede inferir la intención probable de la consulta.

Asi­s­te­n­tes pe­r­so­na­les

En el ámbito doméstico, la im­po­r­ta­n­cia de estos sistemas de co­mpu­tación cada vez más in­te­li­ge­n­tes va au­me­n­ta­n­do, tra­n­s­fo­r­ma­n­do las viviendas tra­di­cio­na­les en casas in­te­li­ge­n­tes. Moley Robotics ha de­sa­rro­lla­do, por ejemplo, una cocina in­te­li­ge­n­te que con sus brazos mecánicos puede preparar comidas. También los asi­s­te­n­tes pe­r­so­na­les como Google Home y Amazon Echo, desde los que es posible gestionar la propia vivienda, recurren al machine learning para entender a los usuarios de la mejor forma posible. Asimismo, muchas personas tra­n­s­po­r­tan consigo asi­s­te­n­tes, ya que Siri, Cortana y el Asistente de Google permiten a los usuarios hacer preguntas o dar órdenes al sma­r­t­pho­ne a través de comandos de voz.

Juegos

Desde el inicio de los estudios en torno a la in­te­li­ge­n­cia ar­ti­fi­cial llamó la atención de los in­ve­s­ti­ga­do­res la capacidad de estos programas para poder pa­r­ti­ci­par en juegos, lo que se ha de­mo­s­tra­do en el ajedrez, las damas o Go, juego pro­ce­de­n­te de China y pro­ba­ble­me­n­te el juego de tablero más complejo del mundo, en­fre­n­ta­n­do sistemas de machine learning con seres humanos. En el caso de los vi­deo­jue­gos, los de­sa­rro­lla­do­res recurren a estas máquinas para hacer sus juegos más in­te­re­sa­n­tes. Además, los di­se­ña­do­res de juegos pueden in­co­r­po­rar este apre­n­di­za­je autónomo para equi­li­brar la ex­pe­rie­n­cia entre la IA y los jugadores reales.

La historia del apre­n­di­za­je au­to­má­ti­co

Los robots y autómatas han aco­m­pa­ña­do a la humanidad durante varios siglos. La relación entre el ser humano y la máquina pensante siempre ha oscilado entre el miedo y la fa­s­ci­na­ción. Sin embargo, los esfuerzos reales por de­sa­rro­llar el apre­n­di­za­je au­to­má­ti­co co­me­n­za­ron en la década de 1950, en una época en la que los or­de­na­do­res aún estaban en una fase in­ci­pie­n­te y la in­te­li­ge­n­cia ar­ti­fi­cial solo podía ima­gi­nar­se. Aunque ya en los dos siglos an­te­rio­res teóricos como Thomas Bayes, Adrien-Marie Legendre y Pierre-Simon Laplace sentaron las bases para la in­ve­s­ti­ga­ción posterior, fue el trabajo de Alan Turing el que plasmó de forma concreta la idea de las máquinas que aprenden.

Cita

“En tal caso, habría que admitir que el progreso de la máquina no se había previsto cuando se in­tro­du­je­ron sus in­s­tru­c­cio­nes ori­gi­na­les. Sería como un alumno que ha aprendido mucho de su maestro, pero ha añadido aún más con su propio trabajo. Cuando esto sucede, siento que se está obligado a co­n­si­de­rar que la máquina muestra in­te­li­ge­n­cia.” Alan Turing en una co­n­fe­re­n­cia en 1947 (recogido en “Turing’s ACE Report of 1946 and Other Papers”)

En 1950, Turing de­sa­rro­lló su conocido Test de Turing, un ex­pe­ri­me­n­to en el que un ordenador trata de convencer a un humano de que está in­ter­ac­tua­n­do con otra persona. Si el humano no puede reconocer que no está hablando con un ser de carne y hueso, la máquina pasa la prueba. En aquel entonces todavía estaba lejos de al­ca­n­zar­se, pero solo dos años después Arthur Samuel de­sa­rro­lló un programa de ordenador capaz de jugar a las damas y mejorar con cada partida. El programa tenía la capacidad de aprender. Fi­na­l­me­n­te, en 1957, Frank Ro­se­n­bla­tt creó el Pe­r­ce­p­trón, el primer algoritmo capaz de aprender de manera guiada: una red neuronal ar­ti­fi­cial.

En la ac­tua­li­dad, las grandes empresas son los motores del de­sa­rro­llo del apre­n­di­za­je au­to­má­ti­co: IBM de­sa­rro­lló Watson, un sistema de IA con una vasta base de co­no­ci­mie­n­to capaz de responder preguntas fo­r­mu­la­das en lenguaje natural. Google y Meta utilizan el apre­n­di­za­je au­to­má­ti­co para entender mejor a sus usuarios y ofre­ce­r­les más fu­n­cio­na­li­da­des.

Ir al menú principal