Las empresas ven la IA como un método escalable para generar valor a partir de los datos

Las tecnologías de IA están evolucionando muy rápidamente, y darán forma al próximo gran cambio en TI. Pero ellas también están sujetos a cambios y experimentos varios desafíos y cambios. Las nuevas tendencias en Inteligencia Artificial incluyen las exigencias de una trazabilidad más clara y una menor intensidad de datos.

La inteligencia artificial (IA) y el aprendizaje automático o machine learning (ML) han llegado a las actualmente, las empresas ven la IA como un método escalable para generar un valor agregado esencial a partir de los datos. Pero incluso esas soluciones están sujetas a cambios. Ahora deberían seguir desarrollando nuevas tecnologías. Como resultado, varios enfoques que actualmente están dando forma al desarrollo son los siguientes.

Meta Learning (meta aprendizaje)

A diferencia de los enfoques de IA convencionales, en los que una determinada tarea se resuelve desde cero utilizando un algoritmo de aprendizaje fijo, el meta aprendizaje tiene como objetivo mejorar el algoritmo de aprendizaje en sí, ya que existen varios de los denominados episodios de aprendizaje. Esto ofrece la oportunidad de abordar muchos de los desafíos convencionales del aprendizaje profundo.

El meta aprendizaje o “aprender a aprender” se trata de la observación sistemática de cómo funcionan los diferentes enfoques del aprendizaje automático en una variedad de tareas de aprendizaje. A partir de esta experiencia, o de los metadatos, el sistema debería aprender a aprender nuevas tareas mucho más rápido.

Esto no solo acelera y mejora drásticamente el diseño de canalizaciones de aprendizaje automático o arquitecturas neuronales, sino que también permite que los algoritmos hechos a mano sean reemplazados por nuevos enfoques que se aprenden de una manera basada en datos. Con la creciente aparición de tecnologías como el meta aprendizaje, la IA se está volviendo menos intensiva en datos.

Explainable AI (IA explicable)

La IA está experimentando una aceptación cada vez mayor, especialmente en industrias fuertemente reguladas, gracias a la llamada “Explainable AI” (IA explicable). Esto significa que las personas también pueden comprender el camino que ha seguido un sistema de IA para tomar una determinada decisión. Esto es para evitar distorsionar los resultados.

Contrasta con el concepto de “caja negra” en el aprendizaje automático, en el que incluso sus desarrolladores ya no pueden explicar por qué la IA tomó una determinada decisión. El uso de “IA explicable” es particularmente útil como complemento para aplicaciones cuando los resultados requieren una explicación o deben rastrearse. Por ejemplo, para tareas de detección de tumores, rechazo de hipotecas o selección de candidaturas.

En comparación, si un algoritmo de aprendizaje automático esencialmente aprende sobre la base de datos existentes, puede estar falsamente contaminado con “prejuicios” contra géneros o grupos étnicos. La explicabilidad juega un papel decisivo aquí.

Generative AI (IA generativa)

Este enfoque se refiere a programas que pueden aprender y usar contenido existente, como texto, archivos de audio o imágenes, para crear contenido nuevo o similar. Existen varias técnicas para esto, como redes generativas adversarias (GANS, generative adversarial networks), transformadores y autocodificadores de variación. Según la MIT Technology Review, la IA generativa es una de las innovaciones más prometedoras en IA en la última década.

La empresa nVidia desarrolló un software con el que se pueden generar nuevos rostros fotorrealistas a partir de unas pocas imágenes de personas reales. Otro ejemplo proviene de un equipo de la University of Berkeley. Implementaron un software que puede transferir los movimientos grabados en vídeo de una persona (por ejemplo, un bailarín profesional) a los movimientos de otra persona (por ejemplo, un bailarín completamente inexperto).

Esencialmente, la IA generativa se usa para usar datos para entrenar algoritmos que se pueden usar para crear imágenes o vídeos. Esto es fundamentalmente diferente de lo que se conoce como IA discriminatoria, que generalmente tiene como objetivo clasificar datos o diferenciar algo.

Transfer Learning (aprendizaje por transferencia)

En lugar de entrenar una red neuronal desde cero, los desarrolladores pueden descargar un modelo de aprendizaje profundo de código abierto previamente entrenado y ajustarlo para sus propios fines. Ahora hay muchos modelos básicos previamente entrenados para elegir. Algunos ejemplos populares son AlexNet Inceptio-v3 de Google y ResNet-50 de Microsoft. Estas redes neuronales ya se han entrenado en el conjunto de datos de ImageNet. Los ingenieros de IA solo necesitan ampliarlos con sus propios requisitos específicos de dominio.

Por ejemplo, un ingeniero de inteligencia artificial podría querer crear una red neuronal para clasificar imágenes para resolver un problema específico. En lugar de recopilar miles y millones de imágenes, puede usar uno de los conjuntos de datos disponibles públicamente como ImageNet, y aumentarlo con fotos específicas del dominio.

La transferencia de aprendizaje no requiere grandes recursos informáticos. En la mayoría de los casos, un ordenador de escritorio decente, o un ordenador portátil potente, pueden ajustar una red neuronal previamente entrenada en cuestión de horas (o incluso menos).

El aprendizaje por transferencia ofrece, entre otras cosas, un gran valor añadido en la identificación de personas que no respetan las normas de tráfico, como la conducción sin casco para motociclistas, o al entrenar modelos lingüísticos para diferentes acentos o vocabulario.

Capsule Networks (redes cápsula)

Una Capsule Neural Network (CapsNet), o red neuronal cápsula, es un sistema de aprendizaje automático, un tipo de red neuronal artificial (ANN, artificial neural network) que se puede utilizar para modelar mejor las relaciones jerárquicas. El enfoque es un intento de imitar más de cerca la organización neuronal biológica.

La idea básica es agregar estructuras llamadas “cápsulas” a una red neuronal convolucional (CNN, convolutional neural network) para crear representaciones más estables. La salida es un vector formado por la probabilidad de una observación y la posición de esa observación. Este vector es similar a lo que se hace, por ejemplo, en la clasificación con localización en las CNN.

Capsule Networks se ocupa, entre otras cosas, del llamado “problema de Picasso” del reconocimiento de imágenes: imágenes que tienen todas las partes correctas, pero que no están en la relación espacial correcta entre sí. Es decir, las posiciones de la boca y un ojo se invierten en una casa.

Nuevas tendencias en Inteligencia Artificial