Comprende las diferencias fundamentales y en qué contexto encaja cada una dentro de la IA
En el amplio mundo de la inteligencia artificial (IA), los conceptos de aprendizaje automático y aprendizaje profundo suelen confundirse. La IA es el amplio campo de la construcción de sistemas inteligentes que realizan tareas que requieren una toma de decisiones similar a la humana. El aprendizaje automático (ML) es un tipo de IA en el que los sistemas aprenden patrones a partir de datos históricos para tomar decisiones sin estar programados explícitamente para cada regla. El aprendizaje profundo (DL) es un subconjunto especializado de aprendizaje automático que utiliza redes neuronales multicapa para aprender automáticamente de grandes conjuntos de datos para resolver problemas complejos de percepción y lenguaje.
La siguiente jerarquía explica la relación entre IA, ML y DL:
Reglas y lógica de la inteligencia artificial (IA)
└── El aprendizaje automático (ML) reemplaza las reglas por la experiencia
└── Aprendizaje profundo (DL) aprendizaje automático
El ML y DL son enfoques para lograr la IA. De hecho, la mayoría de los productos de IA de hoy en día son en realidad sistemas de ML, modelos de aprendizaje profundo o pipelines de datos impulsados por ML.
| Aspecto | IA | ML | DL |
|---|---|---|---|
| Técnicas | Reglas, lógica, búsqueda | Modelos estadísticos | Redes neuronales |
| Requisito de datos | Conjuntos de datos de tamaño pequeño a mediano | Conjuntos de datos de tamaño pequeño a mediano | Conjuntos de datos muy grandes |
| Requiere aprendizaje | No siempre | Siempre | Siempre |
| Adaptabilidad | A menudo estática | Mejora con más datos | Mejora con más datos |
| Necesidades de cómputo | Bajo a moderado | Moderado | Alto |
| Mejor para | Razonamiento, control | Datos estructurados | Datos no estructurados |
| Ejemplos | Planificación, toma de decisiones | Recomendaciones | Visión, habla, lenguaje |
El aprendizaje automático funciona al permitir que una computadora aprenda patrones a partir de datos y luego utilice esos patrones para hacer predicciones o tomar decisiones. Mejora con la experiencia sin programación explícita. Los datos son el combustible para el aprendizaje automático. Comienza con un problema o una pregunta que deseas que el sistema responda y emplea los datos recopilados y estandarizados en un modelo (un algoritmo que asigna entradas a salidas). Cada modelo tiene parámetros aprendidos de los datos e hiperparámetros elegidos por humanos.
Los modelos comunes de ML incluyen los siguientes:
Los modelos de aprendizaje automático aprenden patrones de forma más eficaz gracias a la ingeniería de características, un proceso de transformación de datos sin procesar en señales útiles para un modelo. Una característica es una variable de entrada (numérica, categórica, fecha/hora, texto) utilizada por un modelo. Las buenas características pueden mejorar la precisión, la interpretabilidad y reducir el tiempo de entrenamiento.
El aprendizaje profundo es un enfoque de aprendizaje automático que utiliza redes neuronales artificiales de múltiples capas para aprender automáticamente patrones complejos a partir de grandes cantidades de datos. Se llaman redes neuronales porque imitan la estructura neuronal del cerebro humano. Es uno de los enfoques más potentes para crear sistemas de IA.
Con el aprendizaje profundo, los humanos no diseñan las características de las que aprender, los modelos aprenden representaciones directamente a partir de datos sin procesar usando muchas capas de redes neuronales. Las capas crean una jerarquía de características e incluyen una capa de entrada, varias capas ocultas y una capa de salida. Cada capa aplica pesos, agrega un sesgo y pasa por una activación no lineal.
Tanto el ML como el DL forman parte del ecosistema de la IA y están estrechamente relacionados, ya que el aprendizaje profundo es un subconjunto del aprendizaje automático. Comparten muchos principios fundamentales, flujos de trabajo y objetivos. Ambos aprenden patrones a partir de los datos y buscan hacer predicciones o tomar decisiones basadas en esos datos.
Cuando aprenden a partir de los datos, ambos pueden mejorar su rendimiento al ver más datos en un proceso de aprendizaje iterativo. Y ambos pueden generalizar a partir de esos datos para obtener datos nuevos, nunca vistos. Tanto el ML como el DL requieren entrenamiento sobre datos históricos, validación para ajustar parámetros y pruebas en datos invisibles.
Y ambos pueden aplicarse a problemas de clasificación, regresión y agrupamiento.
Mientras que el aprendizaje automático y el aprendizaje profundo tienen muchas similitudes, tienen diferentes requisitos de datos y esfuerzos de ingeniería de características. El ML a menudo funciona bien con conjuntos de datos estructurados pequeños a medianos, pero el rendimiento depende de la calidad de las características, lo que requiere ingeniería de características liderada por humanos para identificar variables relevantes.
El DL depende de grandes cantidades de datos no estructurados (imágenes, texto, audio) y la escala de los ejemplos impacta directamente en el rendimiento, ya que el DL realiza la extracción automática de características con una intervención humana mínima.
El conocimiento del dominio y la calidad de las características son esenciales con el ML, mientras que los modelos aprenden características internamente con el DL, por lo que la escala de datos y la infraestructura se vuelven más importantes.
Es útil comparar los requerimientos de cómputo y el tiempo de entrenamiento necesarios tanto para ML como para DL, ya que estos son los factores que más afectan el costo, la velocidad de iteración y la viabilidad del producto de sus sistemas. Los modelos de ML tradicionales pueden ejecutarse en CPU estándar con menor capacidad de memoria, mientras que el DL requiere GPU o TPU de alta memoria para un entrenamiento eficiente; por lo tanto, los costos de infraestructura serán mayores con el DL.
Los modelos de ML se entrenan rápidamente para una iteración y experimentación rápidas, mientras que los modelos de DL requieren tiempos de entrenamiento más largos debido a arquitecturas complejas de múltiples capas. Entonces, el costo de entrenamiento, la infraestructura, la energía y la complejidad son mayores con el DL, pero es posible que el ML no funcione para problemas a gran escala.
Otros factores para tener en cuenta al comparar el aprendizaje automático y el aprendizaje profundo son la interpretabilidad (la facilidad con la que un humano puede entender por qué un modelo ha realizado una predicción) y la transparencia (la visibilidad y explicabilidad de la lógica interna y el proceso de decisión del modelo).
Los modelos de ML están diseñados para ser transparentes y, a menudo, más interpretables, al mostrar la importancia de las características y permitir el razonamiento paso a paso. Por ejemplo: las reglas tipo si-entonces de los árboles de decisión son legibles por humanos, los coeficientes de la regresión lineal muestran el impacto directo de las características y las razones de probabilidad de la regresión explican la influencia de las variables.
Los modelos de DL actúan más como “cajas negras” desde el punto de vista de la transparencia. No se basan en reglas explícitas ni en características diseñadas por el ser humano. Contienen millones de parámetros y aprenden representaciones jerárquicas y distribuidas, lo que dificulta la comprensión de qué características causan una predicción.
La interpretabilidad es importante para la auditoría y se vuelve fundamental en sectores regulados como la atención médica, las finanzas y el derecho, donde las decisiones de alto riesgo se toman de forma habitual y la confianza es esencial.
La guía general es usar ML cuando un problema bien definido involucra patrones en datos que son difíciles de definir con reglas fijas, pero donde el aprendizaje profundo sería innecesario o ineficiente. El ML es adecuado cuando los datos están estructurados y el conjunto de datos es pequeño-mediano, como ocurre con los datos del negocio (previsión de ventas, métricas financieras, registros de clientes).
El ML es efectivo cuando el presupuesto de cómputo es limitado y la iteración rápida es importante (detección de fraude, puntaje crediticio), y para aplicaciones donde se requiere interpretabilidad y explicabilidad (finanzas, atención médica, seguros, legal).
El DL puede sobresalir en problemas que involucran patrones complejos en grandes cantidades de datos diversos y no estructurados, cuando se dispone de GPU/TPU y se tiene el tiempo para respaldarlo. El DL es más adecuado para entradas que son difíciles de modelar con ML tradicional (imágenes, video, audio). El DL es necesario cuando el diseño manual de características es difícil o imposible, pero los datos sin procesar contienen señales útiles. El DL también es adecuado cuando la precisión es más importante que la interpretabilidad y el costo, y el sistema puede tolerar ciclos de entrenamiento más largos.
El DL es especialmente efectivo cuando el aprendizaje por transferencia está disponible a partir de modelos preentrenados (reconocimiento de imágenes y objetos) y el problema involucra percepción o lenguaje (visión artificial, reconocimiento de voz, procesamiento del lenguaje natural, vehículos autónomos y robótica).
¿ChatGPT es IA o ML? ¡La respuesta es sí!
Recuerda que el ML y DL son ambos tipos de IA, y el DL es un subconjunto del ML. En realidad, ChatGPT es un modelo de aprendizaje profundo construido con una red neuronal transformadora muy grande. El modelo GPT (Generative Pre-trained Transformer) está compuesto por capas con millones o incluso miles de millones de parámetros y entrenado con enormes cantidades de datos.
Los sistemas populares de creación de imágenes como DALL-E y Midjourney son modelos de difusión creados con redes neuronales profundas, por lo que ambos encajan en la categoría de DL. Ambos requieren entrenamiento a gran escala para generar imágenes a partir de indicaciones de texto, así como un cálculo intensivo y aprendizaje de representaciones.
Cuando Netflix o Spotify hacen recomendaciones, emplean una combinación de modelos de ML tradicionales y modelos de DL que trabajan juntos. Estos sistemas analizan el comportamiento de los usuarios, los atributos del contenido y las similitudes entre ambos para decidir qué contenido mostrar, en qué orden y a qué usuarios. El ML se emplea para clasificación, personalización y pruebas A/B. El DL se usa para modelar el gusto del usuario, comprender el contenido y aprender las relaciones entre usuarios y elementos a gran escala.
Estos productos se ven así en la jerarquía del sistema de IA:
Inteligencia artificial (IA)
└── Aprendizaje automático (ML)
└── Modelos de filtrado colaborativo (Netflix/Spotify)
└── Aprendizaje profundo (DL)
└── Modelos de difusión (DALL· E, Midjourney)
── Modelos de arquitectura Transformer (ChatGPT/GPT, Netflix/Spotify)
Tamaño del conjunto de datos:
pequeño/estructurado = ML
grande/no estructurado = DL
Necesidad de interpretabilidad
Alto = ML
Bajo = DL es aceptable
Recursos de cómputo disponibles
Limitado = ML
Robusto = DL es posible
Tipo de problema
Datos tabulares = ML
Imágenes/texto/audio = DL
Esta es una hoja de ruta práctica para aprender, empezando con algunos fundamentos compartidos, ya que el DL se basa en los fundamentos del ML. También ten en cuenta que tu camino específico depende del problema concreto que debas resolver y de los recursos disponibles para tu sistema.
Fundamentos compartidos:
Ruta de aprendizaje automático:
Ruta del aprendizaje profundo:
Recuerda que el DL se basa en los fundamentos de ML, así que comienza con los conceptos básicos de ML independientemente de tu objetivo final.
El aprendizaje automático y el aprendizaje profundo son dos enfoques para lograr IA, dependiendo de tus necesidades de datos, demandas de cómputo, de interpretabilidad y casos de uso.
Los casos de uso de ML se caracterizan por el manejo de conjuntos de datos estructurados, tabulares y de menor tamaño. A menudo tienen altas necesidades de interpretabilidad/explicabilidad y tienen menores requisitos de cómputo y compromisos de tiempo.
Los casos de uso de DL involucran patrones complejos, y las grandes cantidades de datos diversos y no estructurados y la precisión son más importantes que la interpretabilidad. Se necesita una infraestructura de cómputo mucho mayor y una inversión de tiempo para capacitar modelos de DL.
La mejor opción depende de tu problema específico y de los recursos disponibles. Ten en cuenta que ambas tecnologías continúan evolucionando, con arquitecturas de modelos más robustas que consumen menos memoria, entrenamientos más eficientes y mejores procesos de evaluación y pruebas. Hay una convergencia creciente en IA, donde el ML, el DL y las reglas se combinan en sistemas híbridos. Las nuevas aplicaciones y las demandas regulatorias y de gobernanza también influirán en la forma en que se construyen e implementan los modelos.
El ML no reemplaza al DL. Ambos siguen evolucionando en paralelo.
