El año pasado, presentamos la inteligencia de datos – IA que puede razonar sobre sus datos empresariales – con la llegada de la pila Databricks Mosaic AI para construir y desplegar sistemas de agentes. Desde entonces, miles de clientes han implementado IA en producción. Este año, en el Data and AI Summit, nos complace anunciar varios productos clave:
Agent Bricks es una nueva forma de construir agentes de alta calidad que se autooptimizan con sus datos. Simplemente proporcione una descripción general de la tarea del agente y conecte sus datos empresariales; Agent Bricks se encarga del resto. Agent Bricks está optimizado para casos de uso comunes en la industria, incluida la extracción de información estructurada, asistencia de conocimiento confiable, transformación de texto personalizada y la construcción de sistemas multiagente. Utilizamos lo último en investigación de agentes del equipo de investigación de Databricks Mosaic AI para construir automáticamente evaluaciones y optimizar la calidad de los agentes. Para más detalles, consulte la entrada de blog detallada sobre Agent Bricks aquí.
Lanzamos MLflow 3, que ha sido rediseñado desde cero para IA Generativa, con lo último en monitorización, evaluación y gestión del ciclo de vida. Ahora con MLflow 3, puede monitorizar y observar agentes que se implementan en cualquier lugar, incluso fuera de Databricks. Los agentes implementados en AWS, GCP o incluso en sistemas locales ahora se pueden conectar a MLflow 3 para la observabilidad de agentes.
También hemos incluido en MLflow 3 un registro de prompts, que le permite registrar, versionar, probar y desplegar diferentes prompts de LLM para sus sistemas de agentes.
Las Funciones de IA permiten a los usuarios acceder fácilmente al poder de la IA generativa directamente desde SQL. Este año, nos complace compartir que las Funciones de IA ahora tienen mejoras drásticas de rendimiento y capacidades multimodales ampliadas. Las Funciones de IA son ahora hasta 3 veces más rápidas y 4 veces más económicas que otros proveedores en cargas de trabajo a gran escala, lo que le permite procesar transformaciones de datos a gran escala con una velocidad sin precedentes.
Más allá del rendimiento, las Funciones de IA ahora admiten capacidades multimodales, lo que le permite trabajar sin problemas con texto, imágenes y otros tipos de datos. Las nuevas funciones como ai_parse_document facilitan la extracción de información estructurada de documentos complejos, desbloqueando información de contenido empresarial previamente difícil de procesar.
Mosaic AI Vector Search forma la columna vertebral de muchos sistemas de recuperación, y especialmente de los agentes RAG, y nuestro producto Vector Search es uno de los productos de más rápido crecimiento en Databricks. Hemos reescrito completamente la infraestructura desde cero con los principios de separación de cómputo y almacenamiento. Nuestra nueva Búsqueda Vectorial Optimizada para Almacenamiento puede escalar miles de millones de vectores ofreciendo un costo 7 veces menor. Este avance hace que sea económicamente factible construir aplicaciones RAG sofisticadas y sistemas de búsqueda semántica en toda su base de datos. Ya sea que esté potenciando chatbots de atención al cliente o habilitando el descubrimiento avanzado de documentos, ahora puede escalar sin los costos prohibitivos. Consulte nuestra publicación de blog detallada para obtener información técnica profunda y puntos de referencia de rendimiento.
Anunciamos un gran avance en cómputo sin servidor con la introducción del soporte de GPU en la plataforma sin servidor de Databricks. Las cargas de trabajo de IA impulsadas por GPU son ahora más accesibles que nunca, y este servicio totalmente administrado elimina la complejidad de la gestión de GPU. Ya sea que esté entrenando modelos, ejecutando inferencias o procesando transformaciones de datos a gran escala, AI Runtime proporciona el rendimiento que necesita sin la sobrecarga operativa. Totalmente integrado en la plataforma Databricks, AI Runtime permite el acceso bajo demanda a A10g (Beta hoy) y H100s (próximamente), sin estar atado a reservas a largo plazo. Ejecute notebooks en GPUs sin servidor y envíelos como trabajos, con la gobernanza completa de Unity Catalog.
Las aplicaciones empresariales de IA actuales exigen un mayor rendimiento y latencias más bajas para estar listas para producción. Nuestra infraestructura mejorada de Servicio de Modelos ahora admite más de 250.000 consultas por segundo (QPS). Traiga sus cargas de trabajo de ML en línea en tiempo real a Databricks, y nosotros nos encargaremos de la infraestructura y los desafíos de confiabilidad para que usted pueda concentrarse en el desarrollo del modelo de IA.
Con el servicio de LLM, hemos lanzado un nuevo motor de inferencia propietario interno en todas las regiones. El motor de inferencia contiene muchas de nuestras innovaciones privadas y kernels personalizados para acelerar la inferencia de Meta Llama y otros LLM de código abierto. En cargas de trabajo comunes, nuestro motor de inferencia es hasta 1.5 veces más rápido que motores de código abierto correctamente configurados como vLLM-v1. Junto con el resto de nuestra infraestructura de servicio de LLM, estas innovaciones significan que servir LLMs en Databricks es más fácil, más rápido y, a menudo, de menor costo total, que las soluciones de servicio DIY.
Desde chatbots hasta motores de recomendación, sus servicios de IA ahora pueden escalar para manejar incluso las cargas de trabajo empresariales más exigentes.
El Protocolo de Contexto de Modelo (MCP) de Anthropic es un protocolo popular para proporcionar herramientas y conocimiento a modelos de lenguaje grandes. Ahora hemos integrado MCP directamente en la plataforma Databricks. Los servidores MCP se pueden alojar con Databricks Apps, lo que proporciona una forma fluida de implementar y gestionar servicios compatibles con MCP sin gestión adicional de infraestructura. Puede interactuar y probar modelos habilitados para MCP directamente en nuestro entorno Playground, lo que facilita la experimentación con diferentes configuraciones y capacidades de modelos.
Además, ahora puede conectar sus agentes para aprovechar Databricks con el lanzamiento de servidores MCP alojados en Databricks para funciones de UC, Genie y Vector Search. Para obtener más información, consulte nuestra documentación.
Agent Bricks AI Gateway ya está disponible generalmente. Este punto de entrada unificado para todos sus servicios de IA proporciona gobernanza centralizada, registro de uso y control en toda su cartera de aplicaciones de IA. También hemos agregado una serie de nuevas capacidades, desde la posibilidad de retroceder automáticamente entre diferentes proveedores, hasta la protección de PII y seguridad. Con AI Gateway, puede implementar políticas de límite de velocidad, rastrear el uso y aplicar medidas de seguridad, en cargas de trabajo de IA, ya sea que se ejecuten en Databricks o a través de servicios externos.
Estos anuncios representan nuestro compromiso continuo de hacer que la IA empresarial sea más accesible, eficiente y rentable. Cada innovación se basa en nuestra plataforma de inteligencia de datos, asegurando que sus aplicaciones de IA puedan aprovechar todo el poder de sus datos empresariales mientras mantienen los estándares de gobernanza y seguridad que requiere su organización.
¿Listo para explorar estas nuevas capacidades? Comience con nuestro nivel gratuito o póngase en contacto con su representante de Databricks para obtener más información sobre cómo estas innovaciones pueden acelerar sus iniciativas de IA.
(Esta entrada del blog ha sido traducida utilizando herramientas basadas en inteligencia artificial) Publicación original
