A medida que las empresas pasan de la experimentación con IA a la implementación a escala, la gobernanza se ha convertido en una preocupación a nivel directivo. El desafío para los ejecutivos ya no es si la gobernanza importa, sino cómo diseñarla de manera que permita la velocidad, la innovación y la confianza al mismo tiempo.
Para explorar cómo se manifiesta ese equilibrio en la práctica, conversé con David Meyer, vicepresidente sénior de Producto en Databricks. Al trabajar en estrecha colaboración con clientes de todas las industrias y regiones, David tiene una visión clara de dónde las organizaciones están logrando un progreso real, dónde se estancan y cómo las decisiones de gobernanza de hoy moldean lo que será posible mañana.
Lo que se destacó en nuestra conversación fue su pragmatismo. En lugar de tratar la gobernanza de la IA como algo nuevo o abstracto, David volvía constantemente a los principios fundamentales: disciplina de ingeniería, visibilidad y responsabilidad.
Catherine Brown: Usted pasa mucho tiempo con clientes de diversas industrias. ¿Qué está cambiando en la forma en que los líderes piensan sobre la gobernanza mientras planifican para el próximo año o dos?
David Meyer: Uno de los patrones más claros que veo es que los desafíos de gobernanza son tanto organizacionales como técnicos, y ambos están estrechamente conectados. Por el lado organizacional, los líderes intentan descifrar cómo permitir que los equipos avancen rápidamente sin generar caos.
Las organizaciones que tienen dificultades suelen ser demasiado reacias al riesgo. Centralizan cada decisión, agregan procesos de aprobación engorrosos e involuntariamente ralentizan todo. Irónicamente, eso a menudo conduce a peores resultados, no a unos más seguros.
Lo interesante es que una gobernanza técnica sólida puede, de hecho, permitir una mayor flexibilidad organizacional. Cuando los líderes tienen visibilidad real sobre qué datos, modelos y agentes se están utilizando, no necesitan controlar cada decisión manualmente. Pueden darles a los equipos más libertad porque entienden lo que sucede en todo el sistema. En la práctica, eso significa que los equipos no necesitan pedir permiso para cada modelo o caso de uso: el acceso, la auditoría y las actualizaciones se gestionan de forma centralizada, y la gobernanza se produce por diseño en lugar de por excepción.
Catherine Brown: Muchas organizaciones parecen estancadas entre avanzar demasiado rápido y bloquearlo todo. ¿Dónde ves que las empresas lo están haciendo bien?
David Meyer: Generalmente, veo dos extremos.
Por un lado, están las empresas que deciden que son “AI first” y alientan a todos a construir libremente. Eso funciona por un tiempo. La gente se mueve rápido, hay mucho entusiasmo. Luego, en un abrir y cerrar de ojos, de repente tienes miles de agentes, sin un inventario real, sin idea de lo que cuestan y sin una imagen clara de lo que realmente se está ejecutando en producción.
En el otro extremo, hay organizaciones que intentan controlarlo todo desde el principio. Establecen un único cuello de botella para las aprobaciones, y el resultado es que casi nada significativo llega a implementarse. Esos equipos suelen sentir una presión constante de que se están quedando atrás.
Las empresas que lo están haciendo bien tienden a ubicarse en un punto intermedio. Dentro de cada función de negocio, identifican a personas alfabetizadas en IA que pueden guiar la experimentación a nivel local. Esas personas comparan notas en toda la organización, comparten lo que funciona y reducen el conjunto de herramientas recomendadas. Pasar de docenas de herramientas a solo dos o tres marca una diferencia mucho más grande de lo que la gente espera.
Catherine: Una cosa que dijiste antes realmente se destacó. Sugeriste que los agentes no son tan fundamentalmente diferentes como mucha gente supone.
David: Así es. Los agentes parecen algo nuevo, pero muchas de sus características son en realidad muy familiares.
Cuestan dinero de forma continua. Amplían la superficie de seguridad. Se conectan a otros sistemas. Esas son todas cosas con las que ya hemos lidiado antes.
Ya sabemos cómo gobernar los activos de datos y las API, y los mismos principios se aplican en este caso. Si no sabes dónde existe un agente, no puedes desactivarlo. Si un agente accede a datos sensibles, alguien debe ser responsable de ello. Muchas organizaciones asumen que los sistemas de agentes requieren un reglamento completamente nuevo. En realidad, si se adoptan prácticas probadas de ciclo de vida y gobernanza de la gestión de datos, ya se tiene la mayor parte del camino recorrido.
Catherine: Si un ejecutivo te preguntara por un lugar simple para empezar, ¿qué le dirías?
David: Yo empezaría con la observabilidad.
La IA significativa casi siempre depende de datos propietarios. Es necesario saber qué datos se utilizan, qué modelos están involucrados y cómo esas piezas se unen para formar agentes.
Muchas empresas utilizan múltiples proveedores de modelos en diferentes nubes. Cuando esos modelos se gestionan de forma aislada, se vuelve muy difícil entender el costo, la calidad o el rendimiento. Cuando los datos y los modelos se gobiernan en conjunto, los equipos pueden probar, comparar y mejorar de manera mucho más efectiva.
Esa observabilidad es aún más importante porque el ecosistema está cambiando muy rápido. Los líderes necesitan poder evaluar nuevos modelos y enfoques sin tener que reconstruir todo su stack cada vez que algo cambia.
Catherine: ¿En qué áreas las organizaciones progresan rápidamente y en cuáles tienden a estancarse?
David: Los agentes basados en conocimientos suelen ser los más rápidos de implementar. Los diriges a un conjunto de documentos y, de repente, la gente puede hacer preguntas y obtener respuestas. Eso es poderoso. El problema es que muchos de estos sistemas se degradan con el tiempo. El contenido cambia. Los índices se desactualizan. La calidad disminuye. La mayoría de los equipos no planifican para eso.
Sostener el valor significa pensar más allá del despliegue inicial. Se necesitan sistemas que actualicen continuamente los datos, evalúen los resultados y mejoren la precisión con el tiempo. Sin eso, muchas organizaciones ven unos excelentes primeros meses de actividad, seguidos de una disminución en el uso y el impacto.
Catherine: ¿Cómo equilibran los líderes la velocidad con la confianza y el control en la práctica?
David: Las organizaciones que hacen esto bien tratan la IA agentiva como un problema de ingeniería. Aplican la misma disciplina que usan para el software: pruebas continuas, monitoreo y despliegue. Es de esperar que haya fallas. El objetivo no es evitar todos los problemas, sino limitar el radio de impacto y solucionar los problemas rápidamente. Cuando los equipos pueden hacer eso, avanzan más rápido y con más confianza. Si nunca nada sale mal, probablemente estés siendo demasiado conservador.
Catherine: ¿Cómo están evolucionando las expectativas en torno a la confianza y la transparencia?
David: La confianza no proviene de asumir que los sistemas serán perfectos. Proviene de saber qué ocurrió después de que algo salió mal. Se necesita trazabilidad: qué datos se usaron, qué modelo se utilizó, quién interactuó con el sistema. Cuando se tiene ese nivel de auditabilidad, uno puede permitirse experimentar más.
Así es como siempre se han ejecutado los grandes sistemas distribuidos. Se optimiza para la recuperación, no para la ausencia de fallas. Esa mentalidad se vuelve aún más importante a medida que los sistemas de IA se vuelven más autónomos.
En lugar de tratar la IA agentiva como una ruptura total con el pasado, es una extensión de las disciplinas que las empresas ya saben cómo ejecutar. Para los ejecutivos que piensan en lo que realmente importa a continuación, surgen tres temas:
En conjunto, estas ideas apuntan a una conclusión clara: el valor duradero de la IA no proviene de perseguir las herramientas más nuevas ni de bloquearlo todo, sino de construir bases que permitan a las organizaciones aprender, adaptarse y escalar con confianza.
Para obtener más información sobre cómo construir un modelo operativo eficaz, descargue el Modelo de Madurez de IA de Databricks.
(Esta entrada del blog ha sido traducida utilizando herramientas basadas en inteligencia artificial) Publicación original
Líder de dados
January 9, 2026/5 min de leitura
Insights
January 9, 2026/6 min de leitura

