Las empresas contienen a los agentes de IA para equilibrar riesgo y recompensa

Cybersecurity05.May.2026 22:525 min read

A medida que los agentes de IA maduran, las empresas experimentan con cautela para aprovechar sus beneficios mientras limitan los riesgos operativos y de datos. Las organizaciones están poniendo énfasis en la gobernanza, la contención y el despliegue dirigido para evitar errores costosos.

Las empresas contienen a los agentes de IA para equilibrar riesgo y recompensa

NUEVA YORK — A medida que las empresas aceleran la adopción de agentes de IA, muchas están descubriendo que la velocidad debe equilibrarse con el control. Las primeras experimentaciones han demostrado tanto la promesa de la IA agentiva como los riesgos operativos y de gobernanza que la acompañan.

Kevin Hearn, vicepresidente sénior y responsable de desarrollo del banco de consumo en Axos Bank, lo aprendió de primera mano. Como uno de los primeros en adoptar la IA, inicialmente dio acceso a un agente de IA a 300 empleados sin un objetivo específico. El resultado fueron 300 resultados diferentes.

Algunos empleados usaron el agente para escribir código, otros para corregirlo, y algunos tuvieron dificultades para formular instrucciones eficaces, lo que generó una calidad de código inconsistente. Hearn finalmente redujo el grupo de evaluadores de IA de 300 a unas cinco a siete personas dedicadas a experimentar, probar y perfeccionar el agente.

“Cuando las personas vienen a mí con ideas, puedo darles la autonomía para que las persigan, o haré que ese equipo se enfoque específicamente en ello”, dijo Hearn. “La fuerza de ese equipo es que, una vez que han consolidado un agente en un área particular, es decir, han trabajado con todos los usuarios de ese agente para darle un impacto corporativo, ahora podemos perpetuarlo de manera consistente”.

Este enfoque más centralizado refleja cómo las empresas están tratando de aprovechar el poder de los agentes de IA mientras contienen sus riesgos. Los líderes enfrentan presión para innovar rápidamente, pero también desconfían de las consecuencias no deseadas.

“Los agentes no son software tradicional”, dijo Matt DeBergalis, CEO y cofundador de Apollo GraphQL. “Por un lado, todos golpean la mesa diciendo: ‘Vayan rápido, lleguen lejos, actúen como una startup’. Pero por otro lado, esta es la mayor amenaza de exfiltración de datos para cualquier empresa”.

Según DeBergalis, las empresas necesitan bases sólidas que les permitan experimentar de manera medida en lugar de desplegar agentes ampliamente sin salvaguardas.

Casos de uso internos primero

Para Axos, la oportunidad que presentaba la IA era demasiado significativa como para ignorarla. El banco optó por mitigar el riesgo enfocándose primero en casos de uso internos. Utiliza OutSystems Agent Workbench para crear, desplegar y gestionar agentes de IA, incluidos agentes internos de analistas de negocio, agentes Scrum Master y agentes de ingeniería.

Hearn enfatizó que un equipo pequeño y centralizado ayuda a garantizar la gobernanza y la supervisión adecuada.

“Todo pasa por ese tipo de equipo centralizado que garantiza que exista la gobernanza”, afirmó. “Gobernanza significa que la estamos utilizando de manera adecuada. No estamos introduciendo información que no deberíamos. No tiene acceso al mundo exterior”.

La empresa fintech Netevia ha adoptado un enfoque similar. Utiliza IA, incluida la IA agentiva, para procesos internos como el servicio al cliente, pero evita integrarla en aplicaciones orientadas al público.

“Parte del proceso es poder entender cómo avanzar lentamente”, dijo Vlad Sadovskiy, CEO de Netevia. “No se puede [arruinar] el dinero de las personas aunque la tecnología ya esté disponible para otros que realizan pagos agentivos, pagos de IA a IA. Todavía estamos aproximadamente a un año de que las personas realmente piensen en adoptarla”.

Equilibrar la innovación externa con controles

Otras empresas están implementando agentes de IA en aplicaciones orientadas al cliente, mientras mantienen una supervisión estricta.

En T-Mobile, la IA respalda el servicio al cliente a través de su aplicación impulsada por IA, T-Life. Julianne Roberson, directora de ingeniería de IA en T-Mobile, afirmó que la gestión de riesgos es central en su estrategia.

“Tenemos observabilidad en todo, así que si algo sale mal, lo vemos”, dijo Roberson. “Intentamos no lanzar cosas si no sabemos si van a funcionar”.

Upwork también ha invertido considerablemente en la contención. La empresa ejecuta modelos de lenguaje desarrollados a medida internamente y los hace pasar por un sistema de confianza diseñado para evitar alucinaciones y mantener los resultados en el rumbo correcto.

“Construimos mucha tecnología interna que proporciona el arnés de seguridad para todo esto”, dijo Andrew Rabinovich, CTO y responsable de IA en Upwork. “Cada modelo de lenguaje que se ejecuta internamente —y todos son desarrollados a medida— pasa por este sistema de confianza para evitar alucinaciones y prevenir que se desvíe del camino”.

Upwork también se centró en educar a los empleados sobre cómo funcionan los agentes de IA, permitiendo a los equipos comprender mejor los casos de uso apropiados y las limitaciones.

La estrategia más amplia de contención —garantizar que los marcos de gobernanza, la observabilidad y las barreras técnicas estén establecidos antes de un despliegue más amplio— está surgiendo como un tema común entre las empresas.

“Las personas ven rendimiento, lo confunden con confianza, luego sienten FOMO y se convierte en un desastre. En cuanto entras en modo FOMO, es un gran desastre”, dijo Robert Blumofe, vicepresidente ejecutivo y director de tecnología en Akamai. “Usa la IA para aquello en lo que la IA es excelente y no intentes forzarla en todo”.

A medida que los agentes de IA continúan madurando, las empresas están aprendiendo que el éxito no depende solo de la adopción, sino de la experimentación disciplinada, la gobernanza y de saber dónde la tecnología aporta más valor.