Przedsiębiorstwa ograniczają agentów AI, aby zrównoważyć ryzyko i korzyści
W miarę dojrzewania agentów AI przedsiębiorstwa ostrożnie eksperymentują, aby wykorzystać ich zalety, jednocześnie ograniczając ryzyko operacyjne i związane z danymi. Organizacje kładą nacisk na nadzór, kontrolę oraz ukierunkowane wdrożenia, aby uniknąć kosztownych błędów.

NOWY JORK — W miarę jak przedsiębiorstwa przyspieszają wdrażanie agentów AI, wiele z nich odkrywa, że szybkość musi być równoważona kontrolą. Wczesne eksperymenty pokazały zarówno potencjał agentowej sztucznej inteligencji, jak i towarzyszące jej ryzyka operacyjne oraz związane z nadzorem.
Kevin Hearn, starszy wiceprezes i szef działu rozwoju bankowości detalicznej w Axos Bank, przekonał się o tym osobiście. Jako wczesny użytkownik AI początkowo dał 300 pracownikom dostęp do agenta AI bez określonego celu. Efektem było 300 różnych rezultatów.
Niektórzy pracownicy używali agenta do pisania kodu, inni do jego poprawiania, a część miała trudności z formułowaniem poleceń, co prowadziło do niespójnej jakości kodu. Hearn ostatecznie ograniczył grupę testerów AI z 300 do około pięciu–siedmiu osób zajmujących się eksperymentowaniem, testowaniem i udoskonalaniem agenta.
„Gdy ludzie przychodzą do mnie z pomysłami, mogę dać im autonomię, by je realizowali, albo poprosić ten zespół, by skupił się na nich w sposób celowy” — powiedział Hearn. „Siła tego zespołu polega na tym, że gdy dopracują agenta w danym obszarze — to znaczy współpracują ze wszystkimi jego użytkownikami, aby nadać mu korporacyjny charakter — jesteśmy w stanie konsekwentnie go wdrażać.”
To bardziej scentralizowane podejście odzwierciedla sposób, w jaki przedsiębiorstwa starają się wykorzystać potencjał agentów AI, jednocześnie ograniczając ryzyko. Liderzy odczuwają presję szybkiego wprowadzania innowacji, ale są również ostrożni wobec niezamierzonych konsekwencji.
„Agenci to nie jest tradycyjne oprogramowanie” — powiedział Matt DeBergalis, dyrektor generalny i współzałożyciel Apollo GraphQL. „Z jednej strony wszyscy walą pięścią w stół, mówiąc: ‘Działajcie szybko, odważnie, jak startup’. Z drugiej strony to największe zagrożenie wyciekiem danych dla każdego przedsiębiorstwa.”
Zdaniem DeBergalisa przedsiębiorstwa potrzebują solidnych fundamentów, które pozwolą im eksperymentować w sposób kontrolowany, zamiast szeroko wdrażać agentów bez zabezpieczeń.
Najpierw zastosowania wewnętrzne
Dla Axos możliwości, jakie dawała AI, były zbyt znaczące, by je zignorować. Bank zdecydował się ograniczyć ryzyko, koncentrując się najpierw na zastosowaniach wewnętrznych. Korzysta z OutSystems Agent Workbench do tworzenia, wdrażania i zarządzania agentami AI, w tym wewnętrznymi agentami analityków biznesowych, agentami Scrum Master oraz agentami inżynieryjnymi.
Hearn podkreślił, że mały, scentralizowany zespół pomaga zapewnić odpowiedni nadzór i ład organizacyjny.
„Wszystko przechodzi przez taki scentralizowany zespół, który dba o to, by istniał odpowiedni nadzór” — powiedział. „Nadzór oznacza, że używamy tego właściwie. Nie przekazujemy informacji, których nie powinniśmy. Nie ma to dostępu do świata zewnętrznego.”
Podobne podejście przyjęła firma fintech Netevia. Wykorzystuje AI, w tym agentową AI, w procesach wewnętrznych, takich jak obsługa klienta, ale unika integrowania jej z aplikacjami skierowanymi bezpośrednio do użytkowników.
„Częścią tej drogi jest zrozumienie, jak wdrażać to stopniowo” — powiedział Vlad Sadovskiy, dyrektor generalny Netevia. „Nie można eksperymentować z pieniędzmi ludzi, nawet jeśli technologia jest już dostępna dla innych realizujących płatności agentowe, płatności AI‑do‑AI. Nadal dzieli nas około rok od momentu, gdy ludzie realnie zaczną myśleć o adopcji.”
Równoważenie innowacji zewnętrznych z kontrolą
Inne przedsiębiorstwa wdrażają agentów AI w aplikacjach skierowanych do klientów, przy jednoczesnym utrzymaniu ścisłego nadzoru.
W T-Mobile AI wspiera obsługę klienta poprzez aplikację T-Life opartą na sztucznej inteligencji. Julianne Roberson, dyrektor ds. inżynierii AI w T-Mobile, powiedziała, że zarządzanie ryzykiem jest kluczowym elementem strategii firmy.
„Mamy pełną obserwowalność wszystkiego, więc jeśli coś pójdzie nie tak, widzimy to” — powiedziała Roberson. „Staramy się nie wprowadzać rozwiązań, jeśli nie mamy pewności, że będą działać.”
Upwork również mocno zainwestował w mechanizmy zabezpieczające. Firma uruchamia wewnętrznie własne modele językowe i przepuszcza je przez system zaufania zaprojektowany tak, aby zapobiegać halucynacjom i utrzymywać odpowiedzi na właściwym torze.
„Zbudowaliśmy wiele wewnętrznych technologii, które zapewniają mechanizmy bezpieczeństwa dla tego wszystkiego” — powiedział Andrew Rabinovich, CTO i szef działu AI w Upwork. „Każdy model językowy uruchamiany wewnętrznie — a wszystkie są tworzone na zamówienie — przechodzi przez ten system zaufania, aby uniknąć halucynacji i zapobiec zboczeniu z właściwego toru.”
Upwork skupił się również na edukowaniu pracowników w zakresie działania agentów AI, umożliwiając zespołom lepsze zrozumienie odpowiednich zastosowań i ograniczeń.
Szersza strategia ograniczania ryzyka — zapewnienie ram nadzorczych, obserwowalności i technicznych zabezpieczeń przed szerszym wdrożeniem — staje się wspólnym mianownikiem wśród przedsiębiorstw.
„Ludzie widzą wydajność, mylą ją z pewnością, potem dopada ich FOMO i robi się bałagan. Gdy tylko wpadniesz w tryb FOMO, zaczyna się duży chaos” — powiedział Robert Blumofe, wiceprezes wykonawczy i dyrektor ds. technologii w Akamai. „Wykorzystuj AI do tego, w czym jest naprawdę dobra, zamiast próbować wciskać ją wszędzie.”
W miarę jak agenci AI nadal dojrzewają, przedsiębiorstwa uczą się, że sukces zależy nie tylko od wdrożenia, lecz także od zdyscyplinowanych eksperymentów, odpowiedniego nadzoru i świadomości, gdzie technologia przynosi największą wartość.