Agentic harness. Warstwa orkiestrująca jako fundament działania agentów AI

fot. Sztuczna inteligencja

W słowniku pojęć związanych ze sztuczną inteligencją pojawił się nowy termin: agentic harness – oznaczający warstwę orkiestrującą dla agentycznej AI. To swoiste rusztowanie otaczające model, które zapewnia agentowi dostęp do narzędzi, danych i innych elementów stanowiących o jego użyteczności.

Ethan Mollick, profesor biznesu w Wharton, którego praktyczne badania nad wdrażaniem AI uczyniły go jednym z największych autorytetów w tej dziedzinie, opisuje harness jako element umożliwiający agentowi AI „samodzielne podejmowanie działań i realizowanie wieloetapowych zadań”. Jeśli przyjąć, że bazowy model AI jest silnikiem, to harness stanowi całą resztę: podwozie, koła, wał napędowy i hamulce. Coraz częściej to właśnie harness – a nie sam model – decyduje o tym, co faktycznie zostaje wykonane.

Ta zmiana jest już widoczna w nowej klasie produktów. Wczesne przykłady praktycznego wykorzystania harnessów obejmują Claude Code od Anthropic, który potrafi generować, uruchamiać i udoskonalać kod. Innym przykładem jest OpenClaw – stale aktywny agent działający między aplikacjami, wyposażony w pamięć i ciągłość działania. Produkty tego typu definiują nową rzeczywistość konkurencyjną, w której nie chodzi już wyłącznie o stworzenie najpotężniejszego modelu, lecz o zbudowanie najskuteczniejszej warstwy orkiestrującej wokół niego.

Nie wszystkie harnessy są jednak sobie równe, a różnice między nimi potrafią być większe, niż sugeruje obecna dyskusja. Ponadto, mimo całego swojego potencjału, wspomniane wyżej produkty zostały stworzone z myślą o indywidualnych użytkownikach. Działanie w imieniu całej organizacji to znacznie bardziej złożone wyzwanie.

Agent przedsiębiorstwa musi rozumieć coś więcej niż potrzeby pojedynczego pracownika; potrzebuje kontekstu funkcjonowania firmy: współdzielonych danych, historii wykonanej pracy, polityki, priorytetów i kompromisów określających, czy agent ma prawo podjąć dane działanie. Wdrożenie agentów w organizacji bez takiego fundamentu szybko prowadzi do problemów. Poszczególni agenci optymalizują działania jedynie w obrębie własnych domen, podczas gdy nikt nie koordynuje całości na poziomie organizacji. W efekcie pojawia się chaos, co prowadzi do spadku wydajności automatyzacji.

Wyzwania wdrażania agentów AI w organizacjach

Organizacje nie działają jak jeden umysł. Funkcjonują w oparciu o konkurujące priorytety, rozproszone dane oraz decyzje wymagające ludzkiej odpowiedzialności, pamięci instytucjonalnej i wypracowania konsensusu.

Większość harnessów, które obserwujemy dziś na rynku, została stworzona z myślą o środowiskach, w których praca jest zamknięta w określonych ramach, a „linia mety” zadania jest jasno wyznaczona; programowanie jest tu oczywistym przykładem. Inne obejmują rezerwację podróży, składanie i przetwarzanie raportów wydatków czy obsługę zapytań klientów w różnych językach i systemach. W takich przypadkach agent może przeprowadzić zadanie od początku do końca, a wynik da się zweryfikować.

Jednak większość pracy wykonywanej w przedsiębiorstwie jest znacznie mniej uporządkowana. Wystarczy spojrzeć na proces podejmowania złożonych decyzji zakupowych, negocjowanie dużych kontraktów czy prowadzenie procesów płacowych. Każde z tych działań angażuje wiele działów, opiera się na współdzielonych danych i historii organizacji oraz wymaga pogodzenia sprzecznych celów, które są nieuniknione przy decyzjach o dużej wadze biznesowej. Bez jasno zdefiniowanych priorytetów i zakodowanych linii odpowiedzialności agent może przełączać się między działami, inicjować kolejne delegacje zadań i dotykać kilkunastu systemów, a mimo to generować więcej pracy, niż realnie wykonuje. Agent pozbawiony odpowiednio zaawansowanej warstwy orkiestrującej może optymalizować działania lokalnie, jednocześnie tworząc organizacyjny chaos.

fot. Salesforce

W Salesforce zadano sobie pytanie, co odróżnia harnessy, które faktycznie dostarczają wartość, od tych, które zawodzą. Odpowiedź zaczyna się od niezawodności pętli agentycznej (agentic-loop reliability). Czy system agentyczny jest w stanie niezawodnie doprowadzić zadanie od początku do końca bez nadzoru człowieka nad każdym etapem?

Taka pętla, realizowana przy działaniach dla pojedynczego użytkownika, może już stanowić dla agenta pewne wyzwanie. Gdy jednak dołożymy realia organizacyjne – sprzeczne interesy, rozproszoną odpowiedzialność i dane rozsiane po dziesiątkach systemów – domknięcie tej samej pętli staje się wielokrotnie trudniejsze.

W przypadku bardziej złożonych zadań pętla może załamać się na jednym z pięciu etapów:

  • Specyfikacja: czy agent poprawnie zrozumiał cel?
  • Planowanie: czy agent potrafi zaplanować działania prowadzące do realizacji celu?
  • Wykonanie: czy jest w stanie faktycznie podjąć wymagane działania?
  • Weryfikacja: czy agent potrafi ocenić, czy zadanie zostało wykonane poprawnie?
  • Zakończenie: czy wie, kiedy należy zakończyć działanie?

Niezawodność tej pętli zależy od szeregu czynników, w tym jakości danych dostępnych dla harnessu, przyznanych uprawnień, dostępnych narzędzi oraz przejrzystości polityk regulujących działania agenta. Luka w którymkolwiek z tych obszarów może wykoleić cały proces.

Jednak nawet perfekcyjnie zamknięta pętla może okazać się niewystarczająca. Niektóre zadania kończą się wraz z wygenerowaniem rezultatu. Jednak inne – takie jak zamknięcie sprzedaży, rozwiązanie sporu czy uzyskanie akceptacji – wymagają czegoś, co można nazwać „społecznym domknięciem”. Tego typu działania wymagają obecności człowieka w procesie. Potrzebni są ludzie, którzy zdecydują, kiedy zadanie rzeczywiście zostało zrealizowane – poprzez perswazję, zaufanie i ludzki osąd. Żaden agent nie jest w stanie tego zastąpić.

AI dla użytkownika indywidualnego a potrzeby organizacji

To właśnie sprawczość stanowi główne źródło złożoności w funkcjonowaniu agentycznej AI. Czy harness działa przede wszystkim w imieniu jednej osoby, czy też musi zaangażować grupę ludzi, aby doprowadzić zadanie do końca?

Harness taki jak Claude Code czy OpenClaw działa na rzecz pojedynczego użytkownika i jego indywidualnych celów. Istnieje jeden łańcuch odpowiedzialności – dlatego narzędzia te wydają się płynne i szybkie. Praca ma jasno określone granice, a sukces można łatwo zmierzyć. W przypadku organizacji rezultat niemal nigdy nie jest jednak tak oczywisty.

Aby działać spójnie w imieniu organizacji, harness potrzebuje dwóch znacznie trudniejszych do zaprojektowania elementów. Pierwszym jest współdzielony kontekst: dane, rejestry i historia pracy niezbędne do podejmowania sensownych działań w konkretnej organizacji.

Drugim jest zbiorowa intencja: jasny obraz priorytetów i hierarchii w organizacji, dzięki któremu agent wie nie tylko, co powinien zrobić, ale również, czy ma do tego odpowiednie uprawnienia. Bez współdzielonego kontekstu agent działa w oparciu o niepełne informacje. Bez zbiorowej intencji nie ma sposobu na rozstrzyganie konfliktów między równie uzasadnionymi celami.

Dlaczego organizacyjna AI pozostaje wyzwaniem?

Obecnie największe zainteresowanie budzą harnessy skoncentrowane na osobistym wsparciu użytkownika – jednej osoby wyrażającej intencję, korzystającej z narzędzi i realizującej zadania. Pętla zostaje domknięta, rezultat można zweryfikować, a status „wykonane” rzeczywiście często wiąże się z sukcesem. Harnessy te dają użytkownikom bardzo wyraźne poczucie sprawczości.

Znacznie trudniejszym i mniej spektakularnym zadaniem jest budowa harnessów dla złożonych, międzydziałowych procesów definiujących sposób funkcjonowania organizacji. Ten aspekt często pozostaje niewidoczny dla samych pracowników, którym ma służyć. Ponieważ praca organizacyjna wymaga wielu warstw ludzkiego osądu, tego typu harnessy są nie tylko trudniejsze do stworzenia, ale również wydają się znacznie mniej „magiczne”.

Istnieje ryzyko powstania samonapędzającej się dynamiki, w której przedsiębiorstwa sfrustrowane złożonością organizacyjnej AI ostatecznie ograniczą się do narzędzi, które dobrze sprawdzają się w rękach pojedynczych użytkowników. Nadzieja polega na tym, że takie rozwiązania wspólnie stworzą coś większego niż suma ich części. W pewnym stopniu może się tak stać. Jednak harness zaprojektowany dla jednej osoby to nie to samo co rozwiązanie stworzone do spójnego działania w imieniu tysięcy ludzi mających sprzeczne cele i ograniczenia. Ta różnica sięga znacznie głębiej niż funkcje czy cena. Dotyczy samej architektury.

Tworzone dziś bazowe modele AI potrafią rzeczy niezwykłe. Mimo to dla większości firm rezultaty nadal pozostają rozczarowujące. I nie jest to przede wszystkim problem modeli, lecz kwestia obudowujących je harnessów.

Materiał we współpracy z Salesforce.