Wraz z dynamicznym rozwojem technologii sztucznej inteligencji (AI) coraz częściej obserwujemy jej przenikanie do tradycyjnych sektorów gospodarki. Branża transportowa, będąca jednym z filarów współczesnego obrotu gospodarczego, staje się przestrzenią szczególnie podatną na implementację rozwiązań opartych na algorytmach uczących się. W tym kontekście pojawia się pojęcie agentów AI – autonomicznych lub półautonomicznych systemów programistycznych, które działają w imieniu człowieka lub podmiotu prawnego, podejmując decyzje o skutkach prawnych i faktycznych.

Czym są Agenci AI?

Od strony technicznej agenci AI stanowią nową kategorię systemów informatycznych. Dzięki zdolności do samodzielnego uczenia się, analizy danych i podejmowania decyzji w określonych warunkach mogą wykonywać zadania dotychczas zastrzeżone dla człowieka.

W literaturze przedmiotu Agent AI definiowany jest jako oprogramowanie działające w sposób zorientowany na cel, zdolne do autonomicznego pozyskiwania informacji, ich przetwarzania oraz inicjowania działań w środowisku cyfrowym lub fizycznym.

W branży transportowej agenci AI mogą pełnić różne funkcje:

Aspekt wykonawczy agentów AI

Choć pojęcie „sztucznej inteligencji” jest już szeroko analizowane, „agent AI” koncentruje się na aspekcie wykonawczym – czyli działaniu w imieniu określonego podmiotu.

Dodając do tego praktycznie zerową możliwość odróżnienia działań agenta od działań człowieka, powstaje poważny problem prawny: kto odpowiada za skutki prawne czynności dokonanych przez agenta AI – jego twórca, użytkownik czy właściciel systemu?

Rozpoznanie działania agenta AI w branży transportowej

Analiza działania agentów AI wymaga rozważenia dwóch wymiarów: technicznego i prawnego.

Wymiar techniczny

Kluczowe jest ustalenie, czy system działa autonomicznie, czy jedynie wspomaga decyzje człowieka.

Przykład: inteligentny system planowania tras, który – bazując na danych pogodowych, natężeniu ruchu i analizie kosztów – samodzielnie proponuje najbardziej efektywny model dostaw.

Wymiar prawny

Decydujące znaczenie ma to, czy działania agenta mogą być przypisane konkretnemu podmiotowi jako jego „czynność” w rozumieniu prawa cywilnego.

Stan prawny w Polsce i UE

Obecnie w Polsce i UE brak jest regulacji nadających agentom AI osobowość prawną. Każde działanie agenta traktowane jest jako działanie człowieka lub przedsiębiorstwa, które zleciło jego wykonanie.

Problemem pozostaje ustalenie momentu, w którym system przekracza próg samodzielności decyzyjnej, co utrudnia przypisanie odpowiedzialności. Agent AI nie posiada zdolności prawnej ani deliktowej, więc ciężar odpowiedzialności spoczywa na podmiotach, które go stworzyły, wdrożyły lub nadzorują.

Modele przypisania odpowiedzialności

W doktrynie wyróżnia się kilka modeli odpowiedzialności za działania agentów AI:

  1. Model użytkownika
    • Oparty na koncepcji falsus procurator – osoba działająca w cudzym imieniu, ale bez umocowania, której czynność wymaga potwierdzenia przez zleceniodawcę.
    • Problem: praktycznie zerowa możliwość odróżnienia działań agenta od działań człowieka prowadzi do trudnych sytuacji prawnych, np. zawarcie umowy przewozu przez agenta AI bez osobistego potwierdzenia przez użytkownika.

Niestety należy podkreślić że rozwiązanie to nie jest idealne, gdyż z uwagi na praktycznie zerową możliwość odróżnialności działań Agenta AI od działań człowieka, w większości przypadków może dojść do wielu skrajnych sytuacji. Idealnym przykładem będzie sytuacja, w której to strony zawarły skutecznie umowę przewozu (chociażby za pomocą giełdy transportowej) i przystąpiły do faktycznego wykonania przewozu, po czym nagle okaże się że za zlecającego przewóz działał ów agent, a jego pierwotny użytkownik nigdy nie potwierdzi osobiście wspomnianej umowy. Oczywiście sytuacja ta komplikuje się jeszcze bardziej w przypadku wystąpienia wspomnianego agenta AI jako jednego z ogniw łańcucha transportowego, gdyż będzie on wtedy defacto posiadał uprawnienia przypisane zarówno zlecającemu jak i przewoźnikowi, czy momentu gdy po obu stronach znajdą się agenci AI. 

2. Model producenta

3. Model ryzyka rozproszonego

Perspektywy regulacyjne

Oczywiście z uwagi na zawiłość problemu jak i ciągły postęp technologiczny, na horyzoncie zaczęły pojawiać się już pierwsze szczegółowe regulacje w tym zakresie, jak chociażby wdrażany w UE AI ACT, jednak z przykrością muszę stwierdzić że w przypadku tego wyścigu “miecza i tarczy” prawo pozostaje daleko w tyle. W związku z tym racjonalną strategią byłoby uregulowanie tej kwestii przynajmniej na gruncie krajowym, jednak i w tym przypadku skala zapóźnień jest ogromna.

Podsumowanie

Niemniej, podsumowując dzisiejszy artykuł, należy jeszcze raz zaznaczyć że Agenci AI stanowią aktualnie jeden z najbardziej dynamicznie rozwijających się obszarów technologii stosowanej w sektorze transportowym. Ich obecność rodzi szereg pytań o charakterze prawnym, w szczególności w zakresie odpowiedzialności, kontraktów i zgodności z obowiązującymi regulacjami. Z kolei brak jednoznacznych norm prawnych wymaga od ustawodawcy przyjęcia elastycznego podejścia opartego na zasadach ogólnych prawa cywilnego oraz na konstrukcji odpowiedzialności pośredniej. Jednak w dłuższej perspektywie czasu i tak ustawodawca musi doprowadzić do stworzenia szczegółowej regulacji która umożliwi wypracowanie standardów w zakresie odpowiedzialnego wdrażania agentów AI, zapewniających przejrzystość, audytowalność i kontrolę ludzką nad ich działaniami. 

Autor: Michał Krawczyk
Aplikant radcowski w Trans Lawyers