Sztuczna inteligencja wkroczyła do świata podatków z dynamiką, której mogłyby pozazdrościć niejedne zmiany legislacyjne. Miała uporządkować chaos, przyspieszyć analizę i odciążyć specjalistów od najbardziej żmudnych zadań. I rzeczywiście – w wielu obszarach działa imponująco skutecznie. Problem zaczyna się tam, gdzie kończy się jej użyteczność, a zaczyna jej… kreatywność. Bo AI potrafi być jednocześnie niezwykle przekonująca i niepokojąco oderwana od rzeczywistości.
Jeśli jest jedna cecha, która szczególnie wyróżnia modele językowe, to absolutna pewność siebie. AI nie ma wątpliwości, nie waha się, nie sygnalizuje niepewności. Formułuje odpowiedzi tak, jakby były oczywiste i bezdyskusyjne. Problem w tym, że gdy nie zna poprawnej odpowiedzi, nie powie „nie wiem”. Zamiast tego stworzy odpowiedź, która brzmi logicznie, profesjonalnie i spójnie, ale bywa całkowicie fikcyjna. W efekcie można otrzymać opinię podatkową opartą na przepisie, który nigdy nie istniał, albo na interpretacji, której nikt nigdy nie wydał. To nie jest zwykła pomyłka – to raczej elegancko opakowana konfabulacja, która zbyt łatwo brana jest za wiedzę ekspercką.
Podobnie wygląda kwestia optymalizacji podatkowej. AI doskonale rozumie polecenia w rodzaju „znajdź sposób” czy „zminimalizuj obciążenia” i potrafi wygenerować rozwiązania, które na pierwszy rzut oka wydają się błyskotliwe. Problem polega na tym, że model nie posiada wyczucia ryzyka. Nie czuje, że dane rozwiązanie może zostać zakwestionowane, nie uwzględnia praktyki organów, nie pamięta historii sporów. W jego świecie liczy się spójność logiczna rozwiązania, nie realność jego zastosowania w praktyce. W efekcie powstają konstrukcje, które wyglądają jak sprytna optymalizacja, ale w praktyce mogą prowadzić wprost do sporu z organem podatkowym.
Szczególnie zdradliwe są sytuacje, w których AI przywołuje konkretne interpretacje lub orzeczenia. Potrafi podać numer, datę, organ i fragment uzasadnienia, tworząc wrażenie solidnego oparcia argumentacji. Problem w tym, że takie rozstrzygnięcia potrafią istnieć wyłącznie w „wyobraźni” modelu. Dla podatkowca, który przyzwyczajony jest do pracy w oparciu o opinie autorytetów i bierze pod uwagę praktykę podatkową, to wyjątkowo niebezpieczny rodzaj błędu – bo trudno go wychwycić bez dodatkowej weryfikacji.
Nieco subtelniejszy, ale równie istotny problem pojawia się w komunikacji z klientem. AI świetnie radzi sobie z redagowaniem tekstów – tworzy klarowne, eleganckie i przekonujące wypowiedzi. Tyle że w podatkach język nie służy wyłącznie estetyce, lecz przede wszystkim zarządzaniu ryzykiem. Sformułowania takie jak „co do zasady”, „w naszej ocenie” czy „przy założeniu, że” nie są stylistycznymi dodatkami, tylko świadomym budowaniem marginesu bezpieczeństwa. Model ma tendencję do ich upraszczania lub eliminowania, zastępując ostrożność jednoznacznością. W rezultacie powstają komunikaty, które brzmią jak gwarancja w obszarze, gdzie gwarancje z definicji nie istnieją.
Równie problematyczna jest zdolność AI do upraszczania przepisów. Z jednej strony to ogromna zaleta – pozwala szybko zrozumieć skomplikowane regulacje. Z drugiej strony, w podatkach to właśnie wyjątki, warunki i niuanse decydują o tym, czy dane rozwiązanie jest poprawne. Model często je pomija lub „wygładza”, tworząc uproszczoną wersję rzeczywistości prawnej, która dobrze wygląda na papierze, ale niekoniecznie wytrzymuje konfrontację z praktyką.
Największy paradoks polega jednak na czymś innym. AI brzmi jak ekspert, ale nie ponosi żadnej odpowiedzialności za swoje rekomendacje. Nie podpisze się pod opinią, nie odpowie przed organem, nie będzie tłumaczyć się klientowi. A mimo to jego odpowiedzi coraz częściej stają się punktem wyjścia do realnych decyzji. Mamy więc do czynienia z sytuacją, w której rośnie pewność komunikatu, ale znika odpowiedzialność za jego skutki.
To wszystko nie oznacza oczywiście, że użycie AI jest problemem w naszej branży. Przeciwnie – jest narzędziem o ogromnym potencjale, które już dziś realnie usprawnia pracę podatkowców. Wymaga jednak dokładnie tego samego, co każdy inny zaawansowany instrument: kompetentnego użytkownika i zdrowego sceptycyzmu.
W praktyce sprowadza się to do prostej zasady: AI może przyspieszyć myślenie, ale nie może go zastąpić. A jeśli odpowiedź jest zbyt elegancka, zbyt jednoznaczna i rozwiązuje problem bez żadnych „ale”, to być może właśnie wtedy warto zachować największą czujność. W podatkach bowiem – podobnie jak w prima aprilis – najbardziej ryzykowne są te żarty, które wyglądają całkiem poważnie.
PS Powyższy tekst został całkowicie wygenerowany za pomocą Chata GPT, którego poprosiliśmy o profesjonalny rachunek sumienia i podsumowanie własnych grzeszków z okazji prima aprilis. Czyż nie zrobił tego z wdziękiem? Dodatkowo, zajęło mu to jakieś 30 sekund. Lubimy go, bo to doskonały asystent, szybki i elokwentny, na jego bazie nasz Zespół AI tworzy wiele autorskich modeli, które bardzo pomagają nam w pracy. Znamy jednak jego słabości – w końcu mamy w Taxpoint bardzo kompetentnych użytkowników i dużo zdrowego sceptycyzmu. Miłego prima aprilis!
PPS Autorem powyższego dopisku także jest Chat, który miał za zadanie zrobić Wam psikusa na Prima Aprilis. Udało mu się? Na pewno przez moment pomyśleliście, że to my. Ale dopiero teraz poczuliście się dziwnie…
Z Chatem GPT pracowały Katarzyna Przewłocka i Magdalena Kubas.
Pewnie się domyśliliście, że tylko pierwszy dopisek był prawdziwy, prawda? Artykuł rzeczywiście napisał w całości poprowadzony przez nas Chat GPT, zmieniliśmy tylko pierwszą część tytułu i jedno wyrażenie w tekście, które wyszło mu wyjątkowo niezgrabnie (reszta została). Chat nie umiał Wam jednak zrobić psikusa na prima aprilis, zaproponował nam bowiem… napisanie o podatku od ciszy, którym mają zostać objęci pracujący zdalnie pracownicy oraz firmy odnotowujące przestoje produkcyjne. Mamy co prawda podatek od braku zysków, ale uznaliśmy, że na taki żart ze strony ustawodawcy nie jesteśmy wszyscy jeszcze gotowi.