| Ryzyko | Jak może się zmaterializować | Prawdopod. | Skutek |
|---|---|---|---|
| Halucynacje w danych finansowych | Agent kategoryzuje faktury błędnie. Model „domyśla się" wartości gdy dane są niejednoznaczne. Raport wygląda poprawnie, liczby się nie zgadzają. | Wysokie | Błędy w sprawozdaniach, kontrola skarbowa |
| Dane finansowe przez zewnętrzne API | Dokumenty z danymi klientów, kontrahentów, wynagrodzeń przesyłane do Anthropic/OpenAI. RODO, tajemnica skarbowa, NDA z klientami. | Pewne | Naruszenie RODO, kary, utrata klientów |
| Bus factor = 1 | Jedyna osoba która rozumie system idzie na L4, odchodzi lub jest niedostępna. System się wysypuje. Nikt nie wie jak naprawić. | Średnie | Paraliż procesów finansowych |
| Aktualizacja modelu łamie agenty | Anthropic/OpenAI aktualizuje model. Zachowanie agentów się zmienia. Nikt tego nie testuje automatycznie. Błędy wychodzą po tygodniu. | Średnie | Błędne dane przez tydzień |
| Code review przez AI ≠ code review | ChatGPT nie znajdzie błędów logiki biznesowej których nie rozumie. Nie sprawdzi zgodności z polskim prawem podatkowym. Potwierdzi kod który jest technicznie poprawny, ale biznesowo błędny. | Wysokie | Ukryte błędy w logice kategoryzacji |
| Brak dokumentacji | Za 6 miesięcy nikt — włącznie z autorem — nie pamięta dlaczego agent robi X a nie Y. Zmiana staje się niemożliwa bez przepisania od zera. | Wysokie | Dług techniczny, niemożność rozwoju |
| Kto odpowiada za błąd? | Agent kategoryzuje kosz jako przychód. US pyta kto podpisał raport. Odpowiedź „agent AI to zrobił" nie jest odpowiedzią prawną. | Niskie, ale… | Odpowiedzialność osobista |