Jeszcze do niedawna największym wrogiem klienta przy kasie samoobsługowej był komunikat „Poczekaj na pomoc”, gdy waga produktu nie zgadzała się o dwa gramy. To jednak pieśń przeszłości. W minionym, 2025 roku, handel detaliczny w Polsce przeszedł technologiczną transformację, która przypomina scenariusz z filmu science-fiction. Nad naszymi głowami zawisły inteligentne kamery, a algorytmy śledzą każdy ruch nadgarstka, analizując, czy przypadkiem nie próbujemy „oszukać systemu”. Ile razy w ostatnich miesiącach zdarzyło Ci się, iż ekran kasy nagle zgasł, a zamiast listy zakupów zobaczyłeś nagranie wideo swoich własnych rąk z dopiskiem „Podejrzane zachowanie”? Witajcie w roku 2026 – erze totalnej inwigilacji zakupowej.

Fot. Warszawa w Pigułce
Styczeń to czas, kiedy sklepy podsumowują straty, a my podsumowujemy nasze doświadczenia. I trzeba przyznać uczciwie: zakupy w dyskontach przestały być relaksem, a stały się grą zręcznościową pod presją. Wprowadzenie systemów wizyjnych opartych na sztucznej inteligencji (AI) miało wyeliminować kradzieże i przyspieszyć obsługę. Czy się udało? Statystyki sieci handlowych mówią o spadku strat, ale fora internetowe pękały w 2025 roku od historii uczciwych klientów, którzy przez błąd algorytmu najedli się wstydu, stojąc pod „czerwoną latarnią” i tłumacząc ochroniarzowi, iż wcale nie kradną awokado.
Skąd wziął się ten trend i dlaczego w 2025 roku kamery AI stały się standardem w Biedronce, Lidlu, Kauflandzie czy Auchan? Jak działa ten niewidzialny policjant i dlaczego tak często się myli, oskarżając nas o czyny, których nie popełniliśmy? Przyjrzyjmy się temu zjawisku z perspektywy początku 2026 roku.
Oko, które nigdy nie mruga. Jak działa system VSA?
Technologia, która zrewolucjonizowała polskie sklepy, to tzw. Video Smart Alert (VSA) lub systemy klasy „Loss Prevention AI”. Jeszcze w 2024 roku kamery nad kasami służyły głównie do monitoringu ogólnego – zapisu obrazu na wypadek incydentu. W 2025 roku zyskały „mózg”.
Systemy te nie patrzą na twarz (przynajmniej oficjalnie), ale na ręce i produkty. Algorytm analizuje wektory ruchu. jeżeli wyjmujesz produkt z koszyka i przekładasz go do strefy pakowania z pominięciem skanera – system to widzi. jeżeli trzymasz w ręku dwa produkty, a skanujesz tylko jeden („na zakładkę”) – system to widzi. jeżeli próbujesz zważyć drogie pomidory malinowe jako tanie cebule – kamera rozpoznaje kształt i kolor warzywa, blokując transakcję.
Teoretycznie brzmi to genialnie. W praktyce, w 2025 roku okazało się, iż AI jest nadgorliwa. Wystarczyło zbyt gwałtownie przesunąć produkt, poprawić torebkę leżącą na półce lub zasłonić kod kreskowy rękawem kurtki, by system zinterpretował to jako „próbę kradzieży”. Efekt? Blokada kasy, sygnał dźwiękowy i konieczność interwencji pracownika, który musi obejrzeć „powtórkę wideo” na ekranie kasy i zatwierdzić transakcję.
„Czerwona lampka wstydu” – psychologia oskarżenia
Największym problemem nowych systemów nie jest technologia, ale emocje, jakie wywołuje. Klienci w 2025 roku masowo skarżyli się na poczucie upokorzenia. Wyobraź sobie: stoisz w szczycie popołudniowym, za tobą długa kolejka zniecierpliwionych ludzi. Nagle twoja kasa zaczyna migać na czerwono, a na ekranie pojawia się komunikat sugerujący nieuczciwość. Wszyscy patrzą na ciebie. Podchodzi asystent, ogląda nagranie twoich rąk.
– Czułam się jak przestępca, a ja tylko przełożyłam dziecku zabawkę z jednej ręki do drugiej, żeby ją zeskanować. Kasa uznała, iż chciałam ją ukryć. Ochroniarz patrzył na mnie podejrzliwie, ludzie wzdychali. Od tamtej pory boję się korzystać z samoobsługi – to wpis z jednej z grup osiedlowych, który jesienią ubiegłego roku zebrał tysiące polubień.
Psychologowie społeczni zwracają uwagę na zjawisko „domniemania winy”. Wcześniej, jeżeli waga się nie zgadzała, uznawaliśmy to za błąd maszyny. Teraz, gdy interweniuje AI, podświadomie czujemy, iż system nas „przyłapał”. Sklepy w ten sposób przerzuciły ciężar kontroli z ochroniarzy na automaty, ale koszty psychiczne ponoszą klienci.
Dlaczego sklepy to zrobiły? Bilans zysków i strat
Odpowiedź jest prosta i brutalna: plaga kradzieży. W latach 2023-2024, wraz ze wzrostem cen żywności, zjawisko „shrinkage” (straty inwentaryzacyjne) w polskich sklepach poszybowało w górę. Klienci nauczyli się oszukiwać wagi, naklejali tańsze kody na droższe produkty („na banany”) lub po prostu nie skanowali co trzeciej rzeczy.
Tradycyjne wagi w strefach pakowania były łatwe do oszukania i irytujące (słynne „artykuł w strefie pakowania”). Kamery AI są znacznie skuteczniejsze w wyłapywaniu realnych oszustw. Z raportów branżowych za 2025 rok wynika, iż sieciom handlowym udało się ograniczyć straty na kasach samoobsługowych choćby o 40%. Inwestycja w drogi system kamer zwróciła się błyskawicznie.
Jednak cena wizerunkowa jest ogromna. Wiele osób, zrażonych ciągłymi blokadami i podejrzeniami, wróciło do kas tradycyjnych. To z kolei spowodowało kolejki do „żywych kasjerów”, niwecząc ideę szybkiej samoobsługi.
Absurdy algorytmów – hity 2025 roku
Sztuczna inteligencja wciąż się uczy, a rok 2025 dostarczył nam wielu przykładów jej niedoskonałości. Oto sytuacje, które najczęściej doprowadzały klientów do szału:
- Szalik jako produkt: Zimą 2025 systemy nagminnie myliły końcówki szalików lub paski od torebek z produktami, które „nie zostały zeskanowane”. Wystarczyło, iż szalik musnął strefę skanera, a AI alarmowała o próbie kradzieży.
- Własna torba w złym miejscu: Położenie własnej siatki na zakupy w strefie „nieaktywnej” przed rozpoczęciem transakcji często wywoływało błąd krytyczny. System widział obiekt, który nie został „wprowadzony” do transakcji.
- Telefon w dłoni: Płacenie aplikacją lojalnościową z telefonu wymaga trzymania go w ręku. Kamery często interpretowały ciemny prostokąt telefona jako tabliczkę czekolady lub opakowanie kawy, które próbujemy przemycić bez skanowania.
- Zakupy grupowe: Gdy do kasy podchodziła para i jedna osoba podawała produkty drugiej do skanowania, krzyżujące się ręce kompletnie ogłupiały algorytm, który gubił ścieżkę produktu.
Czy to jest legalne? Co na to RODO w 2026?
Wprowadzenie inwazyjnego monitoringu wywołało dyskusję prawną. Urząd Ochrony Danych Osobowych (UODO) w 2025 roku przyglądał się sprawie. Sieci handlowe bronią się, twierdząc, iż kamery nie stosują biometrii twarzy (nie identyfikują Kowalskiego z imienia i nazwiska), a jedynie analizują „bezosobowe obiekty i gesty”.
Jednak prawnicy zwracają uwagę, iż nagrania z momentu „przyłapania” są przechowywane jako dowód. jeżeli system się pomylił, a my zostaliśmy nagrani jako potencjalni złodzieje, mamy prawo żądać usunięcia tego zapisu. W praktyce, w 2026 roku świadomość praw cyfrowych rośnie, a klienci coraz częściej pytają: „Gdzie trafia to nagranie i kto ma do niego dostęp?”.
Co to oznacza dla Ciebie?
Niezależnie od tego, czy podoba nam się wizja bycia śledzonym przez AI, w 2026 roku jest to rzeczywistość, z którą musimy się zmierzyć przy każdych zakupach. Kamery nie znikną – są zbyt opłacalne dla sklepów. Oto, jak zmienić swoje nawyki przy kasie, aby uniknąć blokady, wstydu i straty czasu:
- Zwolnij tempo – nie bądź robotem: Kamery AI gubią się przy zbyt szybkich ruchach. Skanuj produkty spokojnie, jeden po drugim. Zasada „jeden ruch – jeden produkt” to klucz do sukcesu. Unikaj trzymania kilku rzeczy w jednej ręce.
- Odsłoń kody kreskowe: Zanim zbliżysz produkt do czytnika, upewnij się, iż kod jest widoczny dla kamery górnej. jeżeli zasłonisz go dłonią, system uzna, iż próbujesz „oszukać skaner”, przesuwając produkt bez odczytu.
- Trzymaj rzeczy osobiste z daleka: Torebkę, telefon, kluczyki połóż w miejscu do tego przeznaczonym lub schowaj do kieszeni. Nie kładź ich na półce wagowej ani w strefie „przedskanowej”. Każdy obcy obiekt w polu widzenia kamery to ryzyko alarmu.
- Nie podawaj sobie z rąk do rąk: jeżeli robisz zakupy z kimś, niech jedna osoba obsługuje kasę od początku do końca. Podawanie sobie produktów w strefie skanera to prosty przepis na zdezorientowanie algorytmu („skąd wziął się ten jogurt?”).
- Patrz na ekran, nie na ręce: Nowoczesne kasy często pokazują podgląd tego, co „widzi” AI (np. obrysowując produkt ramką). Obserwując ekran, szybciej zauważysz, iż system nie załapał skanowania, zanim zablokuje całą transakcję.
- Zachowaj spokój przy blokadzie: jeżeli zapali się czerwone światło, nie panikuj. To nie wyrok, to weryfikacja. Dla obsługi sklepu w 2026 roku to chleb powszedni – wiedzą, iż system jest omylny. Spokojne oczekiwanie jest lepsze niż nerwowe gestykulowanie, które kamera może zinterpretować jako agresję.
Rok 2025 nauczył nas, iż wygoda w handlu ma swoją cenę – jest nią nasza prywatność i konieczność dostosowania się do reguł narzucanych przez maszyny. W 2026 roku nie jesteśmy już tylko klientami, jesteśmy operatorami procesu kasowego, nadzorowanymi przez cyfrowego kierownika. Im szybciej zrozumiemy jego logikę, tym mniej stresu wyniesiemy ze sklepu razem z zakupami.











