Skip to main content
academic-integrityai-detectionguidestudents

Jak profesorowie wykrywają AI? Wszystkie metody wyjaśnione dla 2026 roku

· 8 min read· NotGPT Team

Jak profesorowie wykrywają AI? W 2026 roku wykładowcy używają warstwowego połączenia oprogramowania do wykrywania, analizy wzorów tekstu i porównania z innymi pracami danego studenta — i te warstwy wzmacniają się nawzajem w sposób, który studenci rzadko przewidują. Oprogramowanie do wykrywania jest najbardziej widoczną częścią: Turnitin, GPTZero, Copyleaks i Originality.ai są wszystkie w aktywnym użyciu na uniwersytetach czteroletnich. Ale oprogramowanie to tylko pierwszy filtr. To, co większość studentów niedocenia, to druga warstwa: doświadczeni wykładowcy, którzy czytają dziesiątki prac na kurs na semestr, rozwinęli niezawodną intuicję dla tekstu, który jest strukturalnie poprawny, ale dziwnie jednolity — i wielu z nich flaguje prace do bardziej dokładnego przeglądu, zanim w ogóle otworzy raport z detektora. Zrozumienie wszystkich trzech warstw — oprogramowanie, rozpoznawanie wzorów czytania i analiza porównawcza — to najjaśniejszy sposób na zrozumienie rzeczywistego krajobrazu wykrywania.

Jak profesorowie wykrywają AI? Warstwa oprogramowania wyjaśniona

Najbardziej systematyczna metoda, którą profesorowie używają do wykrywania AI, obejmuje oprogramowanie do wykrywania, które większość instytucji już kupuje. AI Writing Indicator w Turnitin jest najszerzej wdrażany, ponieważ nie wymaga dodatkowego zakupu — został aktywowany dla wszystkich istniejących abonentów instytucjonalnych w 2023 roku i pojawia się w tym samym raporcie, którego profesorowie używają do wykrywania plagiatów od lat. To oznacza, że każda szkoła już używająca Turnitin do porównywania tekstów automatycznie ma dołączony wynik AI do każdego zgłoszenia, bez zmian w workflow profesora. AI Writing Indicator zwraca procent — proporcję przesłanego dokumentu, którą Turnitin szacuje jako wygenerowaną przez AI. Wynik 0% oznacza, że tekst nie pasuje do żadnych wzorów statystycznie podobnych do AI; 100% oznacza, że cały dokument czyta się jako wygenerowany przez AI. Turnitin zaleca traktowanie każdego wyniku powyżej 20% jako powód do bardziej dokładnego przeglądu, a nie jako werdykt, i jego własna dokumentacja wyraźnie stwierdza, że wynik nie powinien być jedyną podstawą do żadnego działania dotyczącego uczciwości akademickiej. GPTZero jest drugim najczęstszym narzędziem w szkolnictwie wyższym i jest godny uwagi ze względu na zwracanie rozbieżności prawdopodobieństwa na poziomie zdania, a nie tylko jednego wyniku dla całego dokumentu. Ta szczegółowość jest przydatna dla wykładowców, ponieważ pokazuje, które konkretne zdania doprowadziły do wzrostu wyniku — profesor przeglądający flagowaną pracę może zobaczyć dokładnie, które akapity stanowią problem, zamiast czytać cały dokument szukając wzorów AI. Kilka uniwersytetów zawarło umowy instytucjonalne z GPTZero, podobnie jak Turnitin jest wdrażany, czyniąc go dostępnym we wszystkich departamentach poprzez pojedyncze logowanie. Copyleaks i Originality.ai pojawiają się rzadziej w ankietach narzędzi wykładowców, ale są obecne na instytucjach, które chcą wykrywania AI połączonego z tradycyjnym sprawdzaniem podobieństwa tekstu w jednym raporcie. Oba narzędzia tworzą ujednolicone dane wyjściowe pokazujące prawdopodobieństwo AI wraz z każdym dopasowanym tekstem źródła — format przydatny, gdy zgłoszenie podnosi zarówno obawy dotyczące plagiatów, jak i pisania AI jednocześnie. To, co wszystkie cztery narzędzia dzielą, to to, że analizują właściwości statystyczne tekstu: rozkład długości zdań, przewidywalność słownictwa, regularność strukturalną i stopień, w jakim frazy pasują do danych wyjściowych znanych dużych modeli językowych. Żaden z nich nie identyfikuje konkretnego modelu lub narzędzia, które student użył — flagują wzory podobne do AI w tekście, niezależnie od pochodzenia.

  1. Turnitin AI Writing Indicator: automatycznie wdrażany na wszystkich istniejących instytucjach subskrybentów Turnitin — bez dodatkowych kosztów
  2. GPTZero: drugi najczęściej używany w szkolnictwie wyższym; zapewnia rozbieżności prawdopodobieństwa na poziomie zdania
  3. Copyleaks: łączy wynik prawdopodobieństwa AI z tradycyjnym porównywaniem podobieństwa tekstu w jednym raporcie
  4. Originality.ai: używane przez poszczególnych instruktorów, którzy niezależnie kupują subskrypcje
  5. Wszystkie narzędzia analizują właściwości statystyczne tekstu — rytm zdań, zakres słownictwa, regularność strukturalną — nie metadane
  6. Żadne obecne narzędzie nie może potwierdzić, który konkretny model AI wygenerował tekst; flagują tylko wzory podobne do AI
"Wynik AI Turnitin pojawia się w tym samym raporcie, który czytam od piętnastu lat. Nie potrzebuję nowego workflow — to tylko kolejna liczba, którą sprawdzam, zanim przeczytam samą pracę." — Adiunkt historii na dużym uniwersytecie państwowym, 2025

Jak profesorowie wykrywają AI w pisaniu bez żadnego oprogramowania?

Zanim prześlą zgłoszenie przez jakiekolwiek oprogramowanie do wykrywania, wielu profesorów je czyta — a doświadczeni wykładowcy rozwinęli niezawodne rozpoznawanie wzorów dla tekstu wygenerowanego przez AI na podstawie cech strukturalnych i stylowych, które pojawiają się konsekwentnie w różnych modelach. Pierwszym i najczęściej cytowanym wzorem jest jednolita struktura akapitu. Duże modele językowe tworzą tekst zorganizowany wokół rozpoznawalnego szablonu: zdanie tematyczne, dwa lub trzy zdania wspierające o podobnej złożoności gramatycznej i zdanie zamykające, które albo podsumowuje, albo gestykuluje do przodu. Ten szablon nie jest niepoprawny — odzwierciedla solidne konwencje pisania akademickiego — ale kiedy pojawia się z mechaniczną konsekwencją we wszystkich akapitach 10-stronicowej pracy, bez żadnej zmiany w sposobie, w jaki sekcje się otwierają lub zamykają, czyta się inaczej niż praca studentów napisana przez kilka dni lub tygodni przez kogoś, kto aktywnie myślał, a nie uzupełniał szablon. Drugim wzorem jest jednolita długość zdania. Ludzie piszący naturalnie zmieniają długość zdania w zależności od nacisku, rytmu i sposobu, w jaki idea się rozkłada. Seria krótkich zdań sygnalizuje pilność lub jasność. Długie, chaotyczne zdanie sygnalizuje pisarza śledzącego złożoną myśl w czasie rzeczywistym. Tekst wygenerowany przez AI często ma zdania lądujące w wąskim zakresie liczby słów w całym dokumencie — nie wszystkie identyczne, ale rytmicznie płaskie w sposób, który jest widoczny, gdy akapity są czytane na głos. Trzecim markerem jest to, co profesorowie czasami nazywają "kompetentnym, ale pozbawionym kontekstu" pisaniem. Modele AI odpowiadają na podpowiedzi dokładnie, ale bez żadnego zakotwiczenia w konkretnym kontekście kursu. Praca wytworzona przez ChatGPT na konkretną podpowiedź zadania może dotyczyć tematu prawidłowo, ale nie zawiera nic, co mogłoby pochodzić jedynie z uczestnictwa w tym kursie — bez odniesienia do konkretnego punktu wykładu, który profesor wygłosił, bez zaangażowania się z konkretnym kątem, na który zadanie pytało, bez połączenia z konkretnymi tekstami przydzielonymi. Profesorowie, którzy napisali podpowiedź zadania i wiedzą, czego szukali, natychmiast zauważają, gdy odpowiedź jest technicznie na celu, ale doświadczalnie nigdzie. Te sygnały rozpoznawania wzorów czytania nie stanowią dowodu użycia AI — stanowią powód do bardziej dokładnego czytania, a często również do przepuszczenia zgłoszenia przez oprogramowanie do wykrywania.

"Student, który uczęszczał na moje zajęcia i zaangażował się w materiał, pozostawia ślady w swoim pisaniu — odniesienia do tego, o czym dyskutowaliśmy, argumenty, które kwestionują konkretne lektury. AI po prostu odpowiada na podpowiedź z bezpiecznej, poinformowanej odległości, którą żaden rzeczywisty student by nie wybrał." — Adiunkt angielskiego na kolegium liberalnym, 2025

Czy profesorowie mogą wykryć AI, jeśli edytujesz lub parafrazujesz dane wyjściowe?

Edytowanie tekstu wygenerowanego przez AI przed przesłaniem zmniejsza wyniki wykrywania — ale zmniejszenie zależy od tego, ile zostało zmienione i jaki rodzaj edycji został wykonany, a studenci konsekwentnie niedoceniają, ile edycji jest wymaganych, aby push wynik do zakresu, który nie przyciągnie uwagi. Lekka edycja — zmiana poszczególnych wyborów słów i przeformułowanie kilku zdań bez dotykania struktury — typowo przesuwa wynik Turnitin z zakresu 85–95% w dół do zakresu 60–80%. Wynik w zakresie 60–80% nadal mieści się dobrze w terytorum, które większość wykładowców traktuje jako flagę do bardziej dokładnego czytania, więc lekka edycja zmniejsza liczbę, ale nie zmienia wynik. Istotna edycja — restrukturyzacja akapitów, zastąpienie ogólnych twierdzeń odniesieniami do konkretnych czytanek na kursie, zmienność rytmu zdań w całym dokumencie i zastąpienie fraz przejściowych takich jak "Ponadto" i "Dodatkowo" bezpośrednimi, konkretnymi połączeniami — może push wyniki poniżej 40% i czasami poniżej 20%. Na tym poziomie większość narzędzi do wykrywania nie byłoby flag zgłoszenie jako AI-prawdopodobne. Jednak ten stopień rewizji wymaga wystarczającego zaangażowania w materiał, aby proces zaczął przypominać używanie AI jako narzędzia do badań i tworzenia zarysów, a nie jako autora — wysiłek rewizji i inwestycja w uczenie się są porównywalne do pisania z AI jako pomocą, a nie jako zastępstwo. Narzędzia do parafrazowania są specyficznym wariantem tego podejścia. Przepuszczenie tekstu wygenerowanego przez AI przez parafrazę przed przesłaniem zmienia powierzchniowe słownictwo, ale typowo nie zmienia wzorów strukturalnych, które narzędzia do wykrywania analizują. Turnitin i GPTZero zarówno wyraźnie zauważają w ich dokumentacji, że ich modele są trenowane do identyfikacji sparafrazowanego wyniku AI, jak również bezpośredniego wyniku AI. Wykładowcy, którzy przejrzeli wystarczającą ilość sparafrazowanych zgłoszeń AI, również teraz rozpoznają wynik narzędzi do parafrazowania jako odrębny wzór — przepisy, które są gramatycznie poprawne, ale dziwnie gadatliwe lub opisowe w sposób, który spójne parafrazowanie produkuje.

"Lekka edycja nie fałszuje narzędzi do wykrywania konsekwentnie. Istotna edycja zmienia tekst na tyle, aby zmienić wynik — ale zmienia to również to, co student faktycznie zrobił, co jest innym problemem." — Notatki techniczne GPTZero na temat edycji i dokładności wykrywania, 2025

Jaką rolę gra analiza porównawcza w wykrywaniu AI przez profesora?

Zrozumienie sposobu, w jaki profesorowie wykrywają AI, wymaga spojrzenia poza warstwę oprogramowania. Oprogramowanie do wykrywania i rozpoznawanie wzorów czytania to pierwsze dwie warstwy, ale trzecia — porównanie z inną dostępną pracą studenta — to często to, co zamienia podejrzenie w wiarygodny przypadek. Porównanie dostępne dla profesorów różni się w zależności od formatu kursu. W kursach zawierających jakiekolwiek pisanie w klasie — ćwiczenia czasowe, egzaminy w niebieskiej książce, odpowiedzi w klasie, posty na forum dyskusyjnym napisane bez technologii — profesorowie mają bezpośredni punkt porównania. Jeśli esej przesłany przez studenta czyta się ze strukturalną konsekwencją i płynnością, która brakuje w jego pisaniu w klasie, ta luka jest godna uwagi niezależnie od wyniku wykrywania. Profesorowie w kursach intensywnych na piśmie, którzy oceniają 20 lub więcej tekstów z tych samych studentów na semestr, są szczególnie umiejscowieni do dokonania tego porównania — mają mentalny model stylu prozy każdego studenta, zakresu słownictwa i tendencji argumentacyjnych zbudowany z wielu punktów danych. Przesłana praca, która czyta się w rejestrze lub głosie, który nie pasuje do ustalonego wzoru z wcześniejszej części kursu, jest czytana inaczej. Komunikacja e-mail i forum dyskusyjne jest wtórnym źródłem porównania. Student, którego e-maile na kursie są bezpośrednie, krótkie i czasami błędnie napisane, ale którego przesłane eseje są konsekwentnie formalne, złożone i strukturalnie starannie, przedstawia lukę stylów, która przyciąga uwagę. Większość profesorów nie przeprowadza systematycznych audytów korespondencji e-mail w tym celu, ale rozbieżność jest widoczna, gdy jest istotna. Niektóre instytucje również prowadzą portfolio lub wcześniejsze rekordy zgłoszeń, do których wykładowcy mogą uzyskać dostęp podczas przeglądu flagowanego papieru — porównując bieżące zgłoszenie studenta z pracą, którą złożyli w wcześniejszych kursach w tym samym departamencie. Warstwa porównawcza nie jest nieomylna. Istnieją uzasadnione powody dla zmienności stylów: niektórzy studenci piszą lepiej w warunkach niedostępu do niskiego ciśnienia niż w warunkach egzaminów czasowych. Studenci, którzy otrzymali znaczną tutorię, opinię lub edycję z centrów pisania, również wykazują znaczną poprawę stylu na jednym kursie. Profesorowie przeszkoleni w przeglądzie uczciwości akademickiej są zobowiązani do rozważenia tych uzasadnionych wyjaśnień przed eskalacją. Ale niewyjaśnione luki w stylach łączą się z wynikami oprogramowania, a kombinacja wysokiego wyniku oprogramowania i znacznego rozbieżności porównania to typowy punkt początkowy dla formalnego odniesienia uczciwości akademickiej.

  1. Pisanie w klasie czasowe (egzaminy, eseje w niebieskiej książce) stanowi bezpośredni punkt porównania stylu dla zgłoszeń zabranych do domu
  2. Profesorowie w kursach z wieloma przydzielonymi pisemnymi zadaniami budują mentalny model stylu prozy każdego studenta
  3. Przesłany esej, który czyta się w rejestrze, głosie lub poziomie płynności brakującym w pracy w klasie, jest flagowany do porównania
  4. Posty na tablicach dyskusyjnych i e-maile na kursie mogą stanowić nieformalne porównanie stylu, gdy nie ma dostępu do formalnego pisania w klasie
  5. Wcześniejsze rekordy zgłoszeń z wcześniejszych kursów w tym samym departamencie mogą być dostępne dla pracowników podczas przeglądu
  6. Wysokie wyniki oprogramowania w połączeniu ze znacznymi rozbieżnościami w stylu stanowią typową podstawę do formalnych odniesień uczciwości akademickiej
"Czytam pracę tego studenta przez cały semestr. Przesłana praca końcowa nie czyta się jak ta sama osoba. To jest to, co przywiozłem do biura uczciwości akademickiej — nie tylko wynik detekcji." — Instruktor pisania na uniwersytecie regionalnym, 2025

Co się dzieje, gdy wykrywanie AI przez profesora flaguje Twoją pracę?

Flagowana praca nie idzie bezpośrednio do formalnego przesłuchania. Typowa pierwsza odpowiedź to bliższy ręczny przegląd przez profesora, po którym następują jedne z trzech ścieżek: nieformalne spotkanie ze studentem, formalne odniesienie uczciwości akademickiej lub dostosowanie oceny na podstawie pracy, którą profesor może niezależnie zweryfikować bez składania formalnego twierdzenia. Nieformalne spotkania to najczęstsza pierwsza kroku, gdy dowody to wysoki wynik wykrywania plus obawy dotyczące wzorów czytania, ale brak bezpośrednich danych porównania. Profesor może poprosić studenta o spotkanie i wyjaśnienie procesu pisania, opisanie argumentu przesłanej pracy bez notatek lub odpowiadanie na pytania dotyczące cytowanych źródeł. Studenci, którzy naprawdę napisali pracę sami, zwykle uważają tę rozmowę za możliwą do zarządzania. Spotkanie chroni również profesora — ustala, że zbadał przed podjęciem jakichkolwiek formalnych działań. Formalne odniesienia uczciwości akademickiej wymagają dokumentacji poza wynikiem wykrywania. Większość procesów instytucjonalnych określa, że raport wykrywania sam w sobie nie może utrzymać orzeczenia dotyczące naruszenia i że pracownik odnoszący się musi również dostarczyć pisemne konto swoich konkretnych obaw, wszelkich materiałów porównania i dowodów, że ręczny przegląd zgłoszenia został przeprowadzony. Pracownicy uczciwości akademickiej coraz bardziej wymagają od pracowników udokumentowania tego, co konkretnie przyciągnęło uwagę poza liczbą — które akapity, jakie wzory i jaki materiał porównania wspiera twierdzenie. Zakres wyników dla spraw formalnych rozciąga się od zera na zadaniu na niskim końcu do braku zaliczenia kursu i notacji w akademickim rekordzie studenta na górnym końcu. Większość instytucji traktuje pierwsze przekroczenia bardziej łaskawie, gdy są obsługiwane w nieformlnym procesie, a nie w formalnym przesłuchaniu. Studenci, którzy otrzymują zawiadomienia formalne, mają prawo do odpowiedzi na piśmie, do przedstawienia dowodów własnego procesu pisania i do wyjaśnienia wszelkich czynników, które mogą wyjaśniać wyniki wyniku detekcji. Studenci, którzy mogą wytworzyć robocze, notatki, zarysów lub historię przeszukiwania przeglądarki z okresu pisania papieru, mają lepsze wyniki w postępowaniu formalnym niż ci, którzy nie mogą.

"Wynik detekcji mówi mi, gdzie szukać. Nie mówi mi, co się stało. Moim zadaniem jest badanie — i to badanie musi być uczciwe, udokumentowane i otwarte na wyjaśnienie studenta." — Pracownik uczciwości akademickiej na uniwersytecie średniej wielkości, 2025

Skąd wiesz, czy Twoje własne pisanie może wyzwolić wynik fałszywie dodatni?

Jak profesorowie wykrywają AI? To pytanie ma bezpośredni odpowiednik, który wpływa na znacznie więcej studentów niż ci, którzy faktycznie używali AI: czy oprogramowanie do wykrywania może fałszywie flagować autentyczne pisanie? Udokumentowana odpowiedź to tak, a wskaźniki fałszywych wyników są wystarczająco istotne, aby mieć znaczenie. Niezależne oceny Turnitin i GPTZero wykazały wskaźniki fałszywych wyników wyników w zakresie od 4% do ponad 15%, w zależności od stylu pisania i kontekstu demograficznego. Szeroko cytowane badanie z 2024 roku w Nature wykazało, że osoby mówiące po angielsku innym niż pierwszy język były flagowane ze znacznie wyższymi wskaźnikami niż osoby mówiące po angielsku — statystycznym powodem jest to, że formalnie poprawne, leksykalnie wąskie pisanie akademickie w drugim języku wytwarzało tekst z tym samym niskorozprzestrzenionym, niskorozprzestrzenionym sygnaturą, którą narzędzia do wykrywania są kalibrowane do identyfikacji jako AI. Pisarze z naturalnie formalnym rejestrem akademickim, studenci wyszkoleni w konwencjach faworyzujących ustrukturowany rozwój akapitów i prace, które zostały gruntownie zrewidowane w celu poprawienia gramatyki lub poprawy przejrzystości, mogą wszystkie generować wysokie wyniki detekcji bez żadnego zaangażowania AI. Proces rewizji sam w sobie jest ryzykiem fałszywego wyniku. Praca zrewidowana wiele razy przez studenta, tutora centrum pisania lub rówieśnika może skończyć się z idiosynkratyczną zmiennością wygładzoną — każde zdanie gramatycznie poprawne, każdy akapit rytmicznie spójny — które czyta się do narzędzia do wykrywania jako statystycznie podobnego do wyniku AI. Przepuszczenie własnego papieru przez detektor AI przed przesłaniem jest najbardziej praktycznym sposobem, aby wiedzieć, czy Twoje autentyczne pisanie będzie miało wysoki wynik i dlaczego. Narzędzia zwracające rozbieżności prawdopodobieństwa na poziomie zdania są bardziej przydatne niż narzędzia zwracające tylko wynik na poziomie dokumentu, ponieważ mówią ci dokładnie, które fragmenty generują flagę i gdzie ukierunkowane zmiany by to obniżyły. Zmiany, które typowo zmniejszają wyniki fałszywych wyników — zmienność długości zdania w akapitach, gdzie trzy lub więcej kolejnych zdań ląduje w tym samym zakresie liczby słów, zastępowanie formalnych fraz przejściowych bezpośrednimi połączeniami, ugruntowanie co najmniej jednego twierdzenia na sekcję w konkretnym przykładzie kursu lub nazwanym źródła — nie są strukturalnymi przepisami. Są to docelowe zmiany, które większość studentów może wykonać w godzinę, gdy wiedzą, które akapity stanowią problem. Sprawdzenie własnego zgłoszenia kilka dni przed terminem składania daje czas na dokonanie tych zmian i zweryfikowanie, że wynik się zmienił. Sprawdzenie nocy przed datą terminu terminu rzadko coś daje. AI Text Detection w NotGPT podkreśla konkretne zdania przyczyniające się do Twojego wyniku, aby zmiany były skoncentrowane na tym, co faktycznie ma znaczenie, a nie na pełnym dokumencie.

  1. Wklej pełne zgłoszenie do detektora AI co najmniej dwa lub trzy dni przed terminem
  2. Przejrzyj rozbieżność na poziomie zdania, aby zidentyfikować, które konkretne akapity przyczyniają się do wysokiego wyniku
  3. Zmień długość zdania w każdym akapicie, gdzie trzy lub więcej kolejnych zdań są podobne
  4. Zastąp formalne frazy przejściowe ("Ponadto", "Co więcej", "Dodatkowo") bezpośrednimi, konkretnymi połączeniami
  5. Zakotwicz co najmniej jedno twierdzenie na sekcję w konkretnym czytaniu kursu, punkcie wykładu lub nazwanym przykładzie, którzy mogliby pochodzić tylko z Twojej klasy
  6. Jeśli piszesz akademicki angielski jako drugi język, przejrzyj zakres słownictwa i zastąp powtarzające się synonimy variedymi alternatywami
  7. Czytaj zrewidowane akapity na głos, aby potwierdzić, że brzmią jak Twój naturalny głos
  8. Uruchom ostateczne sprawdzenie detekcji po rewizjach, aby zweryfikować, że wynik zmienił się w dobrym kierunku przed przesłaniem
"Nigdy nie używałem AI do tej pracy. Mój profesor ją flagował i nie miałem pojęcia, że moje pisanie mogłoby tak wyglądać dla narzędzia. Uruchomienie go siebie najpierw by mi pokazało, gdzie był problem." — Student studiów licencjackich na uniwersytecie stanowym, 2025

Wykrywaj treści AI z NotGPT

87%

AI Detected

“The implementation of artificial intelligence in modern educational environments presents numerous compelling advantages that merit careful consideration…”

Humanize
12%

Looks Human

“AI in schools has real upsides worth thinking about — but the trade-offs are just as real and shouldn't be glossed over…”

Natychmiastowo wykrywaj tekst i obrazy generowane przez AI. Humanizuj swoje treści jednym dotknięciem.

Powiązane Artykuły

Możliwości Wykrywania

🔍

AI Text Detection

Wklej dowolny tekst i otrzymaj wynik prawdopodobieństwa podobieństwa AI z podświetlonymi sekcjami.

🖼️

AI Image Detection

Prześlij obraz, aby wykryć, czy został wygenerowany przez narzędzia AI, takie jak DALL-E lub Midjourney.

✍️

Humanize

Przepis tekstu wygenerowanego przez AI tak, aby brzmiano naturalnie. Wybierz intensywność Lekka, Średnia lub Mocna.

Przypadki Użycia