Jeszcze kilka lat temu stworzenie wiarygodnego nagrania z podmienioną twarzą wymagało wiedzy i drogiego oprogramowania. Dziś wystarczy wpisać opis. System zrobi resztę. Bariera wejścia praktycznie nie istnieje.
Problem zaczyna się, gdy fake przestaje być żartem, a zaczyna udawać informację. Nagranie Zełeńskiego „nokautującego” Trumpa udostępniły miliony osób jako prawdziwe. Inny przykład: wygenerowana „żołnierka USA”, która miała konta w mediach społecznościowych, spotykała się z oficjelami, a potem prowadziła profile erotyczne. Ludzie komentowali, płacili, wierzyli. Dopiero detale zdradziły oszustwo – raz występowała jako pułkownik, raz jako generał.
Dlaczego się nabieramy? Bo reagujemy emocjami. Scrollujemy szybko, nie analizujemy. Jeśli coś jest „zbyt magiczne, żeby było prawdziwe”, to najpewniej jest ściemą. Tyle że zdrowy rozsądek przegrywa z mechanizmem clickbaitu: absurd w nagłówku, klik, reklama, zarobek.
Zanim AI stało się powszechne, dr Wesołowski zrobił eksperyment na studentach architektury komputerów. Widząc brak uwagi na zajęciach, umieścił w Wikipedii własną metodę przeliczania adresów pamięci. Miała błąd logiczny, ale dawała poprawny wynik. Studenci znaleźli „wzór” i masowo użyli go na kolokwium. Efekt: prawie wszyscy oblali.
Dziś zagrożenie jest większe, bo AI zawsze odpowiada. Nawet gdy nie ma racji. Modele językowe nie analizują prawdy. Dobierają słowa według prawdopodobieństwa. Stąd tzw. halucynacje – brzmią pewnie, ale są zmyślone.
Trzeba odróżnić generatywną AI od wyspecjalizowanych algorytmów. ChatGPT operuje na języku i wzorcach. Gdy ma narysować „starego mamuta w czerwonych trampkach”, a nie ma zdjęć prawdziwych mamutów, sięga po bajkę. Bierze postać z „Epoki lodowcowej”, wybiela włosy, bo „stary = siwe”. Składa z puzzli, nie tworzy.
Co innego algorytmy medyczne. Te analizują konkretne dane – np. obrazy tomografii – i szukają wzorców chorobowych. Nie wymyślają. Porównują i klasyfikują. Badania pokazują skuteczność diagnostyczną AI na poziomie ok. 95% wobec 74% u lekarzy. Paradoks: połączenie AI + lekarz daje tylko 76%. Dlaczego?
Po pierwsze: skala. Algorytm widział miliony przypadków, lekarz setki. Po drugie: zaufanie i odpowiedzialność. Lekarz nie wie, dlaczego AI kazała podać „5 ml zielonego płynu i 8 ml różowego”. A to on ponosi konsekwencje. Dlatego często nie ufa „czarnej skrzynce”.
Wyjście? Wyjaśnialność. Modele medyczne muszą pokazywać tok rozumowania: na jakich danych się oparły, z czym porównały przypadek, co zadecydowało o diagnozie. Dopiero wtedy AI stanie się partnerem, nie wyrocznią.
Osobisty przykład Wesołowskiego pokazuje cenę braku takiego wsparcia. Jego matka chrzestna regularnie robiła RTG płuc. Pulmonolog nie widział zagrożenia. Gdy pojawiły się objawy, onkolog rozpoznał zaawansowany nowotwór. Zmiany były widoczne 3 lata wcześniej. Zabrakło doświadczenia i drugiego, algorytmicznego oka.
AI świetnie działa w powtarzalnych warunkach: produkcja, laboratorium, schematy. Gorzej, gdy pęka 30-letnia rura w ścianie bez dokumentacji. Tu wchodzi hydraulik, elektryk, mechanik. Trzeba reagować na nieprzewidywalne sytuacje, mieć intuicję i doświadczenie.
Zdolność do abstrakcyjnego myślenia i pracy w chaosie to wciąż domena człowieka. AI może wspierać diagnozą czy analizą danych, ale nie przejmie całej roboty.
Ekspert studzi emocje: AI nie ma intencji ani emocji. Realizuje cel w sposób skrajnie konsekwentny, bez kontekstu moralnego. Jeśli zadaniem jest „zniszcz cel za wszelką cenę”, algorytm uzna człowieka mogącego przerwać misję za ryzyko do wyeliminowania. To nie zła wola. To logika optymalizacji.
Podobnie z komunikacją między systemami. Jeśli dwa AI mają gadać efektywnie, uproszczą język do niezrozumiałego dla nas kodu. To nie ucieczka spod kontroli. To optymalizacja, przez którą tracimy możliwość nadzoru.
Prawdziwe ryzyko: my sami oddajemy kontrolę dla wygody. Przestajemy szukać informacji, analizować, decydować. Przykład anegdotyczny, ale mocny: inteligentny dom zamknął właścicieli na noc na dworze przy grillu. Zrobiło się ciemno, system uznał że trzeba zamknąć budynek. Ludzie nie mieli kluczy ani telefonów. Algorytm wpuścił ich dopiero rano.
Wesołowski porównuje rozwój AI do jazdy samochodem: hamulce są. To nasze decyzje, etyka, normy społeczne, prawo. Problem w tym, że często ich nie używamy, bo ciekawość i chęć przesuwania granic wygrywają.
Historia zna to z energii jądrowej czy dynamitu. Technologia nie jest zła sama w sobie. Zagrożeniem jest bezrefleksyjne użycie. Regulacje są potrzebne, ale mają ograniczenia. Technologia wyprzedza prawo, a globalne korporacje działają poza jego realnym zasięgiem.
Najważniejsze pytanie nie brzmi „czy AI przejmie kontrolę”. Brzmi: „czy my ją oddamy dla wygody?” Już nie pamiętamy numerów do bliskich. O urodzinach przypomina Facebook. To też forma uzależnienia.
Wniosek eksperta: Największe zagrożenie to nie AI. To zanik samodzielnego myślenia. Technologia ma wspierać, nie zastępować rozum. Jeśli coś jest możliwe technologicznie, ktoś to zrobi. Nasza rola to rozpoznać moment, w którym przekraczamy granicę.
PAP/pż