Kto to napisał? Sztuczna inteligencja nie rozpoznaje swoich treści

Ostatnia aktualizacja: 09.08.2023 13:20
Sztuczna inteligencja przestaje odróżniać teksty napisane przez samą siebie od tych napisanych przez człowieka. - Pracujemy nad uwzględnieniem opinii i obecnie badamy bardziej efektywne techniki pozwalające potwierdzić pochodzenie tekstu - zapowiadają twórcy chatbota GPT. 
Do tej pory wykrywanie tekstu napisanego przez sztuczną inteligencję było nieefektywne, dlatego OpenAI postanowiło wprowadzić pewne zmiany. (zdj. ilustracyjne)
Do tej pory wykrywanie tekstu napisanego przez sztuczną inteligencję było nieefektywne, dlatego OpenAI postanowiło wprowadzić pewne zmiany. (zdj. ilustracyjne)Foto: Shutterstock/MMD Creative
  • ChatGPT ma problemy z rozpoznaniem własnych treści. 
  • Problem nie jest nowy, pojawił się, gdy ta technologia wkraczała na rynek.
  • Odróżnienie treści generowanych przez AI i przez człowieka to ważny element prawa autorskiego.
  • OpenAI rozpoczęło prace nad rozwiązaniem problemu, ale na razie nie wiadomo, na czym miałoby ono polegać i jak funkcjonować.

Kto to napisał?

OpenAI poinformowało na swoim blogu o wyłączeniu narzędzia, które pozwala wskazać, który tekst został napisany przez człowieka, a który przez sztuczną inteligencję. - To nie jest nowy problem, on pojawił się już jakiś czas temu. Szczególnie w momencie, kiedy sztuczna inteligencja dopiero wchodziła do powszechnej świadomości - mówi Krzysztof Rojek z portalu Antyweb.pl. - Wtedy też na to narzędzie rzucili się uczniowie, którzy za jego pomocą masowo tworzyli teksty i prace roczne, a nauczyciele nie mieli tego jak zweryfikować.

To rodziło duży problem, bo - po pierwsze - uczniowie nie wykonywali właściwie swoich zadań, a po drugie - wszystko, co napisze AI, jest plagiatem, ponieważ algorytmy nie są w stanie stworzyć tekstów autorskich, tylko przetwarzają to, co znajdą w sieci, czyli treści innych twórców. Jak się okazało, wykrywanie tekstu napisanego przez sztuczną inteligencję jest nieefektywne, dlatego OpenAI postanowiło wprowadzić pewne zmiany.

Posłuchaj
04:46 CZWÓRKA Pierwsze slysze - chatbot 09.08.2023.mp3 ChatGPT - jak i po co rozpoznawać teksty stworzone przez sztuczną inteligencję? (Pierwsze słyszę/Czwórka)

Treści AI a prawo autorskie

Z czym się to wiąże? Na pewno z ryzykiem. Bo jeśli sami twórcy nie są w stanie podać punktów kluczowych, według których można by określić, kto jest autorem danego tekstu, to w przyszłości może się to wiązać z nieprzyjemnymi konsekwencjami. Szczególnie w zakresie prawa autorskiego - podkreśla rozmówca Mateusz Kulika. - Dlatego twórcy AI powinni się zastanowić, czy nie dodać do ChatGPT funkcji, która odznaczałaby tekst stworzony przez sztuczną inteligencję.

Zobacz też:

Jak rozwiązać problem?

Jak zapewniają przedstawiciele OpenAI, zależy im na stworzeniu zupełnie nowego narzędzia, które identyfikowałoby treści audiowizualne. Na razie jednak nie wiadomo, jak miałyby one działać

***

Tytuł audycji: Pierwsze słyszę

Prowadzący: Kamil Jasieński

Materiał: Mateusz Kulik

Data emisji: 09.08.2023

Godzina emisji: 9.45

kul

Czytaj także

Rozwój AI pochłania ogromne środki. Czy te inwestycje się opłacą?

Ostatnia aktualizacja: 31.05.2023 07:47
Okazuje się, że rozwijanie sztucznej inteligencji kosztuje fortunę. Jej przyszłość wciąż pozostaje zagadką, ale jest niemal pewne, że odniesie ona sukces. Mali gracze nie mają tu szans, finansowy próg wejścia w świat AI jest bardzo wysoki. 
rozwiń zwiń
Czytaj także

Sztuczna inteligencja i muzyka. Potrzebne są bazy danych i prawo chroniące twórców

Ostatnia aktualizacja: 05.07.2023 08:45
Uczenie maszynowe to dziedzina, która już na stałe zagościła w świecie nauki czy przemysłu. Dziś sztuczna inteligencja wdziera się też do branży rozrywkowej, tworzy grafiki, obrazy, bywa także kompozytorem muzyki. 
rozwiń zwiń