X
Szanowny Użytkowniku
25 maja 2018 roku zaczęło obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r (RODO). Zachęcamy do zapoznania się z informacjami dotyczącymi przetwarzania danych osobowych w Portalu PolskieRadio.pl
1.Administratorem Danych jest Polskie Radio S.A. z siedzibą w Warszawie, al. Niepodległości 77/85, 00-977 Warszawa.
2.W sprawach związanych z Pani/a danymi należy kontaktować się z Inspektorem Ochrony Danych, e-mail: iod@polskieradio.pl, tel. 22 645 34 03.
3.Dane osobowe będą przetwarzane w celach marketingowych na podstawie zgody.
4.Dane osobowe mogą być udostępniane wyłącznie w celu prawidłowej realizacji usług określonych w polityce prywatności.
5.Dane osobowe nie będą przekazywane poza Europejski Obszar Gospodarczy lub do organizacji międzynarodowej.
6.Dane osobowe będą przechowywane przez okres 5 lat od dezaktywacji konta, zgodnie z przepisami prawa.
7.Ma Pan/i prawo dostępu do swoich danych osobowych, ich poprawiania, przeniesienia, usunięcia lub ograniczenia przetwarzania.
8.Ma Pan/i prawo do wniesienia sprzeciwu wobec dalszego przetwarzania, a w przypadku wyrażenia zgody na przetwarzanie danych osobowych do jej wycofania. Skorzystanie z prawa do cofnięcia zgody nie ma wpływu na przetwarzanie, które miało miejsce do momentu wycofania zgody.
9.Przysługuje Pani/u prawo wniesienia skargi do organu nadzorczego.
10.Polskie Radio S.A. informuje, że w trakcie przetwarzania danych osobowych nie są podejmowane zautomatyzowane decyzje oraz nie jest stosowane profilowanie.
Więcej informacji na ten temat znajdziesz na stronach dane osobowe oraz polityka prywatności
Rozumiem

Decyzje autopilota, czyli dylematy moralne sztucznej inteligencji

Ostatnia aktualizacja: 20.11.2018 18:00
- Powinniśmy ostrożnie myśleć na temat rozwiązań opartych na sztucznej inteligencji - mówił w Dwójce prof. Paweł Łuków.
Audio
  • Dylematy moralne sztucznej inteligencji (O wszystkim z kulturą/Dwójka)
Zdjęcie ilustracyjne
Zdjęcie ilustracyjneFoto: Chombosan/Shutterstock.com

W ostatnim czasie sporo się mówi i pisze o samochodach z autopilotem. Poza aspektami technicznymi podnoszone są również problemy etyczne: jakiego wyboru ma dokonać komputer pokładowy w sytuacji, gdy wypadek jest nieunikniony i na przykład trzeba wybrać pomiędzy ryzykiem potrącenia albo matki z dzieckiem, albo osoby niepełnosprawnej? Czy programiści mają prawo do pisania takich algorytmów? Jeśli tak, to czym powinni się kierować - rozstrzygnięciami etyków, prawem, badaniami socjologicznymi?

- Parametry, które miałyby decydować o tym, czy dana ludzka decyzja jest trafna czy nie, są niesłuchanie złożone - przypominał prof. Paweł Łuków. Jak zauważył, spora część naszych decyzji ma charakter "niekoniecznie jawny dla nas samych". Mają one również charakter "projektowania nowych scenariuszy", nie zaś odtwórczy.

Czy tę kreatywność można w jakiś sposób zaimplementować do maszyn? Zapraszamy do wysłuchania dyskusji.

***

Tytuł audycji: O wszystkim z kulturą

Prowadzi: Michał Nowak

Goście: prof. Paweł Łuków (z Zakładu Etyki Instytutu Filozofii Uniwersytetu Warszawskiego), prof. Jarosław Arabas (z Wydziału Elektroniki i Technik Informacyjnych Instytutu Informatyki Politechniki Warszawskiej)

Data emisji: 20.11.2018

Godzina emisji: 17.30

Ten artykuł nie ma jeszcze komentarzy, możesz być pierwszy!
aby dodać komentarz
brak

Czytaj także

"Robot pomoże, ale nie pocieszy". Wyzwania nauki

Ostatnia aktualizacja: 02.01.2017 19:10
- W Japonii buduje się roboty wykorzystywane do opieki nad starszymi ludźmi. Choć maszyny te naśladują empatię, to w rzeczywistość stanowią coś w rodzaju wioski potiomkinowskiej. Naśladują mimikę i zachowania typowe dla empatii, ale nie ma w tym żadnej głębi - zauważył dr hab. Marcin Miłkowski, opowiadając o pracach nad sztuczną inteligencją.
rozwiń zwiń