Co po prawie?
Czy studiowanie prawa równa się jedynie zostanie sędzią, adwokatem czy prokuratorem? Nie! Rzecznik patentowy, doradca restrukturyzacyjny, compliance officer i...
Z końcem marca tego roku świat obiegła informacja, że włoski organ ochrony danych osobowych (Garante) czasowo nakazał spółce OpenAI zablokowanie ich produktu – ChatGPT na terenie Włoch. Jest to językowy model sztucznej inteligencji z którym można „rozmawiać” w formule czatu.
Czat ten stał się niezwykle popularny z końcem 2022 roku, a już w styczniu 2023 roku osiągnął imponujący wynik stu milionów użytkowników w rekordowo krótkim czasie. Uczyniło go to najszybciej rozwijającą się aplikacją w historii, wyprzedzającą tempem wzrostu wszystkie inne aplikacje (m.in. TikTok, Instagram).
Dlaczego Włochy zakazały ChatGPT oferowania swoich usług Włochom?
Jako uzasadnienie zablokowania czatu włoski organ wskazał to, że OpenAI nie wywiązuje się z obowiązku informacyjnego wobec osób których dane przetwarza, nie ma podstawy prawnej do zbierania i przetwarzania danych użytkowników w celu nauki algorytmów, a na platformie nie ma rzeczywistej weryfikacji wieku, przez co dzieci mogłyby natknąć się na nieodpowiednie dla nich treści. Mimo tego, że OpenAI jest amerykańską spółką, musi ona spełniać wymogi stawiane jej przez europejskie przepisy, w tym między innymi ogólne rozporządzenie o ochronie danych (tzw. RODO). Wynika to z faktu, że oferuje ona swoje usługi (nie ma znaczenia czy oferowane usługi są płatne czy bezpłatne) obywatelom Unii Europejskiej. OpenAI podjęło już szereg działań zmierzających do podporządkowania się przepisom ochrony danych obowiązującym w Europie, między innymi zdecydowało się na stworzenie polityk ochrony danych dostosowanych do europejskich przepisów, dodane zostały przyciski potwierdzające ukończenie 13 oraz 18 lat a także umożliwiono użytkownikom rezygnację z wykorzystywania ich danych osobowych do trenowania algorytmów. Mimo tego, nadal (na dzień 8 maja 2023 roku) ChatGPT nie został „odblokowany” na terenie Włoch.
Ryzyka wynikające z korzystania z ChatGPT i podobnych modeli językowych
Aktualnie media obiegają informacje o kolejnych pracownikach zwolnionych z powodu użycia sztucznej inteligencji. Tak stało się m.in. w Samsungu, w przypadku którego po ujawnieniu czatowi poufnego kodu źródłowego przez jednego z pracowników, ChatGPT został zakazany w całej firmie. Rozmowa z czatem na temat naszej pracy może wiązać się z poważnym naruszeniem tajemnicy przedsiębiorstwa, ponieważ nie dość że udostępniamy poufne informacje zewnętrznej spółce (w tym przypadku OpenAI), to dodatkowo czat może uczyć się z zadawanych przez nas pytań i generować w przyszłości innym użytkownikom odpowiedzi zawierające podane przez nas dane. Również z tego powodu nie powinniśmy dzielić się z czatem prywatnymi informacjami. Ponadto należy zauważyć, że informacje generowane przez tego typu modele językowe mogą nie być poprawne merytorycznie lub nawet dyskryminować pewne grupy osób. Sytuacja taka nazywana jest dyskryminacją algorytmiczną i powstaje ona gdy algorytm generuje fałszywie pozytywne lub fałszywie negatywne wyniki przewidywań w odniesieniu do konkretnej grupy społecznej.
Kontrowersje związane z wykorzystywaniem i rozwojem sztucznej inteligencji
Elon Musk zaapelował o wstrzymanie prac nad sztuczną inteligencją na minimum 6 miesięcy, ponieważ jego zdaniem ludzkość nie jest jeszcze gotowa na tak zaawansowane systemy. Faktycznie, brakuje chociażby regulacji prawnych dotyczących sztucznej inteligencji, gdyż projekt unijnego rozporządzenia o roboczej nazwie AI Act jest dopiero tworzony, a jego wejście w życie planowane jest na 2025 rok. Jednym z większych problemów prawnych dotyczącej sztucznej inteligencji jest kwestia praw autorskich. Kto jest autorem dzieła stworzonego przez AI: użytkownik, który wydał systemowi polecenie, autor algorytmu, a może nikt? Podobną kwestią jest to, czy sztuczna inteligencja może popełnić plagiat jeśli generując obrazy w stylu danego artysty stworzy dzieło do złudzenia przypominające jego rzeczywiste obrazy lub ich fragmenty? Albo czy ktoś odpowie za sytuacje, w których sztuczna inteligencja „popełni przestępstwo”? Przywołać tu należy bardzo przykrą historię, wedle której obywatel Belgii miał popełnić samobójstwo, do którego namawiał go chatbot AI o nazwie Eliza. Znane są również sytuacje, w których dwa algorytmy należące do różnych spółek służące do dostosowywania cen produktów wchodzą ze sobą w zmowę cenową, bez woli i wiedzy podmiotów dla których ustalają ceny, naruszając przy tym reguły ochrony konkurencji.
Na powyższe pytania nie ustalono jeszcze jednoznacznych odpowiedzi, ponieważ brakuje nam jasnych regulacji prawnych w tym zakresie, co pokazuje, że (przynajmniej na razie) sztuczna inteligencja nie zabiera ludziom pracy, a dokłada jej prawnikom.