Naruszenie dóbr ososbistych przy korzystaniu ze sztucznej inteligencji
Naruszenie dóbr ososbistych przy korzystaniu ze sztucznej inteligencji
Abstrakt (PL)
Praca poświęcona jest analizie zjawiska deepfake w kontekście ochrony dóbr osobistych oraz innych zagrożeń prawnych i społecznych, jakie niesie za sobą rozwój generatywnej sztucznej inteligencji. Dynamiczny rozwój technologii umożliwiającej generowanie fałszywych treści audiowizualnych stwarza nowe wyzwania prawne i społeczne. Celem pracy było przedstawienie, w jaki sposób aktualne przepisy prawa cywilnego i regulacje europejskie odpowiadają na zagrożenia związane z rozprzestrzenianiem się technologii deepfake. Celem pracy była również analiza podmiotów odpowiedzialnych za rozwój i udostępnianie narzędzi umożliwiających tworzenie treści deepfake. W pierwszej kolejności omówiono podstawowe założenia funkcjonowania technologii deepfake oraz jej miejsce w ramach systemów sztucznej inteligencji, z uwzględnieniem regulacji unijnych zawartych w Akcie w sprawie sztucznej inteligencji. Szczególną uwagę poświęcono klasyfikacji poziomów ryzyka wynikającego z użytkowania takich systemów oraz wskazano najczęściej wykorzystywane narzędzia do tworzenia syntetycznych treści. Kolejny rozdział poświęcono analizie dóbr osobistych w kontekście nowych technologii. Szczegółowo omówiono takie dobra osobiste jak wizerunek, imię i nazwisko, głos, a także dobre imię i reputacja, wskazując, w jaki sposób mogą one zostać naruszone poprzez rozpowszechnianie deepfake'ów. W części trzeciej pracy skupiono się na innych aspektach prawnych związanych z deepfake'ami, takich jak naruszenia ochrony danych osobowych, a także przedstawiono przykłady sporów sądowych, w których bezprawne wykorzystanie technologii deepfake stanowiło główny przedmiot postępowania. W ostatnim rozdziale przeanalizowano dostępne środki ochrony przed deepfake'ami – zarówno na poziomie unijnym, jak i krajowym. Zwrócono uwagę na nieskuteczność obecnych procedur zgłaszania naruszeń i podkreślono konieczność wypracowania zrównoważonych rozwiązań, które z jednej strony zapewnią ochronę jednostki przed szkodliwymi skutkami wykorzystywania deepfake'ów, a z drugiej – nie naruszą podstawowych wartości, takich jak wolność słowa i prawo do ekspresji twórczej.
Abstrakt (EN)
This thesis is dedicated to the analysis of the phenomenon of deepfake in the context of protecting personal rights as well as other legal and social risks arising from the development of generative artificial intelligence. The rapid advancement of technology enabling the generation of false audiovisual content creates new legal and social challenges. The aim of this work was to present how current civil law provisions and European regulations respond to the threats associated with the dissemination of deepfake technology. The thesis also includes an analysis of the entities responsible for the development and provision of tools enabling the creation of deepfake content. Initially, the basic principles of deepfake technology functioning and its place within artificial intelligence systems were discussed, taking into account EU regulations included in the Artificial Intelligence Act. Particular attention was paid to the classification of risk levels arising from the use of such systems, as well as to the most commonly employed tools for creating synthetic content. The following chapter was devoted to the analysis of personal rights in the context of new technologies. Detailed consideration was given to personal rights such as image, first name and surname, voice, as well as good name and reputation, indicating how these may be violated through the dissemination of deepfakes. The third part of the thesis focused on other legal aspects related to deepfakes, such as violations of personal data protection, and presented examples of court cases where the unlawful use of deepfake technology constituted the main subject of proceedings. The final chapter analyzed available protective measures against deepfakes – both at the EU and national levels. Attention was drawn to the ineffectiveness of current procedures for reporting violations, and the necessity was emphasized to develop balanced solutions that, on the one hand, ensure protection of individuals from the harmful consequences of deepfake misuse, and on the other hand, do not infringe fundamental values such as freedom of speech and the right to creative expression.
Infringement of personal rights through the use of artificial intelligence