Praca magisterska
Brak miniatury
Licencja
Zjawisko dyskryminacji algorytmicznej. Sztuczna inteligencja jako zagrożenie dla ochrony praw podstawowych w Unii Europejskiej
dc.abstract.en | This paper is a comprehensive overview of the phenomenon of algorithmic discrimination, which occurs when automated decision-making systems cause or contribute to unjustified differential treatment of individuals on the basis of a protected characteristic. The focus of this study is primarily on discrimination resulting from the use of machine learning algorithms in generating or supporting the making of decisions (broadly understood as any outcome of algorithmic inference that directly or indirectly influences the choice between possible solutions). The first 3 chapters of this paper are devoted to a thorough outline of the issue at hand in terms of its social and technological components. The author discusses the phenomenon of discrimination itself, as well as the concepts related to artificial intelligence systems and the elements of their development process, in order to bring these two segments together in Chapter 3 and to present in detail the various potential sources of bias in algorithmic decision-making. The second part of the study consists of an analysis of the currently existing EU legal framework in terms of the possibilities and limitations in its application for the redress of algorithmic discrimination by affected individuals. Provisions allowing for the ex ante elimination of sources of bias arising in the development and use of algorithmic decision-making systems, including selected regulations of the newly adopted EU Artificial Intelligence Act, are also considered to a limited extent. The purpose of the study is to attempt to provide an understanding of the phenomenon of algorithmic discrimination and to analyse the available EU legal measures from the perspective of protecting the fundamental rights of the individual. |
dc.abstract.pl | Niniejsza praca stanowi kompleksowe omówienie zjawiska, jakim jest dyskryminacja algorytmiczna, do której dochodzi w sytuacji, gdy zautomatyzowane systemy podejmowania decyzji powodują nieuzasadnione odmienne traktowanie jednostek ze względu na ich cechę chronioną lub przyczyniają się do niego. Opracowanie skupia się przede wszystkim na dyskryminacji wynikającej ze stosowania algorytmów uczenia maszynowego w procesie generowania lub wspierania wydawania decyzji (rozumianych szeroko jako każdy wynik algorytmicznego wnioskowania, który bezpośrednio lub pośrednio wpływa na dokonanie wyboru między możliwymi rozwiązaniami). Pierwsze 3 rozdziały niniejszej pracy poświęcone są dokładnemu nakreśleniu omawianego zagadnienia pod kątem jego społecznych i technologicznych elementów. Autorka omawia samo zjawisko dyskryminacji, a także pojęcia związane z systemami sztucznej inteligencji i elementy procesu ich tworzenia, by w rozdziale 3 połączyć ze sobą te dwa segmenty i szczegółowo przedstawić różne potencjalne źródła stronniczości w procesie algorytmicznego podejmowania decyzji. Drugą część pracy stanowi analiza obecnie istniejących unijnych ram prawnych pod kątem możliwości i ograniczeń w ich zastosowaniu dla dochodzenia roszczeń z tytułu dyskryminacji algorytmicznej przez osoby nią dotknięte. W ograniczonym zakresie uwzględniono także przepisy pozwalające na eliminowanie ex ante źródeł stronniczości pojawiającej się podczas tworzenia i stosowania algorytmicznych systemów decyzyjnych, w tym wybrane regulacje nowo przyjętego unijnego Aktu w sprawie sztucznej inteligencji. Celem opracowania jest próba zrozumienia zjawiska, jakim jest dyskryminacja algorytmiczna oraz przeanalizowanie dostępnych unijnych środków prawnych z perspektywy ochrony praw podstawowych jednostki. |
dc.affiliation | Uniwersytet Warszawski |
dc.affiliation.department | Wydział Prawa i Administracji |
dc.contributor.author | Balcerzak, Maja |
dc.date.accessioned | 2025-01-09T12:44:23Z |
dc.date.available | 2025-01-09T12:44:23Z |
dc.date.defence | 2024-06-28 |
dc.date.issued | 2024 |
dc.date.submitted | 2024-06-18 |
dc.description.promoter | Zawidzka-Łojek, Anna |
dc.description.reviewer | Kułak, Maciej |
dc.description.reviewer | Zawidzka-Łojek, Anna |
dc.identifier.apd | 230164 |
dc.identifier.uri | https://repozytorium.uw.edu.pl//handle/item/162642 |
dc.language | pl |
dc.language.other | en |
dc.publisher | Uniwersytet Warszawski |
dc.rights | ClosedAccess |
dc.subject.en | Algorithmic discrimination |
dc.subject.en | artificial intelligence |
dc.subject.en | algorithmic decision-making |
dc.subject.en | algorithm |
dc.subject.en | the principle of non-discrimination |
dc.subject.en | fundamental rights |
dc.subject.en | anti-discrimination law |
dc.subject.en | data protection |
dc.subject.en | Artificial Intelligence Act |
dc.subject.en | machine learning. |
dc.subject.pl | Dyskryminacja algorytmiczna |
dc.subject.pl | sztuczna inteligencja |
dc.subject.pl | algorytmiczne podejmowanie decyzji |
dc.subject.pl | algorytm |
dc.subject.pl | zasada niedyskryminacji |
dc.subject.pl | prawa podstawowe |
dc.subject.pl | prawo antydyskryminacyjne |
dc.subject.pl | ochrona danych osobowych |
dc.subject.pl | Akt o sztucznej inteligencji |
dc.subject.pl | uczenie maszynowe. |
dc.title | Zjawisko dyskryminacji algorytmicznej. Sztuczna inteligencja jako zagrożenie dla ochrony praw podstawowych w Unii Europejskiej |
dc.title.alternative | The phenomenon of algorithmic discrimination. Artificial intelligence as a threat to the protection of fundamental rights in the European Union |
dc.type | MasterThesis |
dspace.entity.type | Publication |