Skuteczność versus wytłumaczalność: badanie intuicji moralnych dotyczących sztucznej inteligencji
Skuteczność versus wytłumaczalność: badanie intuicji moralnych dotyczących sztucznej inteligencji
Abstrakt (PL)
Wraz z coraz powszechniejszym wykorzystywaniem technologii sztucznej inteligencji (AI) jako narzędzia wspierającego procesy decyzyjne mające realny wpływ na życie jednostek, rośnie znaczenie pytania o to, jak - zdaniem społeczeństwa - powinna wyglądać etyczna i sprawiedliwa AI. Mimo ciągłego rozwoju uczenia maszynowego, nadal istnieją ograniczenia w możliwościach tej technologii i, aby tworzyć etyczną sztuczną inteligencję, musimy dokonać wyboru, które z jej cech są dla nas najważniejsze, ponieważ niektóre z nich wzajemnie się wykluczają. Dzieje się tak między innymi z wyjaśnialnością i skutecznością sztucznej inteligencji - istnieją wysoce skuteczne, ale skomplikowane modele, które są nieprzejrzyste nawet dla ich twórców lub prostsze, łatwe do zrozumienia systemy, które jednak częściej popełniają błędy. Niniejsza praca przyjmuje ten kompromis jako punkt wyjścia do analizy społecznych preferencji dotyczących tych dwóch cech etycznej AI w różnych kontekstach jej zastosowania, a także do refleksji etycznej nad konsekwencjami tego zjawiska. Praca obejmuje omówienie technicznych podstaw wyjaśniających działanie rozważanej technologii oraz opis przyczyn i możliwych rozwiązań kompromisu między skutecznością a wytłumaczalnością sztucznej inteligencji. Ponadto, zawiera analizę pozytywnych i negatywnych skutków etyczno-prawnego wymogu wyjaśnialności, przegląd literatury naukowej dotyczącej społecznych intuicji względem wyjaśnialności i efektywności AI oraz opis przeprowadzonego przez autorkę pracy eksploracyjnego badania empirycznego sprawdzającego, która z tych cech jest ważniejsza dla polskich respondentów w różnych kontekstach zastosowania AI.
Abstrakt (EN)
With the increasing use of artificial intelligence technology as a tool to support decision-making processes that have a real impact on the lives of individuals, the question of what society believes ethical and just artificial intelligence (AI) should look like is growing in importance. Despite the continued development of machine learning, there are still limitations to the capabilities of this technology and, in order to create ethical AI, we need to make choices about which of its features are most important to us, as some are mutually exclusive. This is the case, among others, with the explainability and effectiveness of artificial intelligence - there are highly effective but complex models that are opaque even to their creators, or simpler, easy-to-understand systems that nevertheless make mistakes more often. This thesis takes this trade-off as a starting point to analyse societal preferences regarding these two features of ethical AI in different contexts of its application, as well as to reflect ethically on its implications. This thesis includes a discussion of the technical basis for explaining the performance of the technology under consideration and a description of the causes and possible solutions to the trade-off between effectiveness and explainability of AI. In addition, it contains an analysis of the positive and negative effects of the ethical-legal explainability requirement, a review of the scientific literature on social intuitions towards explainability and effectiveness of AI, and a description of an exploratory empirical study conducted by the author of this thesis to check which of these characteristics is more important for Polish respondents in different contexts of AI application.
Effectiveness versus Explainability: A study of Moral Intuitions Concerning Artificial Intelligence