Licencja
Propozycja integracyjnego, obiektowo-klasowego, klasyfikatora treści pornograficznych z udziałem małoletniego. Dostosowanie do wytycznych Unii Europejskiej w zakresie etyki godnej zaufania sztucznej inteligencji z perspektywy zastosowań w polskim wymiarze sprawiedliwości
ORCID
Abstrakt (PL)
Wprowadzenie. Treści pornograficzne z udziałem małoletnich (CSAM) stanowią materiały audiowizualne, w których prezentowana jest nagość i/lub aktywność wskazująca na kontekst seksualny z małoletnimi. Wprowadzenie skutecznego narzędzia informatycznego bazującego na uczeniu maszynowym do identyfikacji oraz klasyfikacji CSAM jest istotne z punktu widzenia seksuologii sądowej. Rozwiązanie takie przyczyni się do wyższej efektywności pracy biegłych z zakresu seksuologii oraz efektywniejszego wykrywania treści pornograficznych przez funkcjonariuszy policji. Tworzone w ten sposób narzędzie musi jednak odpowiadać wytycznym Komisji Europejskiej, w tym pozwalać na przedstawienie informacji dotyczącej wyjaśnialności klasyfikacji, która będzie zrozumiała dla ekspertów. Rozwiązanie powinno cechować się również wysoką dokładnością klasyfikacji, trafnością oraz właściwą adaptacją do potrzeb polskiego wymiaru sprawiedliwości. Cel. Celem badań było stworzenie rozwiązania technologicznego integrującego modele uczenia maszynowego (klasyfikacji i detekcji) odpowiadającego wytycznym Komisji Europejskiej w zakresie wytłumaczalności przyczyn klasyfikacji modelu. Metoda. Przeprowadzono wywiad technologiczny z przedstawicielami wymiaru sprawiedliwości, wskazano najbardziej pożądane funkcjonalności tworzonego rozwiązania technologicznego. Przeprowadzono badania prowadzące do wytrenowania możliwe najlepszych modeli uczenia maszynowego obejmujących zadania klasyfikacji binarnej, wieloklasowej oraz detekcji obiektów, tj. fragmentów ciała mających znaczenie przy analizie CSAM. Materiał treningowy, walidacyjny oraz zbiory testowe stanowiło łącznie 448.400 zdjęć, w tym 99.400 treści pornograficznych z udziałem małoletnich zabezpieczonych w toku spraw karnych. Przeprowadzono eksperymenty nad doborem możliwie najlepszej architektury sieci neuronowej. Dokonano modyfikacji algorytmu grad-CAM w celu uzyskania bardziej adekwatnego, z perspektywy klinicznej, wytłumaczenia dla klasyfikacji dokonywanej przez modele sieci. Wyniki. Dokładność klasyfikacji na materiale testowym dla sieci a1 (klasyfikacja binarna zdjęć ze względu na ich jakość) wynosiła 98%; dla sieci a2 (klasyfikacja czteroklasowa, w tym CSAM) wynosiła 92%; dla sieci am (przygotowanej dla aplikacji mobilnej) dokładność wynosiła 85%. W przypadku modelu detekcji obiektów najwyższą czułością detekcji charakteryzowała się sylwetka kobiet dojrzałych seksualnie (71%). Dyskusja. W wyniku prowadzonych badań stworzone zostało rozwiązanie informatyczne, które cechuje się wysoką dokładnością klasyfikacji CSAM. Zapewniono środowiska uruchomieniowe umożliwiające skorzystanie z rozwiązania pracownikom wymiaru sprawiedliwości, w tym wersję desktopową oraz aplikację mobilną. Podsumowanie. Z uwagi na satysfakcjonujące wyniki metryk uzyskane na materiale testowym oraz wprowadzoną modyfikację algorytmu grad-CAM, zaprezentowane rozwiązanie można uznać za zapewniające wystarczające wyjaśnienie dokonywanej predykcji do zastosowania w praktyce klinicznej, realizujące wytyczne Komisji Europejskiej w zakresie wyjaśnialności AI.
Abstrakt (EN)
Introduction. Child Sexual Abuse Material (CSAM) refers to audiovisual content that depicts nudity and/or sexual activity involving minors. The development of an effective computer-based tool based on machine learning for the identification and classification of CSAM is crucial from the perspective of forensic sexology. Such a solution would enhance the efficiency of sexology experts and improve the detection of pornographic materials by law enforcement officers. However, such solution must comply with the guidelines set by the European Commission, including providing information regarding the explainability of the classification that is understandable to experts. Additionally, the solution should exhibit high classification accuracy, validity, and proper adaptation to the needs of the Polish justice system. Objective. The research was aimed to develop a technological solution that integrates machine learning models (classification and detection) in accordance with the guidelines of the European Commission regarding the explainability of the classification. Method. A technological interview was conducted with representatives of the justice system to identify the most desired functionalities of the developed technological solution. Research was conducted leading to the training of the best possible machine learning models encompassing binary classification, multi-class classification, and object detection tasks, such as identifying body parts relevant to the analysis of CSAM. The training, validation, and test datasets comprised a total of 448.400 images, including 99,400 pornographic content involving minors secured during criminal cases. Experiments were conducted to select the best possible neural network architecture. The grad-CAM algorithm was modified to obtain a more clinically adequate explanation for the classifications made by the network models. Results. The classification accuracy on the test material for network a1 (binary classification of images based on their quality) was 98%; for network a2 (four-class classification, including CSAM) it was 92%; for network am (mobile) it was 85%. In the case of the object detection model, the highest sensitivity was characterized by the body of sexually mature women (71%). Discussion. The conducted research resulted in the development of a solution characterized by high accuracy in CSAM classification. Runtime environments were provided to enable the use of the solution by justice system personnel, including a desktop version and a mobile application. Conclusions. Due to the good parameters of the models and the modification of the grad-CAM algorithm, the presented solution can be considered to provide sufficient explanation for the predictions made, suitable for clinical practice, and compliant with the European Commission's guidelines on AI explainability.