Τεχνητή Νοημοσύνη και έμφυλες διακρίσεις: αντιλήψεις ειδικών πληροφορικής
Μεταπτυχιακή διπλωματική εργασία
Συγγραφέας
Σταύρου, Παναγιώτα
Ημερομηνία
2023-06-08Επιβλέπων
Παπαδιαμαντάκη, ΠαναγιώταΘεματική επικεφαλίδα
Τεχνητή νοημοσύνη ; Ταυτότητα φύλου ; Διακρίσεις φύλου ; Στερεότυπα (Κοινωνική ψυχολογία)Λέξεις κλειδιά
Τεχνητή Νοημοσύνη ; Αλγόριθμος ; Κοινωνικές διακρίσεις ; Έμφυλα στερεότυπα ; Διακρίσεις ; Προκαταλήψεις ; Artificial Intelligence ; Algorithm ; Discrimination ; Social discrimination ; Gender sterootypes ; PrejudicesΠερίληψη
Στην παρούσα εργασία προσπαθήσαμε να προσεγγίσουμε και να παρουσιάσουμε ένα
εξαιρετικά επίκαιρο ζήτημα προς διερεύνηση, το οποίο αποτελεί την ανάπτυξη των
συστημάτων με Τεχνητή Νοημοσύνη και των αλγόριθμων, όπου τα τελευταία χρόνια
εξελίσσονται διαρκώς. Σκοπός είναι να αναδείξουμε μέσα από την βιβλιογραφική
επισκόπηση και την υλοποίηση ποιοτικής έρευνας με την μέθοδο των ημιδομημένων
συνεντεύξεων αν μέσα από τα συστήματα αυτά αναπαράγονται ανισότητες,
προκαταλήψεις και στερεότυπα με βάση το φύλο.
Μέσα από ποιοτική έρευνα προσπαθήσαμε να προσεγγίσουμε και να αποτυπώσουμε τις
απόψεις που διαμορφώνουν τα άτομα, τα οποία εργάζονται σε τεχνολογικούς κλάδους και
έχουν άμεση επαφή και γνώση με το προς μελέτη αντικείμενο. Επιπροσθέτως, η διεξαγωγή
της έρευνας συνέβαλε σημαντικά στα συμπεράσματα που καταλήξαμε, καθότι φάνηκε ότι
αρκετοί από τους ερωτώμενους δεν είχαν σκεφτεί ποτέ ότι ένα σύστημα με Τεχνητή
Νοημοσύνη μπορεί να αναπαράγει μια σειρά προκαταλήψεων και διακρίσεων, ιδιαίτερα
όσο αναφορά τα δύο φύλα.
Καταληκτικά, μέσα από την μελέτη του παρόντος θέματος φάνηκε ότι ακόμα και τα
συστήματα με Τεχνητή Νοημοσύνη αναπαράγουν και εντείνουν τις διακρίσεις και τις
ανισότητες, όχι μόνο όσο αναφορά τα δύο φύλα, αλλά και συνολικά στις ευάλωτες ομάδες.
Οι αλγόριθμοι και τα συστήματα με Τεχνητή Νοημοσύνη αποτελούν ανθρώπινα
δημιουργήματα, όπου όπως φάνηκε μέσα από την μελέτη της βιβλιογραφίας και την
διεξαγωγή της έρευνας, μεροληπτούν και διαιωνίζουν απόψεις και στερεότυπα της ίδιας
της κοινωνίας που αναπτύσσονται. Ωστόσο, συχνά παρατηρείται μια προσπάθεια
αντιμετώπισης τέτοιων ζητημάτων, όταν προκύπτουν, ιδιαίτερα λόγω της υιοθέτησης μιας
σειράς πολιτικών της Ευρωπαϊκής Ένωσης για την προστασία των ανθρωπίνων
δικαιωμάτων μέσα από την χρήση τέτοιων τεχνολογιών.
Περίληψη
In this thesis we tried to approach and present an extremely modern issue, which is the
development of systems with Artificial Intelligence and the algorithm, who they have been
evolving in recent years. The purpose is to highlight, through the bibliographic review and
the implementation of qualitative research, with the method of semi-structured interviews,
if inequalities, prejudices and stereotypes based on gender are reproduced through these
systems.
Through qualitative research, we tried to approach and write down the opinion of people,
who work in technological industry and have direct contact and knowledge, with the
subject we are study. In addition, the conduct of the survey contributed significantly to the
conclusions we reached, as it appeared that several of the respondents had never considered
that an Artificial Intelligence system could reproduce a range of biases and discriminations,
particularly regarding the two sexes.
Finally, through the study of this topic, it was seen that even the systems with Artificial
Intelligence reproduce and intensify discrimination and inequalities, not only in reference
to the two sexes, but also in general to the vulnerable groups. Algorithms and systems with
Artificial Intelligence are human creations, where as it was seen through the study of the
bibliography and the conduct of the research, they discriminate and perpetuate the views
and stereotypes of the society. However, there is often an effort to address such issues,
when they arise, particularly due to the adoption of a series of European Union policies to
protect human rights through the use of such technologies.