O Κανονισμός (Ε.Ε.) 2024/1689 («Νόμος για την Τεχνητή Νοημοσύνη») αντιπροσωπεύει ένα καθοριστικό βήμα στη ρύθμιση της τεχνητής νοημοσύνης από την Ευρωπαϊκή Ένωση. Σχεδιασμένος για να αντιμετωπίσει τόσο τις ευκαιρίες όσο και τους κινδύνους που προκύπτουν από την AI, ο Κανονισμός διασφαλίζει τη συμμόρφωση με τα θεμελιώδη δικαιώματα, όπως κατοχυρώνονται στον Χάρτη Θεμελιωδών Δικαιωμάτων της Ε.Ε. Από τη δημοσίευσή του στις 12 Ιουλίου 2024, ο Κανονισμός ακολουθεί μια σταδιακή εφαρμογή, με το κρίσιμο τμήμα για τις απαγορευμένες πρακτικές του Άρθρου 5 να καθίσταται εκτελεστό από τις 2 Φεβρουαρίου 2025.
Πεδίο εφαρμογής του άρθρου 5
Το Άρθρο 5 του Νόμου για την Τεχνητή Νοημοσύνη θεσπίζει ρητές απαγορεύσεις σε πρακτικές που θεωρούνται απαράδεκτες λόγω του υψηλού κινδύνου που ενέχουν για τα θεμελιώδη δικαιώματα, την κοινωνική συνοχή και τις αξίες της Ευρωπαϊκής Ένωσης. Στόχος του είναι η αποτροπή χρήσεων της τεχνητής νοημοσύνης που θα μπορούσαν να οδηγήσουν σε αυθαίρετο έλεγχο, εκμετάλλευση ή διάκριση εις βάρος ατόμων ή κοινωνικών ομάδων. Παράλληλα, διαμορφώνει ένα σαφές νομικό πλαίσιο που ενισχύει τη λογοδοσία και την ηθική χρήση της τεχνολογίας.
Η σημασία της διάταξης έγκειται στην εξασφάλιση ρυθμιστικής σαφήνειας, καθώς προσδιορίζει με ακρίβεια τις πρακτικές που κρίνονται μη αποδεκτές. Οι απαγορεύσεις του άρθρου συνάδουν με τον Χάρτη Θεμελιωδών Δικαιωμάτων της Ε.Ε., διασφαλίζοντας την προστασία της ανθρώπινης αξιοπρέπειας, του δικαιώματος στην ιδιωτικότητα και την αποτροπή διακρίσεων. Παράλληλα, καθιερώνουν ένα αυστηρό δεοντολογικό και νομικό πλαίσιο για τους παρόχους και χρήστες συστημάτων τεχνητής νοημοσύνης, απαιτώντας συμμόρφωση με τις αρχές διαφάνειας, ασφάλειας και υπευθυνότητας.
Για την αποτελεσματική εφαρμογή του, η Ευρωπαϊκή Επιτροπή εξέδωσε Κατευθυντήριες Οδηγίες στις 4 Φεβρουαρίου 2025, οι οποίες εξειδικεύουν τα όρια των απαγορεύσεων, παρέχουν μηχανισμούς συμμόρφωσης και επιβολής και περιγράφουν τη διαδικασία ελέγχου των εφαρμογών τεχνητής νοημοσύνης. Οι οδηγίες αυτές διασφαλίζουν ενιαία και συνεκτική εφαρμογή του Νόμου σε όλα τα κράτη μέλη, ενισχύοντας τη νομική ασφάλεια και τη συνοχή της ευρωπαϊκής ρύθμισης για την τεχνητή νοημοσύνη.
Υποσυνείδητη χειραγώγηση
Το Άρθρο 5(1)(α) του Νόμου για την Τεχνητή Νοημοσύνη απαγορεύει ρητά τη διάθεση στην αγορά, τη θέση σε λειτουργία ή τη χρήση συστημάτων τεχνητής νοημοσύνης που βασίζονται σε υποσυνείδητες τεχνικές, μεθόδους χειραγώγησης ή παραπλανητικούς μηχανισμούς με σκοπό τη διαστρέβλωση της συμπεριφοράς ενός ατόμου. Σύμφωνα με τον ορισμό του Νόμου, οι υποσυνείδητες τεχνικές περιλαμβάνουν οπτικές, ακουστικές ή γνωστικές επιρροές που δρουν πέρα από τη συνειδητή αντίληψη του χρήστη, καθιστώντας τον ευάλωτο σε χειραγώγηση. Η απαγόρευση ισχύει όταν τέτοιες τεχνικές επηρεάζουν ουσιωδώς τη συμπεριφορά του ατόμου, μειώνουν την ικανότητά του να λαμβάνει ενημερωμένες αποφάσεις και είναι πιθανό να προκαλέσουν σημαντική βλάβη (Κατευθυντήριες Οδηγίες της Επιτροπής, Ενότητα 3.2).
Η διάταξη αυτή εντάσσεται στη γενικότερη νομική προστασία της ανθρώπινης αξιοπρέπειας και της αυτονομίας, όπως αυτές κατοχυρώνονται στα Άρθρα 1 και 8 του Χάρτη Θεμελιωδών Δικαιωμάτων της Ε.Ε. Η Αιτιολογική Σκέψη 29 του Νόμου υπογραμμίζει ότι η χρήση τεχνολογιών που επιδρούν υποσυνείδητα στη συμπεριφορά ατόμων συνιστά σοβαρή παρέμβαση στην ελεύθερη βούληση και στην ικανότητά τους να λαμβάνουν αποφάσεις με βάση πλήρη και σαφή πληροφόρηση (Κατευθυντήριες Οδηγίες της Επιτροπής, Ενότητα 3.1).
Η χειραγώγηση αυτού του είδους θεωρείται εγγενώς καταναγκαστική, καθώς περιορίζει την ικανότητα του ατόμου να ενεργεί με ελεύθερη βούληση και πλήρη συνείδηση των συνεπειών. Η απαγόρευση επιβάλλει ευθύνη τόσο στους παρόχους όσο και στους χρήστες των συστημάτων τεχνητής νοημοσύνης. Οι πάροχοι οφείλουν να διασφαλίζουν ότι οι τεχνολογίες που αναπτύσσουν δεν περιλαμβάνουν μηχανισμούς υποσυνείδητης χειραγώγησης, είτε σκόπιμα είτε ακούσια. Οφείλουν, επίσης, να παρέχουν διαφάνεια στον σχεδιασμό και τη λειτουργία των συστημάτων τους και να εφαρμόζουν δικλείδες ασφαλείας για την αποφυγή παραβίασης της απαγόρευσης (Κατευθυντήριες Οδηγίες της Επιτροπής, Ενότητα 3.2.3).
Οι χρήστες των συστημάτων (deployers) φέρουν την υποχρέωση να διασφαλίζουν ότι οι εφαρμογές τεχνητής νοημοσύνης χρησιμοποιούνται σύμφωνα με τους νομικούς περιορισμούς, αποτρέποντας τη χρήση τους με τρόπο που εκμεταλλεύεται γνωστικές αδυναμίες ή υπονομεύει την ατομική αυτονομία. Ο Νόμος απαιτεί αυξημένη λογοδοσία και διαχείριση κινδύνων, διασφαλίζοντας ότι οι τεχνολογίες αυτές δεν χρησιμοποιούνται κατά τρόπο που θα μπορούσε να προκαλέσει βλάβη σε χρήστες ή καταναλωτές.
Χαρακτηριστικά παραδείγματα απαγορευμένων πρακτικών περιλαμβάνουν συστήματα τεχνητής νοημοσύνης που ενσωματώνουν υποσυνείδητα οπτικά ερεθίσματα σε διαφημίσεις, ώστε να επηρεάζουν τις αποφάσεις των καταναλωτών, καθώς και πλατφόρμες τυχερών παιχνιδιών που χρησιμοποιούν ανεπαίσθητα ερεθίσματα για να αυξήσουν τη δέσμευση των χρηστών και να επηρεάσουν τις συμπεριφορές στοιχηματισμού. Και στις δύο περιπτώσεις, η σκόπιμη διαστρέβλωση της συμπεριφοράς παραβιάζει το ρυθμιστικό πλαίσιο και υπονομεύει την προστασία των ατόμων και των καταναλωτών (Κατευθυντήριες Οδηγίες της Επιτροπής, Ενότητες 3.2.1 και 3.2.3).
Εκμετάλλευση ευπαθειών
Το Άρθρο 5(1)(β) του Νόμου για την Τεχνητή Νοημοσύνη απαγορεύει τη χρήση συστημάτων τεχνητής νοημοσύνης που εκμεταλλεύονται ευπάθειες ατόμων, οι οποίες βασίζονται στην ηλικία, την αναπηρία ή τις κοινωνικοοικονομικές τους συνθήκες. Η διάταξη αυτή αποσκοπεί στην προστασία των ευάλωτων ομάδων από πρακτικές που τους χειραγωγούν ή τους επιβαρύνουν.
Παραδείγματα τέτοιων πρακτικών περιλαμβάνουν συστήματα τεχνητής νοημοσύνης που στοχεύουν ανθρώπους σε οικονομική δυσχέρεια, προωθώντας δάνεια με υπερβολικά υψηλά επιτόκια, ή παιδικές εφαρμογές που ενσωματώνουν εθιστικούς μηχανισμούς για να ενθαρρύνουν υπερβολικές αγορές εντός της εφαρμογής.Η διάταξη αυτή θεμελιώνεται στα Άρθρα 21 και 24 του Χάρτη Θεμελιωδών Δικαιωμάτων της Ευρωπαϊκής Ένωσης, που προστατεύουν από διακρίσεις και διασφαλίζουν τα δικαιώματα των ευάλωτων πληθυσμιακών ομάδων.
Η Αιτιολογική Σκέψη 17 υπογραμμίζει ότι η χρήση τεχνητής νοημοσύνης δεν πρέπει να χειραγωγεί ή να ασκεί αδικαιολόγητες επιρροές σε άτομα που, λόγω των προσωπικών τους συνθηκών, βρίσκονται σε κατάσταση ευαλωτότητας.Οι πάροχοι συστημάτων τεχνητής νοημοσύνης υποχρεούνται να διεξάγουν εκτιμήσεις αντίκτυπου για τον εντοπισμό και τη μείωση των κινδύνων που ενδέχεται να προκύψουν για ευάλωτες ομάδες. Πρέπει επίσης να αποδεικνύουν ότι τα συστήματά τους έχουν σχεδιαστεί με ηθικές αρχές, αποφεύγοντας τη δυσανάλογη στόχευση ή τη βλάβη συγκεκριμένων πληθυσμιακών ομάδων.
Για παράδειγμα, αλγόριθμοι που προτείνουν δάνεια payday (με υπερβολικά επιτόκια) σε άτομα σε δυσχερή οικονομική κατάσταση χωρίς επαρκή πληροφόρηση για τους κινδύνους ή τις συνέπειες, θα θεωρούνται μη συμμορφούμενοι. Ομοίως, εφαρμογές που απευθύνονται σε παιδιά και χρησιμοποιούν τεχνητή νοημοσύνη για να ενθαρρύνουν υπερβολικές ή ακατάλληλες αγορές εντός της εφαρμογής ενδέχεται να υπόκεινται στους ίδιους περιορισμούς.
Συστήματα Κοινωνικής Βαθμολόγησης
Το Άρθρο 5(1)(γ) του Νόμου για την Τεχνητή Νοημοσύνη απαγορεύει γενικά τόσο στους δημόσιους όσο και στους ιδιωτικούς φορείς να εφαρμόζουν συστήματα AI για την αξιολόγηση ή την ταξινόμηση ατόμων με βάση τη συμπεριφορά τους ή τα προσωπικά τους χαρακτηριστικά σε μια δεδομένη χρονική περίοδο. Αυτή η απαγόρευση έχει σχεδιαστεί για να αποτρέψει πρακτικές που οδηγούν σε επιβλαβή ή δυσμενή μεταχείριση σε άσχετα κοινωνικά πλαίσια ή σε μεταχείριση που είναι αδικαιολόγητη ή δυσανάλογη προς τη συμπεριφορά που αξιολογείται. Αυτές οι πρακτικές θεωρούνται εγγενώς διακριτικές, καθώς ενισχύουν τον κοινωνικό αποκλεισμό και τη συστημική ανισότητα (Κατευθυντήριες Οδηγίες της Επιτροπής, Ενότητα 4.2).
Σύμφωνα με το άρθρο 5 παράγραφος 1 στοιχείο γ) του νόμου περί τεχνητής νοημοσύνης, η απαγόρευση της κοινωνικής βαθμολόγησης ισχύει ευρέως τόσο σε δημόσιους όσο και σε ιδιωτικούς φορείς που εφαρμόζουν συστήματα τεχνητής νοημοσύνης για την αξιολόγηση ή την ταξινόμηση ατόμων με βάση την κοινωνική τους συμπεριφορά ή τα προσωπικά τους χαρακτηριστικά για μια συγκεκριμένη χρονική περίοδο.
Αυτή η απαγόρευση έχει σχεδιαστεί για να αποτρέπει επιβλαβείς πρακτικές που καταλήγουν σε επιζήμια ή δυσμενή μεταχείριση σε άσχετα κοινωνικά πλαίσια ή μεταχείριση που είναι αδικαιολόγητη ή δυσανάλογη με την αξιολογούμενη κοινωνική συμπεριφορά. Αυτές οι πρακτικές θεωρούνται εγγενώς μεροληπτικές, ενισχύοντας τον κοινωνικό αποκλεισμό και τη συστημική ανισότητα (Κατευθυντήριες γραμμές, Ενότητα 4.2).
Η νομική βάση αυτής της απαγόρευσης εδράζεται στα άρθρα 1 και 21 του Χάρτη των Θεμελιωδών Δικαιωμάτων της Ε.Ε., τα οποία κατοχυρώνουν την ανθρώπινη αξιοπρέπεια και την απαγόρευση των διακρίσεων. Η αιτιολογική σκέψη 31 του νόμου περί τεχνητής νοημοσύνης ενισχύει τη λογική αυτής της διάταξης, τονίζοντας ότι οι πρακτικές κοινωνικής βαθμολόγησης συχνά στερούνται διαφάνειας, βασίζονται σε αυθαίρετες πηγές δεδομένων και καταλήγουν σε επιζήμια μεταχεί-ριση που δεν συνάδει με τις αρχές της δικαιοσύνης και της ισότητας. Τέτοιες πρακτικές βαθμολόγησης είναι ασυμβίβαστες με τις αξίες της Ένωσης, συμπεριλαμβα-νομένης της δημοκρατίας και της ισότητας, και θεωρούνται ασυμβίβαστες με τα θεμελιώδη δικαιώματα, συμπεριλαμβανομένου του δικαιώματος στην ιδιωτική και οικογενειακή ζωή και την προστασία των δεδομένων (Κατευθυντήριες γραμμές, Ενότητα 4.1).
Για να εμπίπτει στην απαγόρευση του άρθρου 5 παράγραφος 1 στοιχείο γ), πρέπει να πληρούνται οι ακόλουθες σωρευτικές προϋποθέσεις: το σύστημα τεχνητής νοημοσύνης πρέπει να διατίθεται στην αγορά, να τεθεί σε λειτουργία ή να χρησιμοποιηθεί. πρέπει να προορίζεται για την αξιολόγηση ή την ταξινόμηση ατόμων με βάση την κοινωνική συμπεριφορά ή τα προσωπικά τους χαρακτηριστικά· και η βαθμολόγηση πρέπει να έχει ως αποτέλεσμα ή να μπορεί να οδηγήσει σε επιζήμια ή δυσμενή μεταχείριση είτε σε άσχετα κοινωνικά πλαίσια είτε με τρόπους που είναι αδικαιολόγητοι ή δυσανάλογοι προς τη συμπεριφορά που αξιολογήθηκε (Οδηγίες, Ενότητα 4.2.2).
Παραδείγματα απαγορευμένων πρακτικών περιλαμβά-νουν συστήματα τεχνητής νοημοσύνης που συνδυάζουν δεδομένα από άσχετα περιβάλλοντα, όπως κακό ιστορικό οδήγησης που χρησιμοποιείται για την άρνηση πρόσβασης σε χρηματοοικονομικές υπηρεσίες ή βαθμολόγηση ατόμων με βάση συναγόμενα ή προβλεπόμενα χαρακτηριστικά, που οδηγεί σε μεροληπτική ή αποκλειστική μεταχείριση. Αυτές οι πρακτικές απαγορεύονται ρητά όταν στερούνται διαφάνειας ή διαδικαστικών διασφαλίσεων, όπως μηχανισμοί για να αμφισβητήσουν τα άτομα τις βαθμολογίες τους (Κατευθυντήριες γραμμές, Ενότητα 4.2.3). Για παράδειγμα, η αξιολόγηση πιστοληπτικής ικανότητας με βάση το οικονομικό ιστορικό ή τα συστή-ματα ανίχνευσης απάτης που βασίζονται σε επαληθεύ-σιμα δεδομένα δεν εμπίπτουν στο πεδίο εφαρμογής της απαγόρευσης, υπό την προϋπόθεση ότι συμμορφώνονται με τις αρχές της διαφάνειας, της συνάφειας και της αναλογικότητας στο σχεδιασμό και τη χρήση τους (Οδηγίες, Ενότητα 4.3).
Προληπτική Αστυνόμευση
Η χρήση τεχνητής νοημοσύνης (ΤΝ) για προγνωστική αστυνόμευση πρέπει να γίνεται με απόλυτο σεβασμό στα θεμελιώδη δικαιώματα και την ανθρώπινη αξιοπρέπεια. Σύμφωνα με τις Κατευθυντήριες Γραμμές της Ευρωπαϊκής Επιτροπής, συστήματα που βασίζονται σε μη επαληθευμένους συσχετισμούς—όπως αυτά που χρησιμοποιούν οικογενειακές ή κοινωνικές συνδέσεις—θεωρούνται επικίνδυνα, καθώς ενισχύουν τις προκαταλήψεις και στιγματίζουν άτομα ή ομάδες. Αυτά τα συστήματα είναι παράνομα, καθώς δεν στηρίζονται σε αντικειμενικά και επαληθεύσιμα δεδομένα (Κατευ-θυντήριες Γραμμές της Επιτροπής, Ενότητα 5.2.2).
Αντίθετα, υπάρχουν συγκεκριμένες χρήσεις της ΤΝ που επιτρέπονται για την προληπτική αστυνόμευση. Για παράδειγμα, η χαρτογράφηση εγκλήματος μέσω ΤΝ, η οποία αναλύει ιστορικά δεδομένα για να εντοπίσει περιοχές με υψηλότερα ποσοστά εγκληματικότητας, θεωρείται νόμιμη. Αυτό συμβαίνει επειδή επικεντρώνεται σε γεωγραφικές τάσεις και όχι σε μεμονωμένα άτομα. Επιπλέον, επιτρέπονται τα συστήματα ΤΝ που βοηθούν τις αστυνομικές αρχές στις αξιολογήσεις τους, αρκεί να διατηρείται η ανθρώπινη εποπτεία. Η τεχνητή νοημοσύνη δεν μπορεί να λαμβάνει αποφάσεις αυτόνομα—ο ρόλος της είναι να παρέχει υποστήριξη και όχι να αντικαθιστά την ανθρώπινη κρίση. Για να είναι νόμιμα, αυτά τα συστήματα πρέπει να βασίζονται σε επαληθεύσιμα δεδομένα που συνδέονται άμεσα με πραγματικές εγκληματικές συμπεριφορές και να λειτουργούν με αρχές όπως η διαφάνεια, η λογοδοσία και η αναλογικότητα (Κατευθυντήριες Γραμμές της Επιτροπής, Ενότητα 5.3).
Η απαγόρευση των μη αξιόπιστων προγνωστικών συστημάτων αντικατοπτρίζει τη γενικότερη φιλοσοφία του νόμου για την τεχνητή νοημοσύνη: να αποτρέψει την κακή χρήση της τεχνολογίας με τρόπους που υπονομεύουν τη δικαιοσύνη, τη νομική ασφάλεια και την προσωπική αυτονομία. Οι πάροχοι και προγραμματιστές συστημάτων τεχνητής νοημοσύνης έχουν την ευθύνη να διασφαλίζουν ότι τα συστήματά τους συμμορφώνονται με το άρθρο 5(1)(δ) του νόμου.
Αυτό σημαίνει ότι πρέπει να ενσωματώνουν εγγυήσεις όπως η διαφάνεια, η ανθρώπινη εποπτεία και η αυστηρή τήρηση των αρχών του περιορισμού του σκοπού και της ελαχιστοποίησης των δεδομένων.
Τέλος, οι Κατευθυντήριες Γραμμές της Επιτροπής επιση-μαίνουν ότι οποιαδήποτε απόκλιση από αυτούς τους κανόνες — και ειδικά η χρήση προφίλ ατόμων ή ευαίσθητων χαρακτηριστικών για προγνωστικούς σκοπούς — παραβιάζει το νόμο και μπορεί να επιφέρει αυστηρές κυρώσεις (Κατευθυντήριες Γραμμές της Επιτροπής, Ενότητα 5.4).
Ομοίως, συστήματα πρόβλεψης που βασίζονται σε μη επαληθευμένους συσχετισμούς, όπως αυτά που χρησιμοποιούν οικογενειακές ή κοινωνικές συνδέσεις, διαιωνίζουν συστημικές προκαταλήψεις και στιγματισμό, καθιστώντας τα παράνομα (Κατευθυντήριες γραμμές της Επιτροπής, Ενότητα 5.2.2). Οι επιτρεπόμενες χρήσεις συστημάτων τεχνητής νοημοσύνης για προγνωστική αστυνόμευση περιγράφονται σαφώς στις οδηγίες.
Επιπλέον, τα συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να βοηθούν στις αξιολογήσεις της ανθρώ-πινης αστυνομίας επιτρέπονται, εφόσον χρησιμεύουν ως εργαλεία υποστήριξης της λήψης αποφάσεων, υπό την προϋπόθεση ότι διατηρείται η ανθρώπινη εποπτεία και η τεχνητή νοημοσύνη δεν λαμβάνει αυτόνομα τελικές αποφάσεις. Τέτοια συστήματα πρέπει να ενσωματώνουν επαληθεύσιμα στοιχεία που συνδέονται άμεσα με συγκεκριμένες εγκληματικές συμπεριφορές και να τηρούν τις αρχές της λογοδοσίας, της διαφάνειας και της αναλογικότητας (Κατευθυντήριες γραμμές της Επιτροπής, Ενότητα 5.3).
Αυτή η απαγόρευση αντικατοπτρίζει τους ευρύτερους στόχους του νόμου περί τεχνητής νοημοσύνης, οι οποίοι αποσκοπούν στην πρόληψη της κακής χρήσης των τεχνολογιών τεχνητής νοημοσύνης με τρόπους που υπονομεύουν τη δικαιοσύνη, τη νομική ασφάλεια και την ατομική αυτονομία.
Οι πάροχοι και οι προγραμματιστές συστημάτων τεχνητής νοημοσύνης πρέπει να διασφαλίζουν τη συμμόρφωση με το άρθρο 5, παράγραφο 1, στοιχείο (δ), εφαρμόζοντας διασφαλίσεις όπως η διαφάνεια, η ανθρώπινη εποπτεία και η τήρηση των αρχών του περιορισμού του σκοπού και της ελαχιστοποίησης των δεδομένων. Οι κατευθυντήριες γραμμές τονίζουν περαιτέρω ότι οποιαδήποτε απόκλιση από αυτές τις υποχρεώσεις, ιδιαίτερα η εξάρτηση από το προφίλ ή τα ευαίσθητα χαρακτηριστικά για προγνωστικούς σκοπούς, συνιστά παραβίαση του νόμου και εκθέτει τους παραβάτες σε σημαντικές κυρώσεις (Κατευθυντήριες γραμμές της Επιτροπής, Ενότητα 5.4).
Βάσεις Δεδομένων Αναγνώρισης Προσώπου
Σύμφωνα με τον νόμο περί τεχνητής νοημοσύνης, απαγορεύεται αυστηρά η χρήση ή η ανάπτυξη συστημάτων που δημιουργούν ή επεκτείνουν βάσεις δεδομένων αναγνώρισης προσώπου, εφόσον αυτές βασίζονται στη μαζική και αδιάκριτη συλλογή εικόνων προσώπων από το Διαδίκτυο ή από πλάνα CCTV. Αυτή η απαγόρευση προστατεύει το δικαίωμα στην ιδιωτικότητα και τα προσωπικά δεδομένα, σύμφωνα με τα Άρθρα 7 και 8 του Χάρτη Θεμελιωδών Δικαιωμάτων της Ε.Ε. Ο νόμος αναγνωρίζει τους σοβαρούς κινδύνους που προκύπτουν από τέτοιες πρακτικές, καθώς υπονομεύουν την ανωνυμία και ενισχύουν την αίσθηση της μαζικής παρακολούθησης.
Για να θεωρηθεί παράνομη η χρήση ενός συστήματος τεχνητής νοημοσύνης, πρέπει να συντρέχουν τέσσερις προϋποθέσεις. Πρώτον, να αφορά την ανάπτυξη ή χρήση ενός συστήματος τεχνητής νοημοσύνης. Δεύτερον, να έχει ως σκοπό τη δημιουργία ή την επέκταση βάσεων δεδομένων αναγνώρισης προσώπου. Τρίτον, να χρησιμοποιεί μη στοχευμένη απόξεση εικόνων προσώπων, δηλαδή αδιάκριτη συλλογή δεδομένων. Τέταρτον, οι εικόνες να προέρχονται από δημόσιες πηγές, όπως το Διαδίκτυο ή κάμερες CCTV. Αν πληρούνται όλες αυτές οι συνθήκες, τότε η πρακτική αυτή απαγορεύεται.
Η μη στοχευμένη απόξεση αναφέρεται στη μαζική, αυτοματοποιημένη συλλογή εικόνων προσώπων μέσω ανιχνευτών ιστού ή ρομπότ, χωρίς τη συναίνεση των ατόμων. Συνήθως, αυτές οι εικόνες προέρχονται από κοινωνικά δίκτυα ή κάμερες δημόσιων χώρων. Μια τέτοια πρακτική αντιβαίνει στις αρχές της προστασίας δεδομένων και της ιδιωτικότητας.
Παράνομη είναι η χρήση τεχνητής νοημοσύνης για τη συλλογή φωτογραφιών προσώπων από μέσα κοινωνικής δικτύωσης και η ενσωμάτωσή τους σε εμπορικά συστήματα αναγνώρισης προσώπου. Αντίθετα, η στοχευμένη απόξεση δεν εμπίπτει σε αυτή την απαγόρευση.
Για παράδειγμα, οι αρχές μπορούν να χρησιμοποιούν τεχνητή νοημοσύνη για να εντοπίσουν έναν ύποπτο που εμπλέκεται σε εγκληματικές ενέργειες, καθώς αυτή είναι μια συγκεκριμένη και δικαιολογημένη χρήση. Επίσης, η συλλογή βιομετρικών δεδομένων που δεν περιλαμβάνει εικόνες προσώπων ή η χρήση συνθετικών εικόνων για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης δεν εμπίπτει στους περιορισμούς. Η μαζική συλλογή εικόνων προσώπων παραβιάζει όχι μόνο τον νόμο για την τεχνητή νοημοσύνη αλλά και το υφιστάμενο νομικό πλαίσιο της Ε.Ε. για την προστασία δεδομένων, όπως ο GDPR, το EUDPR και το LED. Για να αποφευχθούν παραβιάσεις, οι πάροχοι και προγραμματιστές συστημάτων τεχνητής νοημοσύνης πρέπει να τηρούν αυστηρές αρχές, όπως ο περιορισμός του σκοπού, η ελαχιστοποίηση των δεδομένων και η υποχρέωση λογοδοσίας, ώστε να διασφαλίζεται η διαφάνεια και ο έλεγχος.
Η Ε.Ε. θέτει αυστηρούς κανόνες για την τεχνητή νοημοσύνη ώστε να προστατεύει τα θεμελιώδη δικαιώματα των πολιτών και να αποτρέπει πρακτικές που οδηγούν σε μαζική παρακολούθηση ή αδικαιολόγητη συλλογή δεδομένων. Οι εταιρείες και οι φορείς που αναπτύσσουν τέτοια συστήματα έχουν την υποχρέωση να συμμορφώνονται με αυτά τα νομικά πρότυπα και να διασφαλίζουν την προστασία της ιδιωτικότητας των πολιτών.
Χρήση Συστημάτων Αναγνώρισης Συναισθημάτων σε Εργασιακούς και Εκπαιδευτικούς Χώρους
Το άρθρο 5(1)(στ) του νόμου περί τεχνητής νοημοσύνης και η αιτιολογική σκέψη 44 ορίζουν ότι απαγορεύεται η διάθεση στην αγορά, η χρήση ή η εφαρμογή συστημάτων τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να ανιχνεύουν ή να ερμηνεύουν συναισθήματα ανθρώπων σε χώρους εργασίας και εκπαιδευτικά ιδρύματα. Η απαγόρευση αυτή βασίζεται στις σοβαρές ανησυχίες που εγείρονται για την επιστημονική εγκυρότητα και αξιοπιστία αυτών των συστημάτων, καθώς οι συναισθη-ματικές εκφράσεις διαφέρουν σημαντικά ανάλογα με τον πολιτισμό, το κοινωνικό πλαίσιο, ακόμα και τον ίδιο το χρήστη σε διαφορετικές χρονικές στιγμές.
Οι εγγενείς περιορισμοί αυτών των τεχνολογιών, όπως η έλλειψη ακρίβειας, η περιορισμένη γενικευσιμότητα και ο κίνδυνος διακρίσεων, προκαλούν σοβαρά ηθικά και νομικά ζητήματα.
Επιπλέον, η χρήση συστημάτων τεχνητής νοημοσύνης για την ερμηνεία συναισθημάτων σε τέτοια περιβάλλοντα θεωρείται εξαιρετικά παρεμβατική και μπορεί να δημιουργήσει ανισορροπία δύναμης μεταξύ εργοδοτών και εργαζομένων ή μεταξύ εκπαιδευτικών και μαθητών. Τέτοιες πρακτικές ανάλυσης συναισθημάτων μέσω τεχνητής νοημοσύνης ενδέχεται να οδηγήσουν σε άδικη ή προκατειλημμένη μεταχείριση ατόμων ή ομάδων, παραβιάζοντας θεμελιώδη δικαιώματα και ελευθερίες.
Ωστόσο, ο νόμος περί τεχνητής νοημοσύνης προβλέπει μια στενά ορισμένη εξαίρεση σε αυτή την απαγόρευση. Συγκεκριμένα, επιτρέπεται η χρήση συστημάτων τεχνητής νοημοσύνης για την ανίχνευση συναισθημάτων μόνο για αυστηρά ιατρικούς ή λόγους ασφαλείας, υπό την προϋπόθεση ότι η χρήση τους δικαιολογείται από νόμιμους θεραπευτικούς ή σχετικούς με την ασφάλεια στόχους. Ακόμα και σε αυτές τις περιπτώσεις, τα συστήματα αυτά πρέπει να συμμορφώνονται με τις ισχύουσες ρυθμίσεις, περιλαμβανομένων των κανόνων για την προστασία δεδομένων και των διασφαλίσεων θεμελιωδών δικαιωμάτων, διασφαλίζοντας ότι η εφαρμογή τους δεν προκαλεί αδικαιολόγητη βλάβη ή διακρίσεις.
Εκτός των περιπτώσεων αυτών, οποιαδήποτε οντότητα εμπλέκεται στην εμπορευματοποίηση, την εφαρμογή ή τη χρήση συστημάτων τεχνητής νοημοσύνης για την αναγνώριση συναισθημάτων σε εργασιακούς ή εκπαιδευτικούς χώρους θα βρίσκεται σε παραβίαση του νόμου περί τεχνητής νοημοσύνης και θα υπόκειται σε κανονιστική επιβολή και κυρώσεις, όπως ορίζει το σχετικό νομικό πλαίσιο.).
Νομικές και ηθικές αιτιολογήσεις για απαγορευμένες πρακτικές
Οι απαγορεύσεις που περιγράφονται στο Άρθρο 5 έχουν τις ρίζες τους στις θεμελιώδεις αρχές και αξίες της Ευρωπαϊκής Ένωσης, όπως αυτές κατοχυρώνονται στις συνθήκες της Ε.Ε. και στον Ευρωπαϊκό Χάρτη Θεμελιωδών Δικαιωμάτων. Ο στόχος της Πράξης είναι να προάγει μια ανθρωποκεντρική προσέγγιση στην τεχνητή νοημοσύνη, διασφαλίζοντας ότι οι εφαρμογές της δεν οδηγούν σε διακρίσεις, εκμετάλλευση ή διάβρωση της εμπιστοσύνης του κοινού. Οι αιτιολογικές σκέψεις που συνοδεύουν τις απαγορεύσεις παρέχουν σαφήνεια και ασφάλεια δικαίου, ενώ παράλληλα αποτρέπουν τον κατακερματισμό των κανονιστικών ρυθμίσεων. Με αυτό τον τρόπο, οι απαγορεύσεις λειτουργούν ως φραγμός απέναντι σε ανήθικες πρακτικές και προωθούν την ανάπτυξη συστημάτων τεχνητής νοημοσύνης που σέβονται τις κοινωνικές αξίες και τα θεμελιώδη δικαιώματα.
Υποχρέωση εγγραμματοσύνης στην τεχνητή νοημοσύνη
Από τις 2 Φεβρουαρίου 2025, όλοι οι πάροχοι και οι φορείς που εφαρμόζουν συστήματα τεχνητής νοημοσύνης, ανεξαρτήτως του επιπέδου κινδύνου, υποχρεούνται να εκπαιδεύουν το προσωπικό τους στη χρήση και διαχείριση αυτών των τεχνολογιών. Αυτό σημαίνει ότι εταιρείες και δημόσιοι οργανισμοί πρέπει να εξασφαλίζουν ότι οι υπάλληλοί τους κατανοούν τη φύση και τις δυνατότητες της τεχνητής νοημοσύνης. Το επίπεδο γνώσεων που απαιτείται εξαρτάται από τη συγκεκριμένη χρήση. Για παράδειγμα, μια εταιρεία ηλεκτρονικού εμπορίου που χρησιμοποιεί τεχνητή νοημοσύνη για να προτείνει προϊόντα έχει διαφορετικές ανάγκες εκπαίδευσης από μια επιχείρηση που την εφαρμόζει σε διαδικασίες πρόσληψης προσωπικού.
Ευθύνες Ενδιαφερομένων και Μέτρα Συμμόρφωσης
Οι πάροχοι, οι αναδόχοι και οι νομικοί σύμβουλοι που εμπλέκονται στην ανάπτυξη και διάθεση συστημάτων τεχνητής νοημοσύνης υπέχουν νομική υποχρέωση να διασφαλίζουν τη συμμόρφωση με τις διατάξεις του Άρθρου 5 του Νόμου για την Τεχνητή Νοημοσύνη. Η υποχρέωση αυτή περιλαμβάνει την εκτίμηση και κατηγοριοποίηση των συστημάτων τους, σύμφωνα με τον προβλεπόμενο σκοπό, το επίπεδο κινδύνου και τον δυνητικό τους αντίκτυπο. Δημόσιοι και ιδιωτικοί φορείς επιφορτίζονται με τη δημιουργία και τήρηση Μητρώου Συστημάτων Τεχνητής Νοημοσύνης, προκειμένου να διασφαλίζεται η παρακολούθηση, η καταγραφή και η συμμόρφωση των σχετικών εφαρμογών.
Σε μεταγενέστερο στάδιο, οι πάροχοι και οι προγραμματιστές οφείλουν να αξιολογήσουν εάν τα συστήματα τεχνητής νοημοσύνης που διαθέτουν στην αγορά ή θέτουν σε λειτουργία υπάγονται στο πεδίο εφαρμογής του Άρθρου 5. Η διαδικασία αυτή απαιτεί διεξοδική ανάλυση του σχεδιασμού, των λειτουργικών χαρακτηριστικών και των μηχανισμών αλληλεπίδρασης με τους τελικούς χρήστες, καθώς και κατηγοριοποίηση των συστημάτων με βάση το επίπεδο κινδύνου που ενδέχεται να παρουσιάζουν, σύμφωνα με το εκάστοτε ρυθμιστικό πλαίσιο.
Ο σκοπός των εν λόγω ρυθμίσεων είναι η καθιέρωση ενός νομικά δεσμευτικού πλαισίου που διασφαλίζει την υπεύθυνη και ηθική ανάπτυξη της τεχνητής νοημοσύνης, με ταυτόχρονη προστασία των θεμελιωδών δικαιωμάτων και των κοινωνικών αξιών, όπως κατοχυρώνονται στο ευρωπαϊκό και εθνικό δίκαιο.
Οι προγραμματιστές και οι πάροχοι τεχνητής νοημοσύ-νης φέρουν την ευθύνη να διενεργούν λεπτομερείς νομικές και ηθικές αξιολογήσεις, ιδίως όταν οι εφαρμογές τους χρησιμοποιούνται σε περιβάλλοντα υψηλού κινδύνου. Οφείλουν να διασφαλίζουν ότι τα συστήματά τους συμμορφώνονται πλήρως με τις απαγορεύσεις του Άρθρου 5 και δεν εμπίπτουν σε πρακτικές που ενδέχεται να παραβιάσουν τις αρχές της διαφάνειας, της ασφάλειας και της λογοδοσίας.
Ειδικότερες υποχρεώσεις επιβάλλονται στις μεσαίες και μεγάλες επιχειρήσεις, οι οποίες, σύμφωνα με τον Νόμο 4160/2022, υποχρεούνται να εγγράφουν τα συστήματα τεχνητής νοημοσύνης τους στο εθνικό μητρώο τεχνητής νοημοσύνης και να τηρούν τις αρχές του Κώδικα Δεοντολογίας Τεχνητής Νοημοσύνης.
Ο Κώδικας αυτός καθορίζει τις βέλτιστες πρακτικές που πρέπει να ακολουθούνται, συμπεριλαμβανομένης της διαχείρισης κινδύνων, των αυξημένων απαιτήσεων διαφάνειας και της διαρκούς παρακολούθησης της συμμόρφωσης με τους κανονισμούς της Ευρωπαϊκής Ένωσης.
Ένα από τα βασικά μέτρα συμμόρφωσης είναι η υποχρέ-ωση των επιχειρήσεων να διατηρούν επικαιροποιημένα στοιχεία στο εθνικό μητρώο, παρέχοντας σαφείς πληροφορίες για τον σκοπό, το πεδίο εφαρμογής και τον αντίκτυπο των συστημάτων τους. Αυτή η διαδικασία διευκολύνει τον εποπτικό έλεγχο και διασφαλίζει ότι οι τεχνολογικές εξελίξεις εντάσσονται σε ένα σαφές ρυθμιστικό πλαίσιο που προστατεύει τόσο τους χρήστες όσο και τη δημόσια τάξη.
Παράλληλα, οι νομικοί διαδραματίζουν καθοριστικό ρόλο στη διασφάλιση της συμμόρφωσης των οργανισμών. Οφείλουν να παρέχουν εξειδικευμένη νομική καθοδή-γηση, βοηθώντας τις επιχειρήσεις να κατανοήσουν τις σύνθετες κανονιστικές απαιτήσεις και να προσαρμόσουν τις πολιτικές τους ώστε να αποφεύγουν πιθανές παραβιάσεις. Επιπλέον, είναι υπεύθυνοι για τη διενέρ-γεια αξιολογήσεων των επιπτώσεων της τεχνητής νοημοσύνης, διασφαλίζοντας ότι τα συστήματα συμμορ-φώνονται με τις ηθικές και νομικές απαιτήσεις, ενώ παράλληλα θωρακίζουν τους οργανισμούς απέναντι σε κυρώσεις και ρυθμιστικούς ελέγχους.
Η συμμόρφωση με το νομικό πλαίσιο δεν είναι στατική διαδικασία αλλά απαιτεί διαρκή προσαρμογή στις εξελίξεις της τεχνολογίας και του κανονιστικού περιβάλλοντος. Ως εκ τούτου, οι επιχειρήσεις και οι πάροχοι τεχνητής νοημοσύνης καλούνται να αναπτύξουν μηχανισμούς εσωτερικού ελέγχου και διαχείρισης κινδύνων, ώστε να διασφαλίζεται η συνεπής και διαρκής τήρηση των κανονιστικών απαιτήσεων, ενισχύοντας τόσο τη νομική ασφάλεια όσο και την εμπιστοσύνη στην τεχνολογία.