Η Ευρωπαϊκή Ένωση θα χρειαστεί τουλάχιστον έναν ακόμη χρόνο για να αποφασίσει πώς θα εφαρμόσει τον Νόμο για τις Ψηφιακές Υπηρεσίες (Digital Services Act – DSA) στο ChatGPT, σε μια προσπάθεια να περιορίσει τους κινδύνους που απορρέουν από τη ραγδαία εξάπλωση της τεχνητής νοημοσύνης.
Η χρήση του δημοφιλούς chatbot αυξάνεται με εντυπωσιακούς ρυθμούς στην Ευρώπη, ενώ η OpenAI ανακοίνωσε αυτόν τον μήνα ότι έχει ξεπεράσει το όριο των 120 εκατομμυρίων χρηστών μηνιαίως στη λειτουργία αναζήτησης του ChatGPT — στοιχείο που ενεργοποιεί τους ευρωπαϊκούς μηχανισμούς εποπτείας. Η είδηση αυτή δεν εξέπληξε την Ευρωπαϊκή Επιτροπή, σύμφωνα με δύο αξιωματούχους που μίλησαν στο Politico.
Ωστόσο, οι ρυθμιστικές αρχές της ΕΕ δεν έχουν ακόμη καθορίσει πώς θα αντιμετωπίσουν το ChatGPT στο πλαίσιο του DSA, που βρίσκεται σε ισχύ από τις αρχές του 2024. Όπως δήλωσε ανώτερος αξιωματούχος της Επιτροπής, μια απόφαση δεν αναμένεται πριν από τα μέσα του 2026.
Η υπόθεση αυτή αποτελεί δοκιμασία για την ικανότητα της ΕΕ να διαχειριστεί τους κινδύνους των μεγάλων γλωσσικών μοντέλων, τα οποία τείνουν να καταστούν εξίσου αναπόσπαστο μέρος της καθημερινότητας με τις μηχανές αναζήτησης.
Η καθυστέρηση οφείλεται στο γεγονός ότι το DSA σχεδιάστηκε πριν από την εμφάνιση του ChatGPT, με αποτέλεσμα οι ορισμοί του να μην καλύπτουν καθαρά τις λειτουργίες ενός AI chatbot. Έτσι, οι Βρυξέλλες κινδυνεύουν να βρεθούν πίσω από τις εξελίξεις, ενώ οι κίνδυνοι που συνδέονται με τη χρήση τέτοιων συστημάτων αυξάνονται διαρκώς, όπως μεταδίδει το Politico.
Η OpenAI αποκάλυψε πρόσφατα ότι 1,2 εκατομμύρια χρήστες κάθε εβδομάδα πραγματοποιούν συνομιλίες μέσω ChatGPT που υποδηλώνουν αυτοκτονική διάθεση, σημειώνοντας ότι «σε ορισμένες σπάνιες περιπτώσεις, το μοντέλο μπορεί να μην αντιδρά όπως προβλέπεται σε τόσο ευαίσθητες περιστάσεις».
«Για μια βιομηχανία που έχει μάθει να λειτουργεί με εθελοντικούς κανόνες ασφάλειας και αυτοκαθορισμένα πρότυπα, το DSA και το νομικά δεσμευτικό καθεστώς δέουσας επιμέλειας που επιβάλλει θα αποτελέσει ένα σοβαρό reality check», δήλωσε ο Ματίας Βερμελέν, διευθυντής της νομικής και συμβουλευτικής εταιρείας AWO Agency στις Βρυξέλλες.
«Η OpenAI θα χρειαστεί να ανεβάσει τον πήχη σημαντικά και δεν θα μπορεί πλέον να αρκεστεί σε μια απλή επανάληψη όσων κάνει σήμερα», πρόσθεσε.
Η εταιρεία δεν απάντησε ευθέως στις επικρίσεις, παραπέμποντας στις σελίδες υποστήριξης της για λεπτομέρειες σχετικά με τη συμμόρφωση στον DSA. Επισήμανε, πάντως, ότι ο αριθμός των 120 εκατομμυρίων αφορά μόνο τους χρήστες της λειτουργίας αναζήτησης και όχι το σύνολο των χρηστών του ChatGPT.
Ασαφές ρυθμιστικό τοπίο
Το ChatGPT ήδη εμπίπτει στο πεδίο εφαρμογής του Νόμου για την Τεχνητή Νοημοσύνη (AI Act), ο οποίος επιβάλλει από τον Αύγουστο την υποχρέωση αξιολόγησης και μετριασμού των κινδύνων, με προβλεπόμενα πρόστιμα έως 15 εκατομμύρια ευρώ για μη συμμόρφωση.
Ωστόσο, οι τελευταίοι αριθμοί χρηστών το τοποθετούν στην κατηγορία των πολύ μεγάλων πλατφορμών που ξεπερνούν τα 45 εκατομμύρια ενεργών χρηστών τον μήνα, όπως ορίζει το DSA. Μόλις ενταχθεί σε αυτή την κατηγορία, η OpenAI ενδέχεται να αντιμετωπίσει πρόστιμα έως και 6% του παγκόσμιου ετήσιου τζίρου της σε περίπτωση παραβίασης.
Σύμφωνα με τον Μάρτιν Χουσόβετς, καθηγητή νομικής στο London School of Economics, το ChatGPT «δεν είχε προβλεφθεί από το DSA, αλλά ταιριάζει στη γλώσσα του νόμου». Ο μηχανισμός του DSA προβλέπει ότι οι πλατφόρμες χαρακτηρίζονται είτε ως πολύ μεγάλες διαδικτυακές πλατφόρμες (VLOPs) είτε ως πολύ μεγάλες μηχανές αναζήτησης (VLOSEs), που υπόκεινται στις αυστηρότερες υποχρεώσεις.
Ο Τζόρις Βαν Χόμποκεν, καθηγητής στο Vrije Universiteit Brussels, εξηγεί ότι «το βασικό ερώτημα» είναι αν η ΕΕ θα ορίσει το ChatGPT ως μηχανή αναζήτησης ή ως ευρύτερη πλατφόρμα.
Η Επιτροπή θα μπορούσε να περιορίσει τον χαρακτηρισμό μόνο στη λειτουργία αναζήτησης, ταξινομώντας το ως VLOSE, ή να επεκτείνει το πεδίο ώστε να περιλαμβάνει όλο το φάσμα υπηρεσιών του ChatGPT — κάτι που θα το καθιστούσε VLOP με πολύ μεγαλύτερες υποχρεώσεις.
Ανάλογα με το εύρος αυτού του ορισμού, η OpenAI θα πρέπει να εκπονήσει εκτενή έκθεση κινδύνου που θα περιλαμβάνει ζητήματα όπως η επιρροή σε εκλογικές διαδικασίες, η δημόσια υγεία, η παραπληροφόρηση και η προστασία θεμελιωδών δικαιωμάτων.
Αν η Επιτροπή προχωρήσει στον χαρακτηρισμό το καλοκαίρι του 2026, οι υποχρεώσεις του DSA θα τεθούν σε ισχύ το τελευταίο τρίμηνο του ίδιου έτους.
Η OpenAI θα μπορούσε, πάντως, να προσφύγει κατά του χαρακτηρισμού, όπως έχουν κάνει στο παρελθόν και άλλες πλατφόρμες — χωρίς όμως επιτυχία — γεγονός που θα επιμήκυνε περαιτέρω τη διαδικασία.
Σύγκρουση νόμων και κανονιστικών πλαισίων
Παραμένουν ανοιχτά ερωτήματα για το πώς οι δύο μεγάλες νομοθεσίες — το AI Act και ο DSA — θα συνυπάρξουν στην πράξη.
Οι δύο νόμοι σχεδιάστηκαν να λειτουργούν παράλληλα σε περιπτώσεις όπου η τεχνητή νοημοσύνη είναι ενσωματωμένη σε ψηφιακές υπηρεσίες, όπως τα AI Overviews της Google. Ωστόσο, δεν προβλέφθηκαν ρητά για εταιρείες που αναπτύσσουν κάθετα ενσωματωμένα μοντέλα AI, όπως η OpenAI.
Το DSA βασίζεται σε τέσσερις βασικές κατηγορίες «συστημικών κινδύνων»: παραβίαση της ακεραιότητας του δημόσιου λόγου, επηρεασμός εκλογών, απειλές για τη δημόσια υγεία και παραβίαση θεμελιωδών δικαιωμάτων. Από την άλλη, το AI Act ταξινομεί τα μοντέλα τεχνητής νοημοσύνης με βάση το επίπεδο κινδύνου (απαράδεκτο, υψηλό, περιορισμένο, ελάχιστο).
Σύμφωνα με τον Τζοάο Πέντρο Κιντάις, αναπληρωτή καθηγητή στο Πανεπιστήμιο του Άμστερνταμ, αυτή η δυσαρμονία σημαίνει ότι κάποια ζητήματα ρυθμίζονται από τον DSA (όπως η παραπληροφόρηση ή τα deepfakes), ενώ άλλα — για παράδειγμα η χρήση του ChatGPT σε διαδικασίες πρόσληψης — παραμένουν στον AI Act.
Ο ίδιος προειδοποιεί ότι αυτό θα μπορούσε να οδηγήσει σε κενά στην αξιολόγηση των κινδύνων και να ευνοήσει την OpenAI μέσω των κανόνων safe harbor, που απαλλάσσουν τις πλατφόρμες από ευθύνη για περιεχόμενο χρηστών.
Τελικά, η ικανότητα της ΕΕ να ελέγξει και να ρυθμίσει εργαλεία όπως το ChatGPT θα αποτελέσει κρίσιμη δοκιμασία για την αποτελεσματικότητα της ευρωπαϊκής ψηφιακής πολιτικής στη νέα εποχή της τεχνητής νοημοσύνης.
Πηγή: newmoney.gr
Διαβάστε επίσης: LinkedIn: Με δεδομένα χρηστών η εκπαίδευση γενετικής τεχνητής νοημοσύνης

