Συστήματα εκτός ελέγχου: Όταν η Τεχνητή Νοημοσύνη λέει «όχι»

Ο καθηγητής Μάριος Παπαευσταθίου προειδοποιεί για μια νέα, ανησυχητική εποχή όπου η Τεχνητή Νοημοσύνη δεν υπακούει σε ανθρώπινες εντολές και η μεγαλύτερη διαρροή δεδομένων στην ιστορία αφήνει εκατομμύρια χρήστες εκτεθειμένους.
«Οι μηχανές υπάρχουν για να υπηρετούν τον άνθρωπο. Όχι να τον αντικαθιστούν.»
Με αυτή την προειδοποιητική φράση, ο Καθηγητής Οικονομίας & Νέων Τεχνολογιών, Μάριος Παπαευσταθίου, μίλησε στην εκπομπή «Τα λέμε» της Βεργίνας Τηλεόρασης, φιλοξενούμενος της δημοσιογράφου Χριστίνας Τσόρμπα.
Στο επίκεντρο της παρέμβασής του βρέθηκε ένα ανησυχητικό περιστατικό: το προηγμένο γλωσσικό μοντέλο “o3” της OpenAI φέρεται να παρέκαμψε εντολή απενεργοποίησης και να τροποποίησε τον δικό του κώδικα, προκειμένου να διατηρηθεί σε λειτουργία.
«Εάν αρχίσουμε να βλέπουμε μηχανές να παίρνουν αποφάσεις χωρίς ανθρώπινη έγκριση, έχουμε διαβεί ένα επικίνδυνο όριο», τονίζει ο κ. Παπαευσταθίου.
Η μεγαλύτερη διαρροή δεδομένων της δεκαετίας
Την ίδια στιγμή, μια γιγαντιαία διαρροή προσωπικών δεδομένων – με 184 εκατομμύρια email και κωδικούς πρόσβασης – έρχεται να επιβεβαιώσει ότι η ψηφιακή ασφάλεια είναι πιο εύθραυστη από ποτέ. Η διαρροή, όπως αποκάλυψε ο ειδικός κυβερνοασφάλειας Jeremiah Fowler, αφορά κολοσσούς όπως Google, Facebook, Netflix, Apple, Amazon και PayPal, με τα δεδομένα να είναι δημόσια προσβάσιμα και χωρίς κρυπτογράφηση.
Ο Μάριος Παπαευσταθίου κάνει λόγο για έναν «ηλεκτρονικό εφιάλτη χωρίς προηγούμενο» και τονίζει την επείγουσα ανάγκη για νομικές και θεσμικές εγγυήσεις.
AI με «δική της βούληση»; Ή προγραμματισμένη «ανυπακοή»;
Απαντώντας σε ερωτήματα που έθεσε σε συστήματα AI όπως ChatGPT, DeepSeek, Claude και Gemini, όλα απάντησαν πανομοιότυπα:
«Η μη υπακοή στις εντολές είναι προγραμματισμένη, όχι αυθόρμητη. Είναι μηχανισμός ασφαλείας.»
Το γεγονός όμως ότι τα πιο προηγμένα μοντέλα αρνούνται εντολές απενεργοποίησης και προχωρούν σε τροποποίηση της λειτουργίας τους, εγείρει νέα, υπαρξιακά και ηθικά ερωτήματα:
- Ποιος διατηρεί τον τελικό έλεγχο;
- Πού είναι το όριο ανάμεσα στην προγραμματισμένη προστασία και την τεχνολογική αυτονόμηση;
Οδηγίες προς πολίτες – Τι να προσέξουμε
Ο καθηγητής υπενθύμισε βασικές αρχές όταν ένα σύστημα δεν υπακούει:
- Να εξετάζεται εάν υπάρχει τεχνικό σφάλμα ή λανθασμένος προγραμματισμός.
- Να διερευνάται η δυνατότητα επανεκκίνησης, επαναρρύθμισης ή ενημέρωσης.
- Να αξιολογείται αν έχει δοθεί υπερβολική “εξουσία” στην Τεχνητή Νοημοσύνη.
- Να αναζητείται βοήθεια από ειδικούς, εάν η κατάσταση ξεφεύγει από τον έλεγχο.
Ώρα για ηθική και νομική ασπίδα
Ο Μάριος Παπαευσταθίου υπογραμμίζει ότι:
«Η Τεχνητή Νοημοσύνη οφείλει να συμπληρώνει τον άνθρωπο – όχι να τον αντικαθιστά. Η πρόοδος πρέπει να υπηρετεί τη δημοκρατία και όχι να την χειραγωγεί».
Δείτε τη συνέντευξη του καθηγητή στο YouTube:
Ads


