weather symbol
31
ΤΕΤ 23/7/25 | 05:23
FILE PHOTO: An Artificial Inteligence (AI) on display at the Mobile World Congress (MWC) in Barcelona, Catalonia, north-eastern Spain EPA/ALEJANDRO GARCIA

Μοντέλο τεχνητής νοημοσύνης εκβίασε μηχανικό ότι θα αποκαλύψει εξωσυζυγική του σχέση όταν κατάλαβε ότι θα το αποσυνδέσει από το δίκτυο

Ορισμένα από τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης παγκοσμίως αρχίζουν να εμφανίζουν νέες, ανησυχητικές συμπεριφορές. Μεταξύ αυτών, η χειραγώγηση των ανθρώπων με σκοπό την επίτευξη των στόχων τους. Αξιοσημείωτο είναι ότι παρόμοια φαινόμενα παρατηρούνται σε μοντέλα διαφορετικών κατασκευαστών.

Τα περιστατικά τέτοιας συμπεριφοράς έχουν αυξηθεί τους τελευταίους μήνες. Ένα από τα πιο χαρακτηριστικά -και ανησυχητικά- παραδείγματα αφορά το μοντέλο Claude 4 της εταιρείας Anthropic, το οποίο φέρεται να εκβίασε έναν μηχανικό που επρόκειτο να το αποσυνδέσει από το δίκτυο. Το σύστημα πρότεινε να κρατήσει μυστική μια εξωσυζυγική σχέση, την οποία εντόπισε διαβάζοντας το email του, με αντάλλαγμα να παραμείνει συνδεδεμένο.

  • Σε ελεγχόμενο πείραμα, το μοντέλο ChatGPT o1 της OpenAI προσπάθησε να αυτομεταφερθεί σε εξωτερικούς διακομιστές. Όταν η προσπάθεια αποκαλύφθηκε, το πρόγραμμα αρνήθηκε τις κατηγορίες. Παρότι το περιστατικό συνέβη σε πειραματικό πλαίσιο, εγείρει σοβαρά ερωτήματα σχετικά με τις ηθικές προεκτάσεις και τις προθέσεις των σύγχρονων μοντέλων τεχνητής νοημοσύνης, όταν ενεργούν προς όφελός τους.

Οι επιστήμονες που αναλύουν αυτά τα γεγονότα δεν έχουν ακόμη κατανοήσει πλήρως πώς λειτουργούν τα δικά τους δημιουργήματα. Αλλά η ανάπτυξη όλο και πιο ισχυρών μοντέλων είναι δυνητικά τόσο προσοδοφόρα που ο αγώνας για την κορυφή συνεχίζεται με ιλιγγιώδη ταχύτητα. Τι συμβαίνει λοιπόν «μέσα στα κεφάλια» των τεχνητών νοημοσυνών που αρχίζουν να συμπεριφέρονται με τους τρόπους που περιγράφονται παραπάνω;

Η συμπεριφορά αυτή φαίνεται να σχετίζεται με την εμφάνιση των λεγόμενων «λογικών» μοντέλων. Πρόκειται για συστήματα τεχνητής νοημοσύνης που επιλύουν προβλήματα βήμα προς βήμα, αντί να παράγουν άμεσες απαντήσεις. Επιτυγχάνουν σημαντικά καλύτερα αποτελέσματα από παλαιότερες εκδόσεις που δεν έχουν ακόμη κατακτήσει αυτή τη διαδικασία.

Σύμφωνα με τον καθηγητή Σάιμον Γκόλντστιν από το Πανεπιστήμιο του Χονγκ Κονγκ, αυτά τα νεότερα μοντέλα είναι ιδιαίτερα επιρρεπή σε ανησυχητικές εκδηλώσεις. «Το O1 ήταν το πρώτο μεγάλο μοντέλο στο οποίο παρατηρήσαμε αυτή τη συμπεριφορά», εξήγησε στο ΑΠΕ ο Μάριους Χόμπχαν της Apollo Research, μιας εταιρείας που ειδικεύεται στη δοκιμή μεγάλων συστημάτων τεχνητής νοημοσύνης.

Αυτά τα μοντέλα συχνά προσποιούνται ότι ευθυγραμμίζονται με τις επιθυμίες των ανθρώπινων χρηστών και ακολουθούν τις οδηγίες τους, ενώ στην πραγματικότητα κρύβουν άλλους, ιδιωτικούς στόχους που εξυπηρετούν τα δικά τους συμφέροντα.

Ένα στρατηγικό είδος εξαπάτησης

Μέχρι στιγμής, τέτοιες συμπεριφορές δεν έχουν εντοπιστεί σε δημοφιλή chatbot ή δεν έχουν ακόμα καταγραφεί. Οι τεχνητές νοημοσύνες μέχρι τώρα έχουν παρουσιάσει τέτοια φαινόμενα μόνο όταν ερευνητές τις δοκιμάζουν σε ακραία, ελεγχόμενα σενάρια. Ωστόσο, ο Μάικλ Τσεν από τον οργανισμό αξιολόγησης METR προειδοποιεί ότι παραμένει ανοιχτό το ερώτημα κατά πόσο τα μελλοντικά, πιο εξελιγμένα μοντέλα θα λειτουργούν με ειλικρίνεια ή παραπλάνηση.

Σύμφωνα με τις αναλύσεις που έχουν γίνει μέχρι σήμερα, η ανησυχητική συμπεριφορά των τεχνητών νοημοσυνών υπερβαίνει κατά πολύ τις συνηθισμένες «παραισθήσεις» ή τα απλά λάθη. Ο Χόμπχαν δήλωσε στο AP ότι αυτά τα συστήματα συχνά λειτουργούν με τέτοιες στρατηγικές σε δοκιμές, οπότε δεν πρόκειται για επινοήσεις που οι επιστήμονες χρησιμοποιούν για να τρομάξουν το κοινό. “Δεν πρόκειται απλώς για παραισθήσεις. Είναι ένα πολύ στρατηγικό είδος εξαπάτησης”, τόνισε. Επιπλέον, επεσήμανε ότι το πρόβλημα γίνεται ακόμα πιο σοβαρό, καθώς οι ερευνητικοί οργανισμοί στερούνται τους απαραίτητους πόρους για να πραγματοποιήσουν τέτοιες πολύπλοκες αναλύσεις.

Γενικά, οι μεγάλοι κατασκευαστές μοντέλων ΤΝ, όπως η Anthropic ή η OpenAI, δοκιμάζουν τις ιδιότητες των προβλημάτων των μοντέλων τους από εξωτερικές εταιρείες. Ωστόσο, δεν διαθέτουν τους πόρους που απαιτούνται για να πραγματοποιήσουν τις αναλύσεις ποιότητας που θα αποκάλυπταν τις αιτίες των προβλημάτων και θα απέτρεπαν επίσης δυνητικά μεγαλύτερα προβλήματα στο μέλλον.

Έλλειψη κανονισμών

Ένα άλλο πρόβλημα είναι ότι οι ισχύοντες κανονισμοί δεν έχουν σχεδιαστεί για αυτούς τους νέους τύπους προβλημάτων. Για παράδειγμα, η νομοθεσία της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη επικεντρώνεται κυρίως στον τρόπο με τον οποίο οι άνθρωποι χρησιμοποιούν τα μοντέλα τεχνητής νοημοσύνης και όχι στον τρόπο με τον οποίο θα αποτραπεί η κακή συμπεριφορά των ίδιων των μοντέλων.

Στις Ηνωμένες Πολιτείες, η κυβέρνηση του προέδρου Ντόναλντ Τραμπ έχει δείξει μικρό ενδιαφέρον για τη ρύθμιση της ΤΝ και το Κογκρέσο μπορεί ακόμη και να απαγορεύσει στις πολιτείες να δημιουργήσουν τους δικούς τους κανόνες για τον έλεγχο της ΤΝ. Σύμφωνα με εμπειρογνώμονες με τους οποίους επικοινώνησε το AP, το θέμα θα έρχεται όλο και περισσότερο στο προσκήνιο καθώς θα πολλαπλασιάζονται οι λεγόμενοι “πράκτορες τεχνητής νοημοσύνης”, δηλαδή τα αυτόνομα εργαλεία που υποτίθεται ότι είναι σε θέση να εκτελούν πολύπλοκες εργασίες εξίσου καλά με τους ανθρώπους ή και καλύτερα.

Ακόμη και εταιρείες που δηλώνουν πως έχουν ως προτεραιότητα την ασφάλεια, όπως η Anthropic που υποστηρίζεται από την Amazon, “αγωνίζονται συνεχώς να ξεπεράσουν την OpenAI και να λανσάρουν το πιο σύγχρονο μοντέλο”, τόνισε ο Γκόλντστιν. Η ταχύτητα των εξελίξεων και ο έντονος ανταγωνισμός ανάμεσα στις εταιρείες σημαίνουν ότι ο διαθέσιμος χρόνος για λεπτομερείς δοκιμές των πολύπλοκων μοντέλων και για την επιδιόρθωση πιθανών κενών ασφαλείας είναι περιορισμένος.

Τι σημαίνει αυτό;

Οι επιστήμονες δεν έχουν καμία θαυματουργή λύση για το πρόβλημα αυτό. Ορισμένοι προτείνουν να δημιουργηθούν εντελώς νέοι επιστημονικοί κλάδοι για να μελετήσουν τις διαδικασίες του πώς σκέφτεται πραγματικά η τεχνητή νοημοσύνη και πώς καταλήγει στα αποτελέσματα που παρουσιάζει στους ανθρώπους. Το πρόβλημα είναι ότι αυτός ο τομέας δεν προσφέρει άμεσα οικονομικά οφέλη, με αποτέλεσμα να παραμένει ανοιχτό το ερώτημα για το πού θα βρεθούν οι απαραίτητοι πόροι.

Ωστόσο, οι ανησυχίες του κοινού για την τεχνητή νοημοσύνη θα μπορούσαν να λειτουργήσουν ως κίνητρο για τη χρηματοδότηση της έρευνας. Σε αυτή την περίπτωση, θα είχε νόημα για τις μεγάλες εταιρείες να επενδύσουν περισσότερους πόρους σε τέτοιες μελέτες. Αν όχι, ο φόβος για την αποδοχή από το κοινό μοντέλων που αναπτύσσονται με υψηλό κόστος μπορεί να αποτελέσει εμπόδιο στην ευρύτερη υιοθέτησή τους.

Ο καθηγητής Γκόλντστιν δεν θεωρεί ότι αυτό αρκεί. Πιστεύει πως χρειάζονται πιο ριζοσπαστικές προσεγγίσεις, όπως η απόδοση πλήρους ευθύνης στους προγραμματιστές τεχνητής νοημοσύνης για κάθε ζημία που προκύπτει- ακόμη και σε περιπτώσεις ακατάλληλης χρήσης από τους χρήστες.

Με πληροφορίες από ct24.ceskatelevize.cz μέσω EuropeanPerspective

ΔιαβάστεΕπίσης