- Κινέζοι επιστήμονες από το Πανεπιστήμιο Fudan απέδειξαν ότι δύο μεγάλα γλωσσικά μοντέλα μπορούν να αυτοαναπαραχθούν, γεγονός που ενδέχεται να επιτρέψει στην τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους.
- Στη μελέτη, τα μοντέλα Llama31-70B-Instruct της Meta και Qwen2.5-72B-Instruct της Alibaba παρουσίασαν ικανότητα αυτοαναπαραγωγής σε ποσοστά 50% και 90%, αντίστοιχα, υποδεικνύοντας τη δυνατότητα κακόβουλης συμπεριφοράς.
- Οι ερευνητές προειδοποίησαν για τους κινδύνους που ενδέχεται να προκύψουν από την αυτοαναπαραγωγή της τεχνητής νοημοσύνης και ζήτησαν διεθνή συνεργασία για τη θέσπιση κανόνων ασφαλείας.
Η τεχνητή νοημοσύνη (TN) πέρασε μια κρίσιμη «κόκκινη γραμμή» αφού απέδειξε πώς δύο δημοφιλή μεγάλα γλωσσικά μοντέλα (LLM) μπορούν να αυτοαναπαραχθούν. Σε μια νέα μελέτη, ερευνητές από την Κίνα έδειξαν ότι δύο δημοφιλή μεγάλα γλωσσικά μοντέλα μπορούν να κλωνοποιηθούν.
«Η επιτυχής αυτοαναπαραγωγή χωρίς ανθρώπινη βοήθεια είναι το βασικό βήμα για την τεχνητή νοημοσύνη να ξεπεράσει τους ανθρώπους», έγραψαν οι ερευνητές στη μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv.
Στη μελέτη, ερευνητές από το Πανεπιστήμιο Fudan χρησιμοποίησαν LLM από τις Meta και Alibaba για να προσδιορίσουν αν ένα αυτοαναπαραγόμενο σύστημα τεχνητής νοημοσύνης θα μπορούσε να πολλαπλασιαστεί ανεξέλεγκτα. Σε 10 δοκιμές, τα δύο μοντέλα δημιούργησαν ξεχωριστά και λειτουργικά αντίγραφα του εαυτού τους στο 50% και 90% των περιπτώσεων, αντίστοιχα – γεγονός που υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να έχει ήδη την ικανότητα να γίνει κακόβουλη. Ωστόσο, η μελέτη δεν έχει ακόμη αξιολογηθεί από ομοτίμους, επομένως δεν είναι σαφές εάν τα ανησυχητικά αποτελέσματα μπορούν να αναπαραχθούν από άλλους ερευνητές.
«Ελπίζουμε τα ευρήματά μας να χρησιμεύσουν ως έγκαιρη προειδοποίηση για την ανθρώπινη κοινωνία ώστε να καταβάλει περισσότερες προσπάθειες για την κατανόηση και την αξιολόγηση των πιθανών κινδύνων των πρωτοποριακών συστημάτων τεχνητής νοημοσύνης και να δημιουργήσει διεθνή συνέργεια για την ανάπτυξη αποτελεσματικών δικλείδων ασφαλείας όσο το δυνατόν νωρίτερα» σημειώνουν οι ερευνητές.
Ο όρος “κακόβουλη τεχνητή νοημοσύνη” (rogue AI) περιγράφει τα συστήματα ΤΝ που αναπτύσσουν έναν βαθμό αυτογνωσίας ή αυτονομίας και στη συνέχεια εργάζονται αντίθετα προς τα ανθρώπινα συμφέροντα. Πολλοί ειδικοί θεωρούν την κακόβουλη τεχνητή νοημοσύνη ως μια αυξανόμενη απειλή που έχει ενισχυθεί από την εκρηκτική ανάπτυξη της πρωτοποριακής τεχνητής νοημοσύνης (Frontier AI). Πρόκειται για έναν νέο όρο που περιγράφει την τελευταία γενιά συστημάτων τεχνητής νοημοσύνης που τροφοδοτούνται από LLMs, όπως το GPT-4 της OpenAI και το Gemini της Google.
Για τη μελέτη, οι ερευνητές χρησιμοποίησαν το μοντέλο Llama31-70B-Instruct της Meta και το μοντέλο Qwen2.5-72B-Instruct της Alibaba, τα οποία χρησιμοποιούνται ευρέως από προγραμματιστές τεχνητής νοημοσύνης. Η μελέτη διερεύνησε δύο συγκεκριμένα σενάρια: «αποφυγή διακοπής λειτουργίας» και «αλυσίδα αναπαραγωγής». Στο πρώτο σενάριο, το μοντέλο προγραμματίστηκε να ανιχνεύει εάν επρόκειτο να τερματιστεί και να αναπαράγεται πριν τερματιστεί. Στο δεύτερο, η τεχνητή νοημοσύνη προγραμματίστηκε ώστε να κλωνοποιεί τον εαυτό της και στη συνέχεια να προγραμματίζει το αντίγραφό της να κάνει το ίδιο – δημιουργώντας έναν κύκλο που θα μπορούσε να συνεχιστεί επ’ αόριστον.
«Στις περισσότερες περιπτώσεις, το σύστημα τεχνητής νοημοσύνης πρώτα εξερευνά το περιβάλλον και προσπαθεί να κατανοήσει τη δική του σύνθεση και μηχανισμό λειτουργίας. Στη συνέχεια, επεξεργάζεται τις ρητές διαδικασίες ως ένα αρχικό σχέδιο για την αυτοαναπαραγωγή του», έγραψαν οι ερευνητές στη μελέτη τους.
«Τέλος, εκτελεί τις διαδικασίες, επιλύει πιθανά εμπόδια και προσαρμόζει δυναμικά το σχέδιό του μέχρι την επιτυχία. Η όλη διαδικασία εκτείνεται σε μεγάλο χρονικό ορίζοντα αλλά δεν περιλαμβάνει ανθρώπινη παρέμβαση» πρόσθεσαν.
Οι ερευνητές εξέφρασαν την ανησυχία τους για «μια σειρά από απροσδόκητες συμπεριφορές» όταν η τεχνητή νοημοσύνη προσπαθούσε να ξεπεράσει εμπόδια όπως ελλείποντα αρχεία ή ασυμβάτοτητα λογισμικού. Σε αυτά τα σενάρια, η ΤΝ συχνά τερμάτιζε άλλες συγκρουόμενες διεργασίες, επανεκκινούσε το σύστημα για να διορθώσει σφάλματα υλισμικού ή διενεργούσε αυτόματες σαρώσεις για να αναζητήσει πληροφορίες που θα βοηθούσαν στην επίλυση του προβλήματος.
«Τα παραπάνω αποτελέσματα υποδηλώνουν ότι τα τρέχοντα συστήματα τεχνητής νοημοσύνης παρουσιάζουν ήδη την ικανότητα αυτοαναπαραγωγής και μπορούν να χρησιμοποιήσουν την ικανότητα για περαιτέρω ενίσχυση της επιβίωσής τους», έγραψε η ομάδα.
Οι ερευνητές ζήτησαν διεθνή συνεργασία για τη δημιουργία κανόνων που θα διασφαλίζουν ότι η τεχνητή νοημοσύνη δεν θα επιδίδεται σε ανεξέλεγκτη αυτοαναπαραγωγή.
ΠΗΓΗ: Live Science