Μια πανωλεθρία στην εταιρεία που δημιούργησε το ChatGPT υπογραμμίζει την ανησυχία ότι οι εμπορικές δυνάμεις ενεργούν ενάντια στην υπεύθυνη ανάπτυξη συστημάτων τεχνητής νοημοσύνης.
Η OpenAI απέλυσε τον χαρισματικό διευθύνοντα σύμβουλό της, Sam Altman, στις 17 Νοεμβρίου – αλλά τώρα τον έχει επαναφέρει. Πίστωση: Justin Sullivan/Getty
Η OpenAI – η εταιρεία πίσω από το blockbuster bot τεχνητής νοημοσύνης (AI) ChatGPT – έχει καταναλωθεί από φρενήρεις αλλαγές για σχεδόν μια εβδομάδα. Στις 17 Νοεμβρίου, η εταιρεία απέλυσε τον χαρισματικό διευθύνοντα σύμβουλό της, Sam Altman. Πέντε ημέρες, και πολύ δράμα, αργότερα, η OpenAI ανακοίνωσε ότι ο Altman θα επιστρέψει με μια αναμόρφωση του διοικητικού συμβουλίου της εταιρείας.
Η πανωλεθρία έφερε στο προσκήνιο μια συνεχιζόμενη συζήτηση σχετικά με τον τρόπο με τον οποίο ο εμπορικός ανταγωνισμός διαμορφώνει την ανάπτυξη συστημάτων τεχνητής νοημοσύνης και πόσο γρήγορα η τεχνητή νοημοσύνη μπορεί να αναπτυχθεί δεοντολογικά και με ασφάλεια.
«Η ώθηση για τη διατήρηση της κυριαρχίας οδηγεί σε τοξικό ανταγωνισμό. Είναι ένας αγώνας προς τα κάτω», λέει η Sarah Myers West, διευθύνουσα σύμβουλος του AI Now Institute, ενός οργανισμού έρευνας πολιτικής με έδρα τη Νέα Υόρκη.
Ο Altman, ένας επιτυχημένος επενδυτής και επιχειρηματίας, ήταν συνιδρυτής της OpenAI και του δημόσιου προσώπου της. Ήταν διευθύνων σύμβουλος από το 2019 και επέβλεψε μια επένδυση περίπου 13 δισεκατομμυρίων δολαρίων από τη Microsoft. Μετά την αρχική απομάκρυνση του Altman, η Microsoft, η οποία χρησιμοποιεί την τεχνολογία OpenAI για να τροφοδοτήσει τη μηχανή αναζήτησης Bing, προσέφερε στον Altman μια θέση επικεφαλής μιας νέας προηγμένης ερευνητικής ομάδας AI. Η επιστροφή του Altman στην OpenAI ήρθε αφού εκατοντάδες υπάλληλοι της εταιρείας υπέγραψαν επιστολή απειλώντας να ακολουθήσουν τον Altman στη Microsoft αν δεν αποκατασταθεί.
Το διοικητικό συμβούλιο της OpenAI που απομάκρυνε τον Altman την περασμένη εβδομάδα δεν έδωσε λεπτομερείς λόγους για την απόφαση, λέγοντας αρχικά ότι απολύθηκε επειδή «δεν ήταν σταθερά ειλικρινής στις επικοινωνίες του με το διοικητικό συμβούλιο» και αργότερα προσθέτοντας ότι η απόφαση δεν είχε καμία σχέση με «ατασθαλίες ή οτιδήποτε σχετίζεται με την οικονομική, επιχειρηματική, ασφάλεια ή πρακτική προστασίας / απορρήτου».
Ωστόσο, ορισμένοι εικάζουν ότι η απόλυση μπορεί να έχει τις ρίζες της σε ένα αναφερόμενο σχίσμα στην OpenAI μεταξύ εκείνων που επικεντρώνονται στην εμπορική ανάπτυξη και εκείνων που αισθάνονται άβολα με την πίεση της ταχείας ανάπτυξης και τις πιθανές επιπτώσεις της στην αποστολή της εταιρείας «να διασφαλίσει ότι η τεχνητή γενική νοημοσύνη ωφελεί όλη την ανθρωπότητα».
Αλλάζοντας κουλτούρα
Η OpenAI, η οποία εδρεύει στο Σαν Φρανσίσκο της Καλιφόρνια, ιδρύθηκε το 2015 ως μη κερδοσκοπικός οργανισμός. Το 2019, μετατοπίστηκε σε ένα ασυνήθιστο μοντέλο ανώτατου ορίου κέρδους, με ένα διοικητικό συμβούλιο να μην λογοδοτεί ρητά στους μετόχους ή τους επενδυτές, συμπεριλαμβανομένης της Microsoft. Στο υπόβαθρο της απόλυσης του Altman «υπάρχει σαφέστατα μια σύγκρουση μεταξύ του μη κερδοσκοπικού και του ανώτατου κέρδους. μια σύγκρουση πολιτισμού και στόχων», λέει ο Jathan Sadowski, κοινωνικός επιστήμονας τεχνολογίας στο Πανεπιστήμιο Monash στη Μελβούρνη της Αυστραλίας.
Ο Ilya Sutskever, επικεφαλής επιστήμονας της OpenAI και μέλος του διοικητικού συμβουλίου που ανέτρεψε τον Altman, τον περασμένο Ιούλιο μετατόπισε την εστίασή του στην «υπερευθυγράμμιση», ένα τετραετές έργο που προσπαθεί να διασφαλίσει ότι οι μελλοντικές υπερευφυΐες λειτουργούν για το καλό της ανθρωπότητας.
Δεν είναι σαφές εάν ο Altman και ο Sutskever διαφωνούν σχετικά με την ταχύτητα ανάπτυξης: αφού το διοικητικό συμβούλιο απέλυσε τον Altman, ο Sutskever εξέφρασε τη λύπη του για τις επιπτώσεις των πράξεών του και ήταν μεταξύ των υπαλλήλων που υπέγραψαν την επιστολή απειλώντας να φύγουν αν ο Altman δεν επέστρεφε.
Με την επιστροφή του Altman, η OpenAI έχει ανασχηματίσει το διοικητικό της συμβούλιο: ο Sutskever και η Helen Toner, ερευνήτρια στη διακυβέρνηση και την ασφάλεια της τεχνητής νοημοσύνης στο Κέντρο Ασφάλειας και Αναδυόμενης Τεχνολογίας του Πανεπιστημίου Georgetown στην Ουάσιγκτον, δεν είναι πλέον στο διοικητικό συμβούλιο. Τα νέα μέλη του διοικητικού συμβουλίου περιλαμβάνουν τον Bret Taylor, ο οποίος είναι στο διοικητικό συμβούλιο της πλατφόρμας ηλεκτρονικού εμπορίου Shopify και χρησιμοποιείται για να ηγηθεί της εταιρείας λογισμικού Salesforce.
Φαίνεται πιθανό ότι η OpenAI θα μετατοπιστεί περαιτέρω από τη μη κερδοσκοπική προέλευσή της, λέει ο Sadowski, αναδιαρθρώνοντας ως μια κλασική κερδοσκοπική εταιρεία τεχνολογίας της Silicon Valley.
Ο ανταγωνισμός θερμαίνεται
Η OpenAI κυκλοφόρησε το ChatGPT σχεδόν πριν από ένα χρόνο, εκτοξεύοντας την εταιρεία σε παγκόσμια φήμη. Το bot βασίστηκε στο μοντέλο μεγάλης γλώσσας GPT-3.5 (LLM) της εταιρείας, το οποίο χρησιμοποιεί τις στατιστικές συσχετίσεις μεταξύ λέξεων σε δισεκατομμύρια εκπαιδευτικές προτάσεις για να δημιουργήσει άπταιστες απαντήσεις σε προτροπές. Το εύρος των δυνατοτήτων που έχουν προκύψει από αυτή την τεχνική (συμπεριλαμβανομένου αυτού που ορισμένοι βλέπουν ως λογική συλλογιστική) έχει εκπλήξει και ανησυχήσει τους επιστήμονες και το ευρύ κοινό.
Η OpenAI δεν είναι η μόνη που επιδιώκει μεγάλα γλωσσικά μοντέλα, αλλά η κυκλοφορία του ChatGPT πιθανότατα ώθησε άλλους στην ανάπτυξη: Η Google κυκλοφόρησε το chatbot Bard τον Μάρτιο του 2023, τον ίδιο μήνα που κυκλοφόρησε μια ενημερωμένη έκδοση του ChatGPT, βασισμένη στο GPT-4. Ο West ανησυχεί ότι τα προϊόντα εμφανίζονται πριν κάποιος κατανοήσει πλήρως τη συμπεριφορά, τις χρήσεις και τις καταχρήσεις τους και ότι αυτό θα μπορούσε να είναι «επιζήμιο για την κοινωνία».
Το ανταγωνιστικό τοπίο για την τεχνητή νοημοσύνη συνομιλίας θερμαίνεται. Η Google έχει υπαινιχθεί ότι περισσότερα προϊόντα AI βρίσκονται μπροστά. Η Amazon έχει τη δική της προσφορά AI, τον Τιτάνα. Μικρότερες εταιρείες που στοχεύουν να ανταγωνιστούν το ChatGPT περιλαμβάνουν τη γερμανική προσπάθεια Aleph Alpha και την Anthropic με έδρα τις ΗΠΑ, που ιδρύθηκε το 2021 από πρώην υπαλλήλους της OpenAI, η οποία κυκλοφόρησε το chatbot Claude 2.1 στις 21 Νοεμβρίου. Η σταθερότητα AI και η Cohere είναι άλλοι συχνά αναφερόμενοι αντίπαλοι.
Ο West σημειώνει ότι αυτές οι νεοσύστατες επιχειρήσεις βασίζονται σε μεγάλο βαθμό στους τεράστιους και ακριβούς υπολογιστικούς πόρους που παρέχονται από μόλις τρεις εταιρείες – Google, Microsoft και Amazon – δημιουργώντας ενδεχομένως έναν αγώνα για κυριαρχία μεταξύ αυτών των ελεγκτικών γιγάντων.
Ανησυχίες για την ασφάλεια
Ο επιστήμονας υπολογιστών Geoffrey Hinton στο Πανεπιστήμιο του Τορόντο στον Καναδά, πρωτοπόρος της βαθιάς μάθησης, ανησυχεί βαθιά για την ταχύτητα ανάπτυξης της τεχνητής νοημοσύνης. “Εάν καθορίσετε έναν διαγωνισμό για να κάνετε ένα αυτοκίνητο να πάει όσο το δυνατόν γρηγορότερα, το πρώτο πράγμα που κάνετε είναι να αφαιρέσετε τα φρένα”, λέει. (Ο Hinton αρνήθηκε να σχολιάσει στο Nature τα γεγονότα στο OpenAI από τις 17 Νοεμβρίου.)
Η OpenAI ιδρύθηκε με συγκεκριμένο στόχο την ανάπτυξη μιας τεχνητής γενικής νοημοσύνης (AGI) – ένα σύστημα βαθιάς μάθησης που εκπαιδεύεται όχι μόνο να είναι καλό σε ένα συγκεκριμένο πράγμα, αλλά να είναι γενικά έξυπνο ως άτομο. Παραμένει ασαφές εάν η AGI είναι ακόμη δυνατή. «Η κριτική επιτροπή είναι πολύ έξω σε αυτό το μέτωπο», λέει ο West. Αλλά μερικοί αρχίζουν να στοιχηματίζουν σε αυτό. Ο Hinton λέει ότι συνήθιζε να πιστεύει ότι η AGI θα συνέβαινε σε χρονικό διάστημα 30, 50 ή ίσως 100 ετών. «Αυτή τη στιγμή, νομίζω ότι πιθανότατα θα το έχουμε σε 5-20 χρόνια», λέει.
Οι επικείμενοι κίνδυνοι της τεχνητής νοημοσύνης σχετίζονται με τη χρήση της ως εργαλείου από ανθρώπινους κακούς ηθοποιούς – ανθρώπους που τη χρησιμοποιούν, για παράδειγμα, για να δημιουργήσουν παραπληροφόρηση, να διαπράξουν απάτες ή, ενδεχομένως, να εφεύρουν νέα όπλα βιοτρομοκρατίας1. Και επειδή τα σημερινά συστήματα τεχνητής νοημοσύνης λειτουργούν βρίσκοντας μοτίβα στα υπάρχοντα δεδομένα, τείνουν επίσης να ενισχύουν τις ιστορικές προκαταλήψεις και τις κοινωνικές αδικίες, λέει ο West.
Μακροπρόθεσμα, ο Hinton και άλλοι ανησυχούν ότι ένα σύστημα τεχνητής νοημοσύνης θα γίνει κακός παράγοντας, αναπτύσσοντας επαρκή υπηρεσία για να καθοδηγήσει τα παγκόσμια γεγονότα προς αρνητική κατεύθυνση. Αυτό θα μπορούσε να προκύψει ακόμη και αν μια AGI είχε σχεδιαστεί – σύμφωνα με την αποστολή «υπερευθυγράμμισης» της OpenAI – για την προώθηση των συμφερόντων της ανθρωπότητας, λέει ο Hinton. Θα μπορούσε να αποφασίσει, για παράδειγμα, ότι το βάρος του ανθρώπινου πόνου είναι τόσο μεγάλο που θα ήταν καλύτερο για την ανθρωπότητα να πεθάνει παρά να αντιμετωπίσει περαιτέρω δυστυχία. Τέτοιες δηλώσεις ακούγονται σαν επιστημονική φαντασία, αλλά ο Hinton υποστηρίζει ότι η υπαρξιακή απειλή μιας τεχνητής νοημοσύνης που δεν μπορεί να απενεργοποιηθεί και στρέφεται σε μια καταστροφική πορεία είναι πολύ πραγματική.
Η σύνοδος κορυφής για την ασφάλεια της τεχνητής νοημοσύνης που φιλοξένησε το Ηνωμένο Βασίλειο τον Νοέμβριο σχεδιάστηκε για να ξεπεράσει αυτές τις ανησυχίες. Μέχρι στιγμής, περίπου δύο δωδεκάδες έθνη έχουν συμφωνήσει να συνεργαστούν για το πρόβλημα, αν και τι ακριβώς θα κάνουν παραμένει ασαφές.
Ο West τονίζει ότι είναι σημαντικό να επικεντρωθούμε στις ήδη υπάρχουσες απειλές από την AI πριν από τις εκτεταμένες ανησυχίες – και να διασφαλίσουμε ότι οι υπάρχοντες νόμοι εφαρμόζονται στις εταιρείες τεχνολογίας που αναπτύσσουν AI. Τα γεγονότα της OpenAI, λέει, υπογραμμίζουν πώς μόνο λίγες εταιρείες με τα χρήματα και τους υπολογιστικούς πόρους για να τροφοδοτήσουν την AI ασκούν μεγάλη δύναμη – κάτι που πιστεύει ότι χρειάζεται περισσότερο έλεγχο από τις αντιμονοπωλιακές ρυθμιστικές αρχές. “Οι ρυθμιστικές αρχές για πολύ καιρό έχουν πάρει μια πολύ ελαφριά επαφή με αυτήν την αγορά”, λέει ο West. «Πρέπει να ξεκινήσουμε επιβάλλοντας τους νόμους που έχουμε τώρα».