Το 1956, κορυφαίοι επιστήμονες συναντήθηκαν στο Τμήμα Μαθηματικών του πανεπιστημίου Dartmouth (wikipedia.org) για ένα θερινό εργαστήριο που θα περιέγραφε με τόσο ακριβή και λεπτομερή τρόπο κάποια μορφή ευφυΐας, ώστε να μπορεί να φτιαχτεί μια μηχανή που θα μπορεί να την προσομοιώσει. Το εργαστήριο αυτό θεωρήθηκε ως το ιδρυτικό γεγονός της τεχνητής νοημοσύνης ως πεδίου έρευνας.
Οι επιστήμονες της εποχής δεν θα μπορούσαν να φανταστούν ότι το 2023 περισσότεροι από 1.000 επιστήμονες και επιχειρηματίες θα ζητούσαν να σταματήσει για έξι μήνες η έρευνα και οι εφαρμογές της τεχνητής νοημοσύνης με επιχειρήματα όπως: «Πρέπει να αφήσουμε τις μηχανές να πλημμυρίσουν τα κανάλια πληροφοριών μας με προπαγάνδα και ψευδείς πληροφορίες; Πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που ίσως μας αντικαταστήσουν; Πρέπει να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας;».
Από το 1965, πριν φτάσουμε στα σημερινά μεγάλα γλωσσικά μοντέλα (Generative pre-trained transformers GPTs) τα οποία αποτελούν ένα σύγχρονο είδος τεχνητής νοημοσύνης που μπορούν να μεταφράσουν αλλά και να δημιουργήσουν κείμενο μετά από εκπαίδευση, πέρασαν πολλές δεκαετίες, στις οποίες έγινε προφανές ότι είχαν υποτιμηθεί οι δυσκολίες στην υλοποίηση των στόχων του εργαστηρίου στο Dartmouth.
Τις πρώτες δεκαετίες μετά το 1970, κυβερνήσεις και επενδυτές απογοητεύτηκαν και σταμάτησαν να χρηματοδοτούν την έρευνα στην τεχνητή νοημοσύνη φέρνοντας τον πρώτο χειμώνα στο συγκεκριμένο πεδίο. Η άνθηση των έμπειρων συστημάτων στις αρχές του 1980 αναπτέρωσε τις ελπίδες για τις δυνατότητες της τεχνητής νοημοσύνης. Συστήματα που ενσωμάτωναν την ανθρώπινη γνώση σε μια σειρά από κανόνες, που αξιολογούσαν τα δεδομένα και βοηθούσαν στη λήψη αποφάσεων, δημιούργησαν μια νέα βιομηχανία. Σύντομα όμως έφτασαν στα όριά τους καθώς δεν μπορούσαν να αντιδράσουν σε απρόσμενες συνθήκες και συστηματικά απαιτούσαν πολύ εκπαίδευση για να επιτυγχάνουν αποδεκτά αποτελέσματα.
Στα χρόνια που μεσολάβησαν από το 1990 μέχρι το 2010, η τεχνητή νοημοσύνη είχε μικρές αναλαμπές οι οποίες έδειχναν ότι η ανθρώπινη λογική είχε ωριμάσει αρκετά ώστε να σχεδιάσει και να προγραμματίσει κατάλληλα τις μηχανές: Ο Deep Blue κατάφερε να κερδίσει τον παγκόσμιο πρωταθλητή στο σκάκι, ερευνητές σχεδίασαν πολύπλοκα νευρωνικά δίκτυα που μπορούσαν να καταλαβαίνουν την ανθρώπινη γραφή και ομιλία, τα πρώτα αυτόνομα οχήματα άρχισαν να κατασκευάζονται και να δοκιμάζονται, οι κατασκευαστές ρομπότ άρχισαν σταδιακά να εξελίσσουν τα ρομπότ ώστε να έχουν ποικιλία στη συμπεριφορά τους.
Οι επενδύσεις και το ενδιαφέρον για την τεχνητή νοημοσύνη αυξήθηκαν στο τέλος της πρώτης δεκαετίας του 21ου αιώνα, όταν η μηχανική μάθηση εφαρμόστηκε με επιτυχία σε πολλά προβλήματα στον ακαδημαϊκό χώρο και στη βιομηχανία, λόγω της μεγάλης αύξησης της υπολογιστικής ισχύος και της συλλογής τεράστιων συνόλων δεδομένων. Οι προσωπικοί βοηθοί άρχισαν να μπαίνουν στα κινητά μας τηλέφωνα, οι μηχανές άρχισαν να κερδίζουν τους ανθρώπους και σε πιο σύνθετα παιχνίδια όπως το Go ή σε διαγωνισμούς γνώσης, όπως το τεστ κατανόησης λόγου του Stanford.
Μόλις το 2020 η OpenAI κυκλοφόρησε το μεγάλο γλωσσικό της μοντέλο GPT-3, ένα πολύπλοκο νευρωνικό δίκτυο με εκατομμύρια παραμέτρους που είχαν εκπαιδευτεί σε ένα τεράστιο σώμα κειμένων. Το GPT-3 αποτέλεσε τη βάση για μια σειρά από επιτυχημένες εφαρμογές που στηρίχθηκαν σε αυτό για να παράξουν κείμενο, να απαντήσουν ερωτήσεις, να φέρουν σε πέρας μια σειρά από δύσκολες εργασίες κατανόησης κειμένου.
Στο τέλος του 2022 η ίδια εταιρία άνοιξε στο ευρύ κοινό την εφαρμογή διαλόγου ChatGPT που βασίστηκε στο GPT-3.5 και κυριολεκτικά αναστάτωσε την παγκόσμια αγορά πληροφορικής με τις δυνατότητές του που κυμαίνονται από την παραγωγή κειμένου σε διάφορες γλώσσες, την παραγωγή κώδικα, ακόμη και την παραγωγή μουσικών συνθέσεων.
Ήδη μετά την επιτυχία του ChatGPT, η Microsoft έχει αρχίσει να ενσωματώνει λειτουργίες του σε όλα τα εμπορικά λογισμικά της, αποκτώντας έτσι ανταγωνιστικό πλεονέκτημα, που σε ένα βαθμό εξηγεί και τις αντιδράσεις των ανταγωνιστών της.
Παράλληλα, σε ευρωπαϊκές χώρες, οι Αρχές Προστασίας Προσωπικών Δεδομένων απαγορεύουν τη χρήση του ChatGPT, με βασικό επιχείρημα την παράνομη συλλογή και επεξεργασία προσωπικών δεδομένων.
Το ζητούμενο δεν είναι να σταματήσει η ανάπτυξη εφαρμογών τεχνητής νοημοσύνης. Πλέον, αυτές κάνουν ποιοτικά άλματα χάρη στη σημαντική πρόοδο στις υπολογιστικές υποδομές, στο διαθέσιμο ψηφιακό περιεχόμενο και στα μοντέλα GPT. Για όσους ενδιαφέρονται σε επιστημονικό-τεχνικό επίπεδο, πολλά από τα προ-εκπαιδευμένα μεγάλα μοντέλα, είτε γλωσσικά, είτε μοντέλα που αφορούν εικόνες, είναι διαθέσιμα στο huggingface.co και χρησιμοποιούνται ευρύτατα από ερευνητές και εφαρμογές για μια σειρά από εργασίες.
Το ζητούμενο είναι η θεσμοθέτηση αποτελεσματικής ρύθμισης της τεχνητής νοημοσύνης στις δημοκρατικές χώρες και παγκοσμίως στο πλαίσιο του Οργανισμού Ηνωμένων Εθνών. Αυτό θα βοηθήσει στον έλεγχο της ανάπτυξης και της χρήσης της τεχνητής νοημοσύνης, όπως γίνεται για να περιοριστεί η διάδοση των πυρηνικών όπλων. Ένα αρχικό βήμα είναι η διάθεση των μοντέλων GPT και των συνόλων δεδομένων που χρησιμοποιούνται για την εκπαίδευσή τους με άδειες ανοιχτού λογισμικού, όπως η GPL (gnu.org) ή η EUPL.
Το μεγαλύτερο ίσως πρόβλημα που κρύβεται πίσω από αυτή την αλματώδη εξέλιξη της τεχνητής νοημοσύνης είναι το χάσμα που δημιουργείται ανάμεσα σε όσους μπορούν να εκπαιδεύσουν εξ’ αρχής τα δικά τους μοντέλα, ενδεχομένως γιατί διαθέτουν υπερυπολογιστές και πληθώρα δεδομένων για να τα εκπαιδεύσουν, και σε αυτούς που αρκούνται να χρησιμοποιούν τα έτοιμα μοντέλα, να προσαρμόζουν μερικές μόνο από τις παραμέτρους τους και να αναπτύσσουν λύσεις μεταποίησης πάνω στον κορμό που ορίζουν οι εταιρικοί κολοσσοί.
Το παλιότερο μοντέλο «the rich get richer» που υιοθετούσε ο αλγόριθμος κατάταξης της Google, ο PageRank, και οδηγούσε τις ιστοσελίδες μεγάλων εταιριών και οργανισμών πάντοτε ψηλά στα αποτελέσματα αναζήτησης, φαίνεται να επαναλαμβάνεται και στην τεχνητή νοημοσύνη, καθώς οι εταιρίες που έχουν μοντέλα όπως το GPT-4 και εφαρμογές όπως το ChatGPT, συνεχίζουν να μαζεύουν δεδομένα και να βελτιώνουν τα μοντέλα τους, αφήνοντας πίσω ή απορροφώντας μικρότερες εταιρίες ή ερευνητές, που ενδεχομένως έχουν καλές λύσεις για ένα πρόβλημα αλλά δεν έχουν ούτε τους πόρους ούτε τα δεδομένα για να το λύσουν από μόνοι τους. Και οδηγεί σταδιακά τους σύγχρονους μεγάλους της Τεχνητής Νοημοσύνης όπως ο Yann LeCun, ο Geoffrey Hinton και ο Andrej Karpathy στη Meta, στη Google Brain και στην OpenAI αντίστοιχα.
Η απάντηση στους φόβους από τη χρήση της τεχνητής νοημοσύνης μπορεί να έρθει με το άνοιγμα των μοντέλων και δεδομένων στο ευρύ κοινό, ώστε να μπορούν να δοκιμαστούν και να αξιολογηθούν αλλά και από τον εκδημοκρατισμό των πόρων που διαθέτουν οι μεγάλες εταιρίες του χώρου και τη διάθεση μέρους αυτών σε ερευνητικούς φορείς και εργαστήρια που θα φροντίσουν για τη σωστή αξιοποίηση της τεχνητής νοημοσύνης και των αποτελεσμάτων της.
Τέλος, οι εφαρμογές τεχνητής νοημοσύνης θα είναι χρήσιμες για το κοινό καλό, εάν αυτή η νέα αγορά ρυθμιστεί αποτελεσματικά, ώστε να επιτρέπει τη δημιουργία νέας γνώσης από τους ανθρώπους.
Αυτό προϋποθέτει ότι το εκπαιδευτικό σύστημα σε όλες τις βαθμίδες, από το νηπιαγωγείο έως τα προγράμματα συνεχιζόμενης εκπαίδευσης, θα εκσυγχρονιστεί, ώστε να δίνει τη δυνατότητα στους ανθρώπους να είναι δημιουργοί και όχι άβουλοι καταναλωτές στο πλαίσιο του νέου σταδίου του καπιταλισμού, του «ολοκληρωτικού καπιταλισμού της παρακολούθησης».
Ένα ερώτημα που θα πρέπει να απαντηθεί από συλλογικούς φορείς των εργαζομένων, κυβερνητικούς φορείς σε όλα τα επίπεδα διακυβέρνησης, αλλά και από την ακαδημαϊκή ερευνητική κοινότητα είναι πώς οι νέες τεχνολογίες μπορούν να χρησιμοποιηθούν για να δώσουν στους ανθρώπους νέες ικανότητες αντί να τις αντικαταστήσουν.
—
Ο Θόδωρος Καρούνος (karounos.gr) είναι ερευνητής στο ΕΜΠ(infostrag.gr) και μέλος του ΔΣ του Οργανισμού Ανοιχτών Τεχνολογιών (eellak.gr).
—
Το άρθρο δημοσιεύθηκε στο kreport.gr