5 Μαΐου 2023

Πώς η Τεχνητή Νοημοσύνη συμβάλλει στην παραπλάνηση των πολλών

Καθώς η χώρα μας οδηγείται σε εκλογική αναμέτρηση, παρατηρούμε έναν δυτικό πολιτισμό, όπως τον ξέραμε μέχρι σήμερα,  υπό διάλυση και κοινωνίες στο κατώφλι μιας νέας εποχής, με κύρια χαρακτηριστικά τον διχασμό και την πόλωση, καθώς και μια νέα αντιπάθεια απέναντι στις μειονότητες, με πολλαπλές τάσεις απομονωτισμού και μισαλλοδοξίας, και με γενική καχυποψία απέναντι στους κοινωνικούς και πολιτισμικούς θεσμούς που δείχνουν να ωφελούν κάποιες «ελίτ».

Οι ειδήμονες συμφωνούν πως μια τέτοια περιγραφή, που πολλοί σήμερα τη θεωρούν ορθή, δεν είναι παρά το αποτέλεσμα ενός συστήματος με κύριο σκοπό την παραπλάνηση, αν μη τι άλλο και λόγω μιας επιφανειακής και επιπόλαιης ‘ενημέρωσης’ των πολλών από τρολ και ψεύτικες ειδήσεις που κατακλύζουν τα κοινωνικά δίκτυα.

Στο βιβλίο της Γένεσης το φίδι εξαπάτησε την Εύα να πιστέψει μια μετα-αλήθεια που δεν ήταν παρά ένα ωμό ψέμα περί θεοποίησης του ανθρώπου, συνυφασμένο με μια ψεύτικη υπόσχεση ότι στο εξής θα μπορούσαν οι άνθρωποι να διακρίνουν από μόνοι τους το καλό από το κακό. Στη στήλη αυτή έχουμε επανειλημμένα επιχειρήσει μια ανάλυση σχετικά με το τι εστί το κακό, διακρίνοντας πως το φυσικό κακό προκαλείται και από έναν εθισμό του νοητικά ξεπεσμένου ανθρώπου προς την αναλήθεια. Και έχουμε συζητήσει πώς ο άνθρωπος περιπλέχτηκε σε έναν παραπλανητικό σχετικισμό σε θέματα ηθικής που κυριαρχεί στις δυτικές κοινωνίες σήμερα.

Στην αλυσίδα παραπλάνησης έρχεται να προστεθεί ένας επιπλέον κρίκος που είναι αποτέλεσμα της περαιτέρω τεχνολογικής εξέλιξης, δηλαδή της τεχνητής νοημοσύνης. Τις μέρες αυτές, νέα συστήματα, εκ των οποίων το ChatGPT της εταιρίας OpenAI, το Bard της Google και το Sydney της Microsoft παρουσιάζονται στη δημοσιότητα ως θαύματα μηχανικής μάθησης, με βάση κάτι που ονομάζεται Μεγάλα Γλωσσικά Μοντέλα, τα οποία χρησιμοποιώντας τεράστιες ποσότητες δεδομένων, αναζητούν μοτίβα σε αυτά και γίνονται όλο πιο ικανά στη δημιουργία στατιστικά πιθανών αποτελεσμάτων από την ανθρώπινη γλώσσα (παρομοίως και στη ζωγραφική και στη μουσική). Όπως περιγράφει ο Θοδωρής Γεωργακόπουλος στην «Καθημερινή», κάνουν κάτι ενδιαφέρον, και ταυτόχρονα φαινομενικά απλό. Προβλέπουν ποιες θα είναι οι επόμενες λέξεις μετά από μια αλληλουχία λέξεων. Έχοντας επεξεργαστεί έναν τεράστιο όγκο κειμένων και αναλύσει τις αλληλουχίες των λέξεων που είναι πιθανές, αναπτύσσουν ένα μοντέλο πρόβλεψης. Ο χρήστης, γράφοντας μια σειρά από λέξεις – π.χ. μια ερώτηση – βλέπει το σύστημα να του απαντά με ένα κείμενο του οποίου οι λέξεις θεωρούνται πιθανές ως ακολουθία. Εργαλεία όπως το ChatGPT το κάνουν αυτό με αξιοθαύμαστη αποτελεσματικότητα, με στρωτή γλώσσα και με αξιοσημείωτη ακρίβεια. Πολλοί νομίζουν ότι κάποιοι ταλαντούχοι προγραμματιστές της εταιρίας που προσφέρει το σύστημα αυτό «έγραψαν κώδικα» ή «έγραψαν τους αλγόριθμους» με τους οποίους το σύστημα αυτό αναλύει τους ωκεανούς των δεδομένων και βγάζει εκπληκτικά αποτελέσματα. Αλλά δεν έγιναν έτσι τα πράγματα. Οι προγραμματιστές δεν ξέρουν πώς να γράψουν έναν αλγόριθμο που να επεξεργάζεται τους ωκεανούς των δεδομένων με τον σωστό τρόπο ώστε να βγαίνουν αυτά τα εκπληκτικά αποτελέσματα, οπότε έγραψαν έναν άλλο αλγόριθμο που ζητά από το μηχάνημα να δοκιμάσει όλους τους πιθανούς αλγόριθμους επεξεργασίας των στοιχείων, μέχρις ότου βρει αυτούς που δίνουν το καλύτερο αποτέλεσμα. Πράγμα που ακούγεται συναρπαστικό, αλλά σημαίνει επίσης ότι οι προγραμματιστές δεν έχουν ιδέα πώς το πρόγραμμα λειτουργεί. Δεν γνωρίζουν πώς βγάζει τα αποτελέσματα που βγάζει. Και καταλήγει ο αρθρογράφος πως πρόκειται για προβλήματα σημαντικά, που πρέπει να συζητηθούν. Ένα από αυτά έχει να κάνει με το ποιος ελέγχει τα συστήματα αυτά. Αυτό που είναι σίγουρο είναι το ότι δεν είμαστε καθόλου προετοιμασμένοι να διαχειριστούμε μια τέτοια αλλαγή και η χρήση των συστημάτων αυτών μπορεί να χρησιμοποιηθεί για σκοπούς παραπλάνησής μας.

Το Future of Life Institute, που ίδρυσε ο φυσικομαθηματικός Μαξ Τέγκμαρκ, έχει δημιουργήσει μια λίστα με 23 Αρχές Ασφαλούς Ανάπτυξης της Τεχνητής Νοημοσύνης και δημοσίευσε μια ανοιχτή επιστολή  με την οποία  προτείνει μια προσωρινή, πρωτοφανή αλλά φαινομενικά απαραίτητη λύση: την παύση. Να σταματήσουμε την τεχνολογική ανάπτυξη σε αυτό τον τομέα, μέχρις ότου τα βάλουμε όλα κάτω και εξασφαλίσουμε ότι υπάρχουν δομικές, θεσμικές ασφαλιστικές δικλείδες που θα περιορίσουν τους κινδύνους. Είναι ρεαλιστική μια τέτοια πρόταση; Μάλλον όχι. Αλλά και μόνο το ότι περισσότεροι από 5700 ειδικοί από διάφορα επιστημονικά πεδία τη συνυπογράφουν, μας δίνει μια εικόνα για την κρισιμότητα και τη σημασία του θέματος.

Η ανησυχία είναι δικαιολογημένη, όχι μόνο ενόψει της ραγδαίας αύξησης των ψεύτικων ειδήσεων που παρατηρείται τον τελευταίο καιρό στα κοινωνικά δίκτυα, αλλά και λόγω της εκρηκτικής κατάστασης στην οποία βρίσκονται πολλές διχασμένες κοινωνίες της Δύσης σήμερα.