ΦΩΤΙΑ ΣΤΑ ΓΕΝΙΚΑ ΕΠΙΤΕΛΕΙΑ!
Αγωνιζόμαστε για την "ΣΥσπείρωση της ΡΙΖοσπαστικής Αριστεράς" στην κατεύθυνση της κοινής δράσης στους μαζικούς χώρους και τα κοινωνικά κινήματα, και παράλληλα για την πολιτική της συγκρότηση σε ένα ενιαίο αμεσοδημοκρατικό πολιτικό φορέα

Τρίτη 6 Ιουνίου 2023

Harari: τεχνητή νοημοσύνη έχει χακάρει το λειτουργικό σύστημα του ανθρώπινου πολιτισμού



Απόσπασμα από το «Yuval Noah Harari argues that AI has hacked the operating system of human civilisation» στο economist.com

του Yuval Noah Harari

Μέχρι τώρα αυτοί οι φόβοι επικεντρώνονταν σε μηχανές που χρησιμοποιούν φυσικά μέσα για να σκοτώσουν, να υποδουλώσουν ή να αντικαταστήσουν ανθρώπους. Όμως τα τελευταία δύο χρόνια έχουν εμφανιστεί νέα εργαλεία τεχνητής νοημοσύνης που απειλούν την επιβίωση του ανθρώπινου πολιτισμού από μια απροσδόκητη κατεύθυνση. η τεχνητή νοημοσύνη έχει αποκτήσει μερικές αξιοσημείωτες ικανότητες χειρισμού και παραγωγής γλώσσας, είτε με λέξεις, ήχους ή εικόνες. η τεχνητή νοημοσύνη έχει έτσι χακάρει το λειτουργικό σύστημα του πολιτισμού μας.

Η γλώσσα είναι το υλικό από το οποίο αποτελείται σχεδόν όλος ο ανθρώπινος πολιτισμός. Τα ανθρώπινα δικαιώματα, για παράδειγμα, δεν είναι εγγεγραμμένα στο DNA μας . Μάλλον, είναι πολιτιστικά αντικείμενα που δημιουργήσαμε λέγοντας ιστορίες και γράφοντας νόμους. Οι θεοί δεν είναι φυσικές πραγματικότητες. Μάλλον, είναι πολιτιστικά αντικείμενα που δημιουργήσαμε επινοώντας μύθους και γράφοντας γραφές.

Τα χρήματα, επίσης, είναι ένα πολιτιστικό τεχνούργημα. Τα τραπεζογραμμάτια είναι απλά πολύχρωμα κομμάτια χαρτιού και επί του παρόντος περισσότερο από το 90% των χρημάτων δεν είναι καν τραπεζογραμμάτια — είναι απλώς ψηφιακές πληροφορίες σε υπολογιστές. Αυτό που δίνει αξία στα χρήματα είναι οι ιστορίες που μας λένε γι' αυτό τραπεζίτες, υπουργοί Οικονομικών και γκουρού κρυπτονομισμάτων. Ο Sam Bankman-Fried, η Elizabeth Holmes και ο Bernie Madoff δεν ήταν ιδιαίτερα καλοί στη δημιουργία πραγματικής αξίας, αλλά ήταν όλοι εξαιρετικά ικανοί αφηγητές.

Τι θα συνέβαινε όταν μια μη ανθρώπινη νοημοσύνη γίνει καλύτερη από τον μέσο άνθρωπο στο να λέει ιστορίες, να συνθέτει μελωδίες, να σχεδιάζει εικόνες και να γράφει νόμους και γραφές; Όταν οι άνθρωποι σκέφτονται για το Chat gpt και άλλα νέα εργαλεία τεχνητής νοημοσύνης , συχνά προσελκύονται από παραδείγματα όπως τα παιδιά σχολικής ηλικίας που χρησιμοποιούν τεχνητή νοημοσύνη για να γράψουν τα δοκίμιά τους. Τι θα συμβεί στο σχολικό σύστημα όταν τα παιδιά το κάνουν αυτό; Αλλά αυτού του είδους η ερώτηση χάνει τη μεγάλη εικόνα. Ξεχάστε τα σχολικά δοκίμια. Σκεφτείτε την επόμενη αμερικανική προεδρική κούρσα το 2024 και προσπαθήστε να φανταστείτε τον αντίκτυπο των εργαλείων τεχνητής νοημοσύνης που μπορούν να κατασκευαστούν για τη μαζική παραγωγή πολιτικού περιεχομένου, ψευδών ειδήσεων και γραφών για νέες λατρείες.

Σε ένα πιο πεζό επίπεδο, μπορεί σύντομα να βρεθούμε να διεξάγουμε μακροχρόνιες διαδικτυακές συζητήσεις σχετικά με την άμβλωση, την κλιματική αλλαγή ή τη ρωσική εισβολή στην Ουκρανία με οντότητες που πιστεύουμε ότι είναι άνθρωποι — αλλά στην πραγματικότητα είναι ai. Το αλίευμα είναι ότι είναι εντελώς άσκοπο για εμάς να ξοδεύουμε χρόνο προσπαθώντας να αλλάξουμε τις δηλωμένες απόψεις ενός bot ai , ενώ η τεχνητή νοημοσύνη θα μπορούσε να ακονίσει τα μηνύματά της με τόση ακρίβεια ώστε να έχει πολλές πιθανότητες να μας επηρεάσει.

Μέσω της γνώσης της γλώσσας, η τεχνητή νοημοσύνη θα μπορούσε ακόμη και να δημιουργήσει στενές σχέσεις με τους ανθρώπους και να χρησιμοποιήσει τη δύναμη της οικειότητας για να αλλάξει τις απόψεις και τις κοσμοθεωρίες μας. Αν και δεν υπάρχει καμία ένδειξη ότι η τεχνητή νοημοσύνη έχει κάποια δική της συνείδηση ή συναισθήματα, για να καλλιεργηθεί ψεύτικη οικειότητα με τους ανθρώπους, αρκεί η τεχνητή νοημοσύνη να τους κάνει να αισθάνονται συναισθηματικά δεμένοι μαζί της. Τον Ιούνιο του 2022, ο Blake Lemoine, μηχανικός της Google, ισχυρίστηκε δημόσια ότι το chatbot ai la mda , στο οποίο εργαζόταν, είχε γίνει ευαίσθητο. Ο αμφιλεγόμενος ισχυρισμός του κόστισε τη δουλειά του. Το πιο ενδιαφέρον σε αυτό το επεισόδιο δεν ήταν ο ισχυρισμός του κ. Lemoine, ο οποίος ήταν μάλλον ψευδής. Μάλλον, ήταν η προθυμία του να ρισκάρει την προσοδοφόρα δουλειά του για χάρη του ai chatbot. Εάν η τεχνητή νοημοσύνη μπορεί να επηρεάσει τους ανθρώπους να ρισκάρουν τις δουλειές τους για αυτό, τι άλλο θα μπορούσε να τους παρακινήσει να κάνουν;

Σε μια πολιτική μάχη για μυαλά και καρδιές, η οικειότητα είναι το πιο αποτελεσματικό όπλο και η τεχνητή νοημοσύνη μόλις απέκτησε την ικανότητα να παράγει μαζικά στενές σχέσεις με εκατομμύρια ανθρώπους. Όλοι γνωρίζουμε ότι την τελευταία δεκαετία τα μέσα κοινωνικής δικτύωσης έχουν γίνει πεδίο μάχης για τον έλεγχο της ανθρώπινης προσοχής. Με τη νέα γενιά ai , το μέτωπο της μάχης μετατοπίζεται από την προσοχή στην οικειότητα. Τι θα συμβεί με την ανθρώπινη κοινωνία και την ανθρώπινη ψυχολογία καθώς η τεχνητή νοημοσύνη πολεμά την τεχνητή νοημοσύνη σε μια μάχη για πλαστές στενές σχέσεις μαζί μας, οι οποίες μπορούν στη συνέχεια να χρησιμοποιηθούν για να μας πείσουν να ψηφίσουμε συγκεκριμένους πολιτικούς ή να αγοράσουμε συγκεκριμένα προϊόντα;

Ακόμη και χωρίς τη δημιουργία «ψεύτικης οικειότητας», τα νέα εργαλεία ai θα είχαν τεράστια επιρροή στις απόψεις και τις κοσμοθεωρίες μας. Οι άνθρωποι μπορεί να έρθουν να χρησιμοποιήσουν έναν και μόνο σύμβουλο τεχνητής νοημοσύνης ως μαντείο μιας στάσης, που γνωρίζει τα πάντα. Δεν είναι περίεργο που η Google είναι τρομοκρατημένη. Γιατί να μπω στον κόπο να ψάξω, όταν μπορώ απλώς να ρωτήσω το μαντείο; Οι βιομηχανίες ειδήσεων και διαφήμισης θα πρέπει επίσης να τρομοκρατούνται. Γιατί να διαβάζω μια εφημερίδα όταν μπορώ απλώς να ζητήσω από το μαντείο να μου πει τα τελευταία νέα; Και ποιος είναι ο σκοπός των διαφημίσεων, όταν μπορώ απλώς να ζητήσω από το μαντείο να μου πει τι να αγοράσω;

Και ακόμη και αυτά τα σενάρια δεν αποτυπώνουν πραγματικά τη μεγάλη εικόνα. Αυτό για το οποίο μιλάμε είναι δυνητικά το τέλος της ανθρώπινης ιστορίας. Όχι το τέλος της ιστορίας, απλώς το τέλος του ανθρωποκυριαρχούμενου μέρους της. Η ιστορία είναι η αλληλεπίδραση μεταξύ βιολογίας και πολιτισμού. ανάμεσα στις βιολογικές μας ανάγκες και επιθυμίες για πράγματα όπως το φαγητό και το σεξ, και τις πολιτιστικές μας δημιουργίες όπως οι θρησκείες και οι νόμοι. Η ιστορία είναι η διαδικασία μέσω της οποίας νόμοι και θρησκείες διαμορφώνουν το φαγητό και το σεξ.

Τι θα συμβεί στην πορεία της ιστορίας όταν η τεχνητή νοημοσύνη αναλάβει τον πολιτισμό και αρχίσει να παράγει ιστορίες, μελωδίες, νόμους και θρησκείες; Προηγούμενα εργαλεία όπως το τυπογραφείο και το ραδιόφωνο βοήθησαν στη διάδοση των πολιτιστικών ιδεών των ανθρώπων, αλλά ποτέ δεν δημιούργησαν νέες δικές τους πολιτιστικές ιδέες, το ai είναι θεμελιωδώς διαφορετικό. η τεχνητή νοημοσύνη μπορεί να δημιουργήσει εντελώς νέες ιδέες, εντελώς νέα κουλτούρα.

Στην αρχή, η τεχνητή νοημοσύνη πιθανότατα θα μιμηθεί τα ανθρώπινα πρωτότυπα στα οποία εκπαιδεύτηκε στην αρχή της. Αλλά κάθε χρόνο που περνάει, η κουλτούρα της τεχνητής νοημοσύνης θα πηγαίνει με τόλμη εκεί που δεν έχει πάει κανένας άνθρωπος πριν. Για χιλιετίες τα ανθρώπινα όντα έχουν ζήσει μέσα στα όνειρα άλλων ανθρώπων. Τις επόμενες δεκαετίες μπορεί να βρεθούμε να ζούμε μέσα στα όνειρα μιας εξωγήινης νοημοσύνης.

Ο φόβος για την τεχνητή νοημοσύνη στοιχειώνει την ανθρωπότητα μόνο τις τελευταίες δεκαετίες. Αλλά για χιλιάδες χρόνια οι άνθρωποι στοιχειώνονται από έναν πολύ βαθύτερο φόβο. Πάντα εκτιμούσαμε τη δύναμη των ιστοριών και των εικόνων να χειραγωγούν το μυαλό μας και να δημιουργούν ψευδαισθήσεις. Κατά συνέπεια, από την αρχαιότητα οι άνθρωποι φοβούνταν ότι θα παγιδευτούν σε έναν κόσμο ψευδαισθήσεων.

Τον 17ο αιώνα ο Ρενέ Ντεκάρτ φοβόταν ότι ίσως ένας κακόβουλος δαίμονας τον παγίδευε σε έναν κόσμο ψευδαισθήσεων, δημιουργώντας όλα όσα έβλεπε και άκουγε. Στην αρχαία Ελλάδα ο Πλάτων διηγήθηκε την περίφημη Αλληγορία του Σπηλαίου, στην οποία μια ομάδα ανθρώπων είναι αλυσοδεμένοι μέσα σε μια σπηλιά όλη τους τη ζωή, απέναντι από έναν κενό τοίχο. Μια ΟΘΟΝΗ. Σε αυτή την οθόνη βλέπουν να προβάλλονται διάφορες σκιές. Οι κρατούμενοι μπερδεύουν τις ψευδαισθήσεις που βλέπουν εκεί με την πραγματικότητα.

Στην αρχαία Ινδία, βουδιστές και ινδουιστές σοφοί τόνισαν ότι όλοι οι άνθρωποι ζούσαν παγιδευμένοι μέσα στους Μάγια —τον κόσμο των ψευδαισθήσεων. Αυτό που συνήθως θεωρούμε πραγματικότητα είναι συχνά απλώς μυθοπλασίες στο μυαλό μας. Οι άνθρωποι μπορεί να διεξάγουν ολόκληρους πολέμους, σκοτώνοντας άλλους και πρόθυμοι να σκοτωθούν οι ίδιοι, λόγω της πίστης τους σε αυτή ή εκείνη την ψευδαίσθηση.

Η επανάσταση της τεχνητής νοημοσύνης μας φέρνει αντιμέτωπους με τον δαίμονα του Ντεκάρτ, με τη σπηλιά του Πλάτωνα, με τους Μάγια . Αν δεν είμαστε προσεκτικοί, μπορεί να παγιδευτούμε πίσω από ένα παραπέτασμα ψευδαισθήσεων, το οποίο δεν θα μπορούσαμε να σκίσουμε - ή ακόμα και να συνειδητοποιήσουμε ότι υπάρχει.

Φυσικά, η νέα δύναμη της τεχνητής νοημοσύνης θα μπορούσε να χρησιμοποιηθεί και για καλούς σκοπούς. Δεν θα σταθώ σε αυτό, γιατί οι άνθρωποι που αναπτύσσουν ai μιλούν για αυτό αρκετά. Η δουλειά ιστορικών και φιλοσόφων όπως εγώ είναι να επισημαίνουν τους κινδύνους. Αλλά σίγουρα, η τεχνητή νοημοσύνη μπορεί να μας βοηθήσει με αμέτρητους τρόπους, από την εύρεση νέων θεραπειών για τον καρκίνο μέχρι την ανακάλυψη λύσεων για την οικολογική κρίση. Το ερώτημα που αντιμετωπίζουμε είναι πώς να διασφαλίσουμε ότι τα νέα εργαλεία ai χρησιμοποιούνται για καλό και όχι για κακό. Για να γίνει αυτό, πρέπει πρώτα να εκτιμήσουμε τις πραγματικές δυνατότητες αυτών των εργαλείων.

Από το 1945 γνωρίζουμε ότι η πυρηνική τεχνολογία θα μπορούσε να παράγει φθηνή ενέργεια προς όφελος των ανθρώπων – αλλά θα μπορούσε επίσης να καταστρέψει φυσικά τον ανθρώπινο πολιτισμό. Ως εκ τούτου, αναμορφώσαμε ολόκληρη τη διεθνή τάξη για να προστατεύσουμε την ανθρωπότητα και να διασφαλίσουμε ότι η πυρηνική τεχνολογία θα χρησιμοποιηθεί κυρίως για καλό. Τώρα πρέπει να παλέψουμε με ένα νέο όπλο μαζικής καταστροφής που μπορεί να εκμηδενίσει τον ψυχικό και κοινωνικό μας κόσμο.

Μπορούμε ακόμα να ρυθμίσουμε τα νέα εργαλεία ai , αλλά πρέπει να δράσουμε γρήγορα. Ενώ τα πυρηνικά δεν μπορούν να εφεύρουν πιο ισχυρά πυρηνικά, το ai μπορεί να κάνει εκθετικά πιο ισχυρό ai . Το πρώτο κρίσιμο βήμα είναι να απαιτηθούν αυστηροί έλεγχοι ασφάλειας πριν κυκλοφορήσουν ισχυρά εργαλεία τεχνητής νοημοσύνης στον δημόσιο τομέα. Όπως μια φαρμακευτική εταιρεία δεν μπορεί να κυκλοφορήσει νέα φάρμακα πριν δοκιμάσει τις βραχυπρόθεσμες και μακροπρόθεσμες παρενέργειές τους, έτσι και οι εταιρείες τεχνολογίας δεν θα πρέπει να κυκλοφορούν νέα εργαλεία τεχνητής νοημοσύνης προτού καταστούν ασφαλή. Χρειαζόμαστε ένα ισοδύναμο της Υπηρεσίας Τροφίμων και Φαρμάκων για τη νέα τεχνολογία, και το χρειαζόμαστε χθες.

Η επιβράδυνση των δημόσιων αναπτύξεων της τεχνητής νοημοσύνης δεν θα κάνει τις δημοκρατίες να υστερούν σε πιο αδίστακτα αυταρχικά καθεστώτα; Ακριβώς το αντίθετο. Οι ανεξέλεγκτες αναπτύξεις τεχνητής νοημοσύνης θα δημιουργούσαν κοινωνικό χάος, το οποίο θα ωφελούσε τους αυταρχικούς και θα κατέστρεφε τις δημοκρατίες. Η δημοκρατία είναι μια συζήτηση και οι συνομιλίες βασίζονται στη γλώσσα. Όταν η τεχνητή νοημοσύνη χακάρει τη γλώσσα, θα μπορούσε να καταστρέψει την ικανότητά μας να έχουμε ουσιαστικές συνομιλίες, καταστρέφοντας έτσι τη δημοκρατία.

Μόλις συναντήσαμε μια εξωγήινη νοημοσύνη, εδώ στη Γη. Δεν γνωρίζουμε πολλά για αυτό, εκτός από το ότι μπορεί να καταστρέψει τον πολιτισμό μας. Θα πρέπει να σταματήσουμε την ανεύθυνη ανάπτυξη εργαλείων τεχνητής νοημοσύνης στη δημόσια σφαίρα και να ρυθμίσουμε την τεχνητή νοημοσύνη προτού ρυθμίσει εμάς. Και ο πρώτος κανονισμός που θα πρότεινα είναι να γίνει υποχρεωτικό για την τεχνητή νοημοσύνη να αποκαλύψει ότι είναι τεχνητή νοημοσύνη. Αν συνομιλώ με κάποιον και δεν μπορώ να πω αν είναι άνθρωπος ή τεχνητή νοημοσύνη — αυτό είναι το τέλος της δημοκρατίας.


Αυτό το κείμενο δημιουργήθηκε από άνθρωπο.
Η μετάφραση στα ελληνικά είναι προϊόν της τεχνητής νοημοσύνης της Google...

1 σχόλιο :

  1. Με τεχνητή νοημοσύνη θα αντικαταστήσει δημοσιογράφους της η Bild

    https://kosmodromio.gr/2023/06/21/me-texnhth-nohmosunh-tha-antikatasths/

    ΑπάντησηΔιαγραφή


ΑΛΛΗ ΕΝΗΜΕΡΩΣΗ