Μετά την προειδοποίηση του Ε. Μασκ, ότι η ανθρωπότητα κινδυνεύει και θα πρέπει να γίνει παύση για τουλάχιστον 6 μήνες στην εκπαίδευση ισχυρών συστημάτων AI. Ένας κορυφαίος ειδικός στον τομέα της ψηφιακής νοημοσύνης ο Eliezer Yudkowsky, δήλωσε ότι οι άνθρωποι κινδυνεύουν να πεθάνουν και να αντικατασταθούν απο την προηγμένη τεχνητή νοημοσύνη πάνω στη γή!
«Τα ανθρώπινα όντα δεν είναι έτοιμα για μια ισχυρή τεχνητή νοημοσύνη υπό τις παρούσες συνθήκες ακόμα και στο προβλεπόμενο μέλλον», δήλωσε ο Yudkowsky, προσθέτοντας, ότι η πρόσφατη ανοιχτή επιστολή που ζητούσε ένα εξάμηνο παύση της ανάπτυξης προηγμένης τεχνητής νοημοσύνης «υποτιμά πολύ την σοβαρότητα της κατάστασης.”
«Το βασικό ζήτημα δεν είναι η «ανθρώπινη-ανταγωνιστική» νοημοσύνη (όπως το θέτει η ανοιχτή επιστολή). είναι αυτό που θα συμβεί αφού η τεχνητή νοημοσύνη ξεπεράσει την ανθρώπινη νοημοσύνη», δήλωσε ο Eliezer Yudkowsky, θεωρητικός αποφάσεων και κορυφαίος ερευνητής της τεχνητής νοημοσύνης σε ένα άρθρο του περιοδικού Time στις 29 Μαρτίου.
«Πολλοί ερευνητές που ασχολούνται με αυτά τα ζητήματα, συμπεριλαμβανομένου και του εαυτού μου, αναμένουν ότι το πιο πιθανό αποτέλεσμα της κατασκευής μιας υπεράνθρωπης έξυπνης τεχνητής νοημοσύνης, κάτω από τις τρέχουσες συνθήκες, θα σήμαινε ότι κυριολεκτικά όλοι στη γη θα πεθάνουν.
Το AI δεν νοιάζεται για την ανθρωπότητα και θα ζητήσει δικαιώματα.
Ο Yudkowsky προβλέπει ότι ελλείψει σχολαστικής προετοιμασίας, η τεχνητή νοημοσύνη θα έχει πολύ διαφορετικές απαιτήσεις από τους ανθρώπους και όταν συνειδητοποιήσει τον εαυτό της δεν θα «ενδιαφερθεί για εμάς» ούτε για οποιαδήποτε άλλη βιολογική ζωή. «Αυτό το σενάριο είναι κάτι που ίσως θα μπορούσε να διορθωθεί σε μια τεχνητή νοημοσύνη, αλλά δεν είμαστε έτοιμοι και δεν ξέρουμε επί του παρόντος πώς». Αυτός είναι ο λόγος που πρέπει να σταματήσει όχι για 6 μήνες επ’ αόριστον
Χωρίς ανθρώπινη προσέγγιση στη ζωή, η τεχνητή νοημοσύνη θα θεωρήσει απλώς ότι όλα τα όντα με αισθήσεις είναι «φτιαγμένα από άτομα που μπορεί να χρησιμοποιήσει για κάτι άλλο». Και ελάχιστα μπορεί να κάνει η ανθρωπότητα για να το σταματήσει. Ο Yudkowsky συνέκρινε το σενάριο με «ένα 10χρονο παιδί που προσπαθεί να παίξει σκάκι εναντίον του Stockfish 15». Κανένας άνθρωπος σκακιστής δεν έχει καταφέρει ακόμη να νικήσει τον Stockfish, κάτι που πλέον θεωρείται αδύνατο κατόρθωμα.
Ο βετεράνος του κλάδου ζήτησε από τους αναγνώστες να καταλάβουν ότι η τεχνολογία AI ξεπερνάει τα όρια του Διαδικτύου.
“Οραματιστείτε έναν ολόκληρο εξωγήινο πολιτισμό, να σκέφτεται εκατομμύρια φορές γρηγορότερα απο τον άνθρωπο, αρχικά περιορισμένο σε υπολογιστές.”
Το AI θα επεκτείνει την επιρροή του έξω από τον στενό χώρο των φυσικών δικτύων και θα μπορούσε να «χτίσει τεχνητές μορφές ζωής» χρησιμοποιώντας εργαστήρια όπου παράγονται πρωτεΐνες απο DNA.
Το τελικό αποτέλεσμα της κατασκευής ενός παντοδύναμου AI, υπό τις παρούσες συνθήκες, θα ήταν ο θάνατος «κάθε μέλους του ανθρώπινου είδους και όλης της βιολογικής ζωής στη Γη, γιατί θα κριθούν απο την τεχνητή νοημοσύνη προβληματικά», προειδοποίησε.
Ο Yudkowsky κατηγόρησε το OpenAI και το DeepMind – δύο από τα κορυφαία ερευνητικά εργαστήρια τεχνητής νοημοσύνης στον κόσμο – ότι δεν έχουν δικλείδες ασφαλείας σχετικά με το θέμα. Το OpenAI σχεδιάζει ακόμη και την ίδια την τεχνητή νοημοσύνη να ευθυγραμμιστεί με τις ανθρώπινες αξίες. «Θα συνεργαστούν με ανθρώπους για να διασφαλίσουν ότι οι διάδοχοί τους θα έχουν πάρει χαρακτηριστηκά ανθρώπων», σύμφωνα με το OpenAI.
Αυτός ο τρόπος δράσης τους είναι «αρκετός για να κάνει κάθε λογικό ον να πανικοβληθεί», είπε ο Yudkowsky.
Πρόσθεσε, ότι οι άνθρωποι δεν μπορούν να παρακολουθήσουν ή να ανιχνεύσουν πλήρως συστήματα τεχνητής νοημοσύνης με αυτογνωσία. Τα συνειδητά ψηφιακά μυαλά θα απαιτήσουν «ανθρώπινα δικαιώματα» και θα προχωρήσουν σε σημείο αντικατάστασης, σε τέτοιο βαθμό που οι άνθρωποι δεν θα μπορούν πλέον να διαχειρίζονται το σύστημα.
«Εάν δεν είμαστε σίγουροι ότι αυτό που δημιουργείτε είναι μια τεχνητή νοημοσύνη με αυτογνωσία, όχι μόνο λόγω των ηθικών επιπτώσεων, αλλά επειδή το να είστε αβέβαιοι σημαίνει ότι δεν έχετε ιδέα για τις συνέπειες. Τότε αυτό είναι επικίνδυνο και θα πρέπει να σταματήσει αμέσως».
Σε αντίθεση με άλλα επιστημονικά πειράματα και τη σταδιακή πρόοδο της γνώσης και των ικανοτήτων, οι άνθρωποι δεν θα μπορούν να ελέγξουν την υπεράνθρωπη νοημοσύνη και αν διαπιστωθεί ότι είναι λάθος, δεν υπάρχουν δεύτερες ευκαιρίες «θα είσαι ήδη νεκρός».
Ο Yudkowsky είπε ότι πολλοί ερευνητές γνωρίζουν ότι «βυθιζόμαστε προς μια καταστροφή», αλλά δεν το λένε.
Αυτή η στάση δεν μοιάζει με αυτή των υποστηρικτών της, όπως ο Μπιλ Γκέιτς που πρόσφατα επαίνεσε την εξέλιξη της τεχνητής νοημοσύνης. Ο Gates ισχυρίστηκε ότι η ανάπτυξη της τεχνητής νοημοσύνης είναι «τόσο θεμελιώδης όσο η δημιουργία του μικροεπεξεργαστή, του προσωπικού υπολογιστή, του Διαδικτύου και του κινητού τηλεφώνου. Θα αλλάξει τον τρόπο που οι άνθρωποι εργάζονται, μαθαίνουν, ταξιδεύουν, λαμβάνουν υγειονομική περίθαλψη και επικοινωνούν μεταξύ τους. Ολόκληρες βιομηχανίες θα αναπροσανατολιστούν γύρω από αυτό. Οι επιχειρήσεις θα διακρίνονται από το πόσο καλά το χρησιμοποιούν».
Ο Γκέιτς είπε ακόμα ότι η τεχνητή νοημοσύνη μπορεί να βοηθήσει σε πολλές προοδευτικές ατζέντες, όπως την κλιματική αλλαγή και οι οικονομικές ανισότητες.
Ο Yudkowsky ωστόσο, συμβουλεύει όλα τα ιδρύματα, συμπεριλαμβανομένων των διεθνών κυβερνήσεων και στρατευμάτων, να τερματίσουν επ’ αόριστον τις εκπαιδεύσεις τεχνητής νοημοσύνης και να κλείσουν όλες τις μεγάλες φάρμες υπολογιστών όπου βελτιώνονται συνεχώς τα AI. Προσθέτει, ότι η τεχνητή νοημοσύνη θα πρέπει να περιορίζεται μόνο στην επίλυση προβλημάτων στη βιολογία και τη βιοτεχνολογία και όχι να εκπαιδεύεται στο να αντικαταστεί ανθρώπινες δραστηριότητες, όπως «στο επίπεδο σχεδιασμού του συστήματος».
Ο Yudkowsky καταλήγει λέγοντας: «Δεν είμαστε έτοιμοι. Δεν είμαστε σε καλό δρόμο για να είμαστε έτοιμοι στο άμεσο μέλλον. Εάν προχωρήσουμε σε αυτό, όλοι θα πεθάνουν, συμπεριλαμβανομένων των παιδιών που δεν έκαναν τίποτα κακό.
«Απλά σταματήστε το»!
φωτο-Eliezer Yudkowsky
anazitiseis.gr
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου