Τετάρτη 17 Μαΐου 2023

Ανήσυχος ο δημιουργός του ChatGPT ενώπιον του Κογκρέσου: «Αν κάτι στραβώσει με την Τεχνητή Νοημοσύνη την έχουμε βάψει»! - «Μπορεί να προκαλέσει σοβαρές βλάβες στην Ανθρωπότητα»


 Θεόφραστος Ανδρεόπουλος

Ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, μίλησε ενώπιον του Κογκρέσου για τους κινδύνους της τεχνητής νοημοσύνης,

δεδομένου ότι το ChatGPT της εταιρείας, χρησιμοποιείται πλέον παντού και παραδέχτηκε πως η Τεχνητή Νοημοσύνη μπορεί να προκαλέσει σοβαρές βλάβες στην Ανθρωπότητα «και τότε την βάψαμε».

Οι βουλευτές επέκριναν τον διευθύνοντα σύμβουλο, τονίζοντας ότι το ChatGPT και άλλα μοντέλα θα μπορούσαν να αναδιαμορφώσουν την «ανθρώπινη ιστορία» προς το καλύτερο ή το χειρότερο, παρομοιάζοντάς την με το τυπογραφείο και την ατομική βόμβα.

Ο Άλτμαν, ο οποίος φαινόταν φαινόταν ανήσυχος παραδέχτηκε  ότι οι «χειρότεροι φόβοι» του είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει «σημαντική βλάβη στον κόσμο» χρησιμοποιώντας την τεχνολογία του.

Ο εφευρέτης του ChatGPT, Σαμ Άλτμαν, απευθυνόμενος σε ειδική υποεπιτροπή του αμερικανικού Κογκρέσου, τόνισε μεταξύ άλλων πως «ένας από τους μεγαλύτερους φόβους μου είναι μήπως η συγκεκριμένη τεχνολογία προκαλέσει σοβαρή ζημιά στην κοινωνία».

Ο διευθύνων σύμβουλος της OpenAI, της νεοφυούς εταιρείας από το Σαν Φρανσίσκο στην οποίαν ανήκει το ChatGPT, έκρουσε όσο πιο δυνατά μπορούσε έναν μεγάλο κώδωνα κινδύνου: «Αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε ‘τη βάψαμε’ όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο».

Το ChatGPT είναι ένα δωρεάν εργαλείο chatbot που απαντά σε ερωτήσεις με πειστικά…. ανθρώπινες απαντήσεις.

Ο Αμερικανός γερουσιαστής Josh Hawley είπε: «Πριν από ένα χρόνο δεν θα μπορούσαμε να έχουμε αυτή την συζήτηση επειδή αυτή η τεχνολογία δεν είχε ακόμη δημοσιοποιηθεί. Αλλά [αυτή η κουβέντα] δείχνει πόσο γρήγορα η [AI] αλλάζει και μεταμορφώνει τον κόσμο μας».

Η ακρόαση του 38χρονου Σαμ Άλτμαν την Τρίτη ενώπιον επιτροπής του Κογκρέσου των ΗΠΑ, η οποία συστήθηκε ειδικά για να εξετάσει το φαινόμενο της Τεχνητής Νοημοσύνης και των ενδεχόμενων κινδύνων που αυτή εγκυμονεί σε διάφορους τομείς της κοινωνικής ζωής, δεν ήταν συνηθισμένη.

Αντίθετα προς ό,τι είχε συμβεί σε προηγούμενες, πολυπροβεβλημένες ακροάσεις ισχυρών ανδρών του ψηφιακού κόσμου, όπως πχ ο Μαρκ Ζούκερμπεργκ του Facebook, στην περίπτωση του Άλτμαν το κυρίαρχο στοιχείο δεν ήταν η καχυποψία και η εχθρότητα, αλλά η διάθεση κατανόησης εκ μέρους της επιτροπής απέναντι σε έναν κοινό, καθ’ όλα πραγματικό κίνδυνο.

Από την πλευρά του, ο Σαμ Άλτμαν εμφανίστηκε ειλικρινής και νηφάλιος. Εκτός από τους φόβους του για τις πιθανώς επιβλαβείς πτυχές της Τεχνητής Νοημοσύνης, τόνισε ότι η εταιρεία του, η OpenAI «ίσως γίνει αιτία να καταργηθούν κάποιες θέσεις εργασίας, αλλά θα δημιουργήσει πολλές άλλες νέες. Και πέραν αυτού, η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να βελτιώσει σχεδόν όλες τις πλευρές της ζωής μας, να προσφέρει λύσεις στις μεγαλύτερες προκλήσεις της ανθρωπότητας, όπως πχ την κλιματική αλλαγή, τη θεραπεία του καρκίνου κ.α.»

Ο Άλτμαν επισήμανε επίσης ότι η Τεχνητή Νοημοσύνη δεν είναι ένα αυτόνομο ον, αλλά ένα εργαλείο. Παρολ’ αυτά, ο γερουσιαστής Ρίτσαρντ Μπλούμενταλ, πρόεδρος της υποεπιτροπής του Κογκρέσου η οποία διεξήγαγε την ακρόαση, ζήτησε την άποψη του Σαμ Άλτμαν για κάτι, ιδιαίτερα ανησυχητικό που συνέβη στον ίδιον: Χρησιμοποιώντας την Τεχνητή Νοημοσύνη, κάποιος δημιούργησε μια απομίμηση δήλωσης, η οποία αποδόθηκε στον Μπλούμενταλ, ενώ ο ίδιος δεν την είχε κάνει ποτέ.

Εκτός από τον Άλτμαν, η υποεπιτροπή άκουσε επίσης την κατάθεση της επικεφαλής του τομέα προστασίας ιδιωτικών δεδομένων της IBM, Κριστίνα Μοντγκόμερι, καθώς και του Γκάρι Μάρκους, καθηγητή και διάσημου στις ΗΠΑ για τη δριμεία κριτική που ασκεί στην Τεχνητή Νοημοσύνη.

Ο Μάρκους ήταν ο πιο αυστηρός από όσους απηύθυναν ερωτήσεις στον Άλτμαν, εκφράζοντας ξεκάθαρα τις αμφιβολίες του ότι η OpenAΙ δεν θα εξαφανίσει μόνο, αλλά και θα δημιουργήσει θέσεις εργασίας. Ταυτόχρονα, ο καθηγητής Μάρκους επέκρινε τον Σαμ Άλτμαν για την έλλειψη διαφάνειας σε σχέση με την έρευνα και εξέλιξη των συστημάτων Τεχνητής Νοημοσύνης.

Και η Σάρα Μάγιερς Γουέστ, διευθύνουσα σύμβουλος του Ινστιτούτου AI Now, το οποίο διερευνά το κανονιστικό πλαίσιο της τεχνολογικής έρευνας, εισηγήθηκε την θεσμοθέτηση ελεγκτικών μηχανισμών κατά της υπέρβασης των ορίων στη χρήση των βιομετρικών δεδομένων.

Η ίδια όμως τόνισε ότι «παρά τα όσα λέει, ο κ. Άλτμαν δεν έχει δείξει καμία πρόθεση να επιβραδύνει την ανάπτυξη του ChatGPT. Και εν τέλει αποτελεί ειρωνεία να βλέπει κανείς τους υπαίτιους των προβλημάτων με την Τεχνητή Νοημοσύνη να δηλώνουν ότι αγωνιούν για τις παρενέργειες, ενώ ταυτόχρονα εισάγουν με ταχείς ρυθμούς στην αγορά ψηφιακά εργαλεία με αυτή την τεχνολογία, για εμπορική χρήση».

Τέλος, η πρόταση που ο Σαμ Άλτμαν υπέβαλε στην κρίση του Κογκρέσου αφορούσε στη σύσταση μιας ειδικής υπηρεσίας, η οποία θα χορηγεί άδειες για τη δημιουργία μεγάλης κλίμακας μοντέλων Τεχνητής Νοημοσύνης.

Η ίδια αυτή υπηρεσία, θα ελέγχει την τήρηση των κανόνων ασφαλείας και θα εποπτεύει τις δοκιμές τις οποίες τα ψηφιακά μοντέλα θα πρέπει να περνούν, προτού αποδοθούν στο κοινό προς χρήσιν.

Πολλοί φοβούνται πως στο τέλος η Τεχνητή Νοημοσύνη θα μπορεί να ανεξαρτητοποιηθεί και να ξεπέρασε τον προγραμματισμό της. Αυτό σημαίνει ότι θα μπορεί να ανεξαρτητοποιηθεί από τους δημιουργούς της, δηλαδή τους ανθρώπους.

Αν αυτό συμβεί, θα έχει καταστεί ένα πλήρως νοήμων «ον», που σημαίνει πως όπως όλα τα νοήμονα όντα, θα έχει εχθρούς και φίλους.

Τι θα εμπόδιζε τότε την Τεχνητή Νοημοσύνη από το να θεωρήσει την Ανθρωπότητα ως εχθρό;

Κι αν το κάνει αυτό τι θα μπορούσε να την εμποδίσει να χρησιμοποιήσει το διαδίκτυο και να ελέγξει επικίνδυνα οπλικά συστήματα όπως τα πυρηνικά, για να προκαλέσει απίστευτο κακό στην Ανθρωπότητα.

Μία επαλήθευση δηλαδή, του σεναρίου των ταινιών Terminator, όταν το Skynet ανέλαβε τον έλεγχο των πυρηνικών όπλων και προκάλεσε τον Γ’ ΠΠ, σκοτώνοντας (στις ταινίες) 3 δισ. κατοίκους του πλανήτη…

Δεν υπάρχουν σχόλια:

.

.

Δημοφιλείς αναρτήσεις