Τετάρτη 1 Νοεμβρίου 2023

Ο Sam Altman προειδοποιεί ότι η AI μπορεί να μας σκοτώσει όλους. Αλλά εξακολουθεί να θέλει να τη χρησιμοποιούν όλοι


 Όσοι τον γνωρίζουν τον έχουν περιγράψει ως κάποιον που συνήθιζει να είναι προφητικός και τον έχουν αποκαλέσει ακόμη και ένα startup Yoda ή τον Kevin Bacon της Silicon Valley

ΟSam Altman πιστεύει ότι η τεχνολογία που στηρίζει το πιο διάσημο προϊόν της εταιρείας του θα μπορούσε να φέρει το τέλος του ανθρώπινου πολιτισμού.

Από τη Samantha Kelly/CNN Business

Τον Μάιο, ο Διευθύνων Σύμβουλος της OpenAI, κατέθεσε σε μια αίθουσα ακροάσεων της υποεπιτροπής της Γερουσίας στην Washington DC, κάνοντας μια επείγουσα έκκληση προς τους Αμερικανούς νομοθέτες: Δημιουργήστε προσεκτικά μελετημένους κανονισμούς που να αγκαλιάζουν τις ισχυρές υποσχέσεις για το μέλλον που προσφέρει η τεχνητή νοημοσύνη (ΑI) -μετριάζοντας παράλληλα τον κίνδυνο να υπερισχύσει της ανθρωπότητας. Ήταν μια καθοριστική στιγμή τόσο για τον ίδιο όσο και για το μέλλον της AI.

Με την κυκλοφορία του ChatGPT της OpenAI στα τέλη του περασμένου έτους, ο 38χρονος Altman εμφανίστηκε εν μία νυκτί ως το πρότυπο (υπόδειγμα) όσον αφορά μια νέα συλλογή εργαλείων τεχνητής νοημοσύνης που μπορούν να δημιουργούν εικόνες και κείμενα μετά από προτροπές των χρηστών, μια τεχνολογία που ονομάζεται γενετική τεχνητή νοημοσύνη (generative AI). Λίγο μετά την κυκλοφορία του, το ChatGPT έγινε ένα γνωστό όνομα σχεδόν συνώνυμο με την ίδια την τεχνητή νοημοσύνη.

Οι Διευθύνοντες Σύμβουλοι το χρησιμοποιούν για να συντάσσουν μηνύματα ηλεκτρονικού ταχυδρομείου, οι άνθρωποι κατασκευάζουν ιστότοπους χωρίς προηγούμενη εμπειρία κωδικοποίησης και με τη χρήση του διάφοροι μπορεί να πετυχαίνουν σε εξετάσεις σε νομικές έως σε σχολές επιχειρήσεων. Το ίδιο έχει τη δυνατότητα να φέρει επανάσταση σχεδόν σε κάθε κλάδο, συμπεριλαμβανομένης της εκπαίδευσης, της χρηματοδότησης, της γεωργίας και της υγειονομικής περίθαλψης, από χειρουργικές επεμβάσεις μέχρι την ανάπτυξη εμβολίων και φαρμάκων.


Αλλά αυτά τα ίδια εργαλεία έχουν εγείρει ανησυχίες για τα πάντα, από τις απάτες σε σχολεία και την εκτόπιση ανθρώπινων εργαζομένων –ακόμη και μια υπαρξιακή απειλή για την ανθρωπότητα. Η άνοδος της τεχνητής νοημοσύνης, για παράδειγμα, έχει οδηγήσει τους οικονομολόγους να προειδοποιούν ήδη για τις επιπτώσεις στην αγορά εργασίας. Σύμφωνα με εκτιμήσεις της Goldman Sachs, έως και 300 εκατομμύρια θέσεις εργασίας πλήρους απασχόλησης σε όλο τον κόσμο θα μπορούσαν τελικά να αυτοματοποιηθούν με κάποιο τρόπο από τη γενετική τεχνητή νοημοσύνη. Περίπου 14 εκατομμύρια θέσεις θα μπορούσαν να εξαφανιστούν τα επόμενα πέντε χρόνια, σύμφωνα με έκθεση του Παγκόσμιου Οικονομικού Φόρουμ τον Απρίλιο.

Στην κατάθεσή του ενώπιον του Κογκρέσου, ο Altman είπε ότι η δυνατότητα χρήσης της τεχνητής νοημοσύνης για τη χειραγώγηση των ψηφοφόρων και τη στόχευση της παραπληροφόρησης είναι μεταξύ των «τομέων με τη μεγαλύτερη ανησυχία μου».

Δύο εβδομάδες μετά την ακρόαση, ο ίδιος ενώθηκε με εκατοντάδες κορυφαίους επιστήμονες, ερευνητές και ηγέτες της τεχνητής νοημοσύνης υπογράφοντας μια επιστολή δηλώνοντας: «Ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος».

Η προειδοποίηση καλύφθηκε ευρέως στον Τύπο, με ορισμένους να υποστηρίζουν ότι δείχνει την ανάγκη να ληφθούν πιο σοβαρά υπόψη τέτοια αποκαλυπτικά σενάρια. Τόνισε επίσης μια σημαντική δυναμική στη Silicon Valley: Κορυφαία στελέχη σε μερικές από τις μεγαλύτερες εταιρείες τεχνολογίας λένε στο κοινό ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να προκαλέσει την ανθρώπινη εξαφάνιση, ενώ παράλληλα αγωνίζονται να επενδύσουν και να αναπτύξουν αυτήν την τεχνολογία σε προϊόντα που προσεγγίζουν δισεκατομμύρια ανθρώπους.

 

«Ο Kevin Bacon της Silicon Valley»

Αν και ο Altman, ένας για πολλά χρόνια επιχειρηματίας και επενδυτής της Silicon Valley, έμεινε σε μεγάλο βαθμό μακριά από τα φώτα της δημοσιότητας τα προηγούμενα χρόνια, τα βλέμματα έχουν στραφεί σε αυτόν τους τελευταίους μήνες ως το πρότυπο (υπόδειγμα) για την επανάσταση της τεχνητής νοημοσύνης. Αυτό τον έχει επίσης εκθέσει σε αντιδικίες, ρυθμιστικό έλεγχο, επαίνους και καταδίκες σε όλο τον κόσμο.

Εκείνη την ημέρα μπροστά στην υποεπιτροπή της Γερουσίας, ωστόσο, ο Altman περιέγραψε την τρέχουσα άνθηση της τεχνολογίας ως μια κομβική στιγμή.

«Θα είναι η [AI] σαν το τυπογραφείο που διέδιδε τη γνώση, τη δύναμη και τη μάθηση ευρέως σε όλο το τοπίο που ενδυνάμωσε τα συνηθισμένα, καθημερινά άτομα να οδηγηθούν σε μεγαλύτερη άνθηση, που οδήγησε πάνω από όλα σε μεγαλύτερη ελευθερία;» αναρωτήθηκε ρητορικά. «Ή μήπως θα μοιάζει περισσότερο με την ατομική βόμβα, την τεράστια τεχνολογική ανακάλυψη της οποίας όμως οι συνέπειες (σοβαρές, τρομερές) συνεχίζουν να μας στοιχειώνουν μέχρι σήμερα;».

Ο Altman έχει παρουσιάσει εδώ και καιρό τον εαυτό του ως κάποιον που έχει επίγνωση των κινδύνων που εγκυμονεί η τεχνητή νοημοσύνη και έχει δεσμευτεί να προχωρήσει υπεύθυνα. Είναι ένας από τους πολλούς CEOs τεχνολογίας που συναντώνται με ηγέτες του Λευκού Οίκου, συμπεριλαμβανομένης της Αντιπροέδρου Kamala Harris και του Προέδρου Joe Biden, για να τονίσουν τη σημασία της ηθικής και υπεύθυνης ανάπτυξης της AI.

Άλλοι θέλουν ο Altman και το OpenAI να κινούνται πιο επιφυλακτικά.

Ο Elon Musk, ο οποίος βοήθησε στην ίδρυση της OpenAI προτού αποχωρήσει από την ομάδα, και δεκάδες ηγέτες τεχνολογίας, καθηγητές και ερευνητές ανάγκασαν τα εργαστήρια τεχνητής νοημοσύνης όπως το OpenAI να σταματήσουν την εκπαίδευση των πιο ισχυρών συστημάτων τεχνητής νοημοσύνης για τουλάχιστον έξι μήνες, αναφέροντας «βαθείς κινδύνους για κοινωνία και ανθρωπότητα». Ταυτόχρονα, ορισμένοι ειδικοί αμφισβήτησαν τους λόγους για τους οποίους οι συγκεκριμένοι υπέγραψαν αυτή την επιστολή, αναφέροντας ότι ίσως να προσπάθησαν να διατηρήσουν το ανταγωνιστικό τους πλεονέκτημα έναντι άλλων εταιρειών.


Ο Altman είπε ότι συμφώνησε με μέρη της επιστολής, συμπεριλαμβανομένου ότι «η γραμμή ασφαλείας πρέπει να αυξηθεί», αλλά είπε ότι η παύση δεν θα ήταν ο «βέλτιστος τρόπος» για την αντιμετώπιση των προκλήσεων. Ωστόσο, το OpenAI έχει το πόδι του σταθερά τοποθετημένο στο πεντάλ του γκαζιού. Πιο πρόσφατα, ο σχεδιαστής OpenAI και iPhone, Jony Ive, φέρεται να ήταν σε συνομιλίες για να συγκεντρώσει 1 δισεκατομμύριο δολάρια από τον ιαπωνικό όμιλο SoftBank για μια συσκευή τεχνητής νοημοσύνης που θα αντικαταστήσει το smartphone.

Όσοι γνωρίζουν τον Altman τον έχουν περιγράψει ως κάποιον που συνήθιζει να είναι προφητικός στις δηλώσεις του και τον έχουν αποκαλέσει ακόμη και «ένα startup Yoda» ή τον «Kevin Bacon της Silicon Valley», έχοντας συνεργαστεί φαινομενικά με όλους στη βιομηχανία. Ο Aaron Levie, ο Διευθύνων Σύμβουλος της εταιρείας επιχειρηματικού cloud Box και ένας μακροχρόνιος φίλος του Altman που αναδείχθηκε μαζί του στον κόσμο των startup, είπε στο CNN ότι ο Altman είναι «εσωστρεφής» και ότι θέλει να συζητά νέες ιδέες, να λαμβάνει διαφορετικές απόψεις και να ενθαρρύνει ατελείωτα σχόλια για ό,τι κι αν δουλεύει.

«Πάντα τον έβρισκα να κάνει απίστευτα αυτοκριτική στις ιδέες και πρόθυμο να λαμβάνει κάθε είδους σχόλια για οποιοδήποτε θέμα με το οποίο ασχολήθηκε όλα αυτά τα χρόνια», είπε ο Levie.

Αλλά ο Bern Elliot, αναλυτής της Gartner Research, τόνισε το περίφημο κλισέ: Υπάρχει κίνδυνος όταν βάζεις όλα τα αυγά σου σε ένα καλάθι, ανεξάρτητα από το πόσο μεγάλη εμπιστοσύνη μπορείς να έχεις ότι θα τα καταφέρεις. «Πολλά πράγματα μπορούν να συμβούν σε ένα καλάθι», πρόσθεσε.

 

Οι προκλήσεις που έρχονται

Όταν ξεκίνησε η OpenAI, ο Altman είπε στο CNN το 2015 ότι ήθελε να κατευθύνει το μονοπάτι της AI, αντί να ανησυχεί για τις πιθανές βλάβες και να μην κάνει τίποτα. «Κοιμάμαι καλύτερα γνωρίζοντας ότι μπορώ να έχω κάποια επιρροή σήμερα», είπε. Παρά την ηγετική του θέση, ο Altman λέει ότι εξακολουθεί να ανησυχεί για την τεχνολογία. «Προετοιμάζομαι για επιβίωση», είπε το 2016 στο New Yorker, σημειώνοντας πολλά πιθανά σενάρια καταστροφής, συμπεριλαμβανομένου της «A.I. που μας επιτίθεται».

«Έχω όπλα, χρυσό, ιωδιούχο κάλιο, αντιβιοτικά, μπαταρίες, νερό, μάσκες αερίων από την Ισραηλινή Αμυντική Δύναμη και ένα μεγάλο κομμάτι γης στο Big Sur στο οποίο μπορώ να πετάξω προς τα εκεί», είπε.

Ορισμένοι ειδικοί στον κλάδο της τεχνητής νοημοσύνης λένε, ωστόσο, ότι η εστίαση της προσοχής σε μακρινά αποκαλυπτικά σενάρια μπορεί να αποσπάσει την προσοχή από τις πιο άμεσες βλάβες που μπορεί να προκαλέσει μια νέα γενιά ισχυρών εργαλείων τεχνητής νοημοσύνης στους ανθρώπους και τις κοινότητες.

Ο Rowan Curran, αναλυτής στην εταιρεία ερευνών αγοράς Forrester, αναγνώρισε τις εύλογες ανησυχίες σχετικά με τη διασφάλιση ότι τα δεδομένα εκπαίδευσης, ειδικά για τεράστια μοντέλα, έχουν ελάχιστη προκατάληψη –ή έχουν μια προκατάληψη που είναι κατανοητή και μπορεί να μετριαστεί.

«Η ιδέα μιας “αποκάλυψης της τεχνητής νοημοσύνης” ως ένα ρεαλιστικό σενάριο που παρουσιάζει κάθε είδους κίνδυνο για την ανθρωπότητα –ιδιαίτερα βραχυπρόθεσμα και μεσοπρόθεσμα, είναι απλά μια υποθετική τεχνο-μυθολογία», είπε. «Η συνεχής εστίαση σε αυτό ως ένας από τους μεγάλους κινδύνους που έρχεται μαζί με την πρόοδο της τεχνητής νοημοσύνης αποσπά την προσοχή από τις πολύ πραγματικές προκλήσεις που έχουμε σήμερα προκειμένου να μειώσουμε τις τρέχουσες και μελλοντικές βλάβες από δεδομένα και μοντέλα που εφαρμόζονται άδικα από ανθρώπινους παράγοντες».

Στη μεγαλύτερη ίσως σαρωτική προσπάθεια μέχρι σήμερα, ο Πρόεδρος των ΗΠΑ, Joe Biden, παρουσίασε ένα εκτελεστικό διάταγμα νωρίτερα αυτή την εβδομάδα που θα απαιτεί από τους προγραμματιστές ισχυρών συστημάτων τεχνητής νοημοσύνης να μοιράζονται τα αποτελέσματα των δοκιμών ασφαλείας τους με την ομοσπονδιακή κυβέρνηση προτού δημοσιοποιηθούν, εάν ενέχουν κινδύνους για την εθνική ασφάλεια, την οικονομία ή κινδύνους για την υγεία.


Μετά την ακρόαση στη Γερουσία, η Emily Bender, καθηγήτρια στο Πανεπιστήμιο της Washington και διευθύντρια του Εργαστηρίου Υπολογιστικής Γλωσσολογίας, εξέφρασε ανησυχίες για το πώς φαίνεται το μέλλον με την τεχνητή νοημοσύνη, ακόμη κι αν ελέγχεται σε μεγάλο βαθμό. «Αν πιστεύουν ειλικρινά ότι αυτό θα μπορούσε να προκαλέσει την ανθρώπινη εξαφάνιση, τότε γιατί να μην σταματήσει;» αναρωτήθηκε.

Η Margaret O’Mara, ιστορικός τεχνολογίας και καθηγήτρια στο Πανεπιστήμιο της Washington, τόνισε ότι η χάραξη πολιτικής πρέπει να βασίζεται σε πολλαπλές προοπτικές και ενδιαφέροντα, όχι μόνο από έναν ή λίγους ανθρώπους, και να διαμορφώνεται με γνώμονα το δημόσιο συμφέρον. «Η πρόκληση με την τεχνητή νοημοσύνη είναι ότι μόνο λίγοι άνθρωποι και εταιρείες καταλαβαίνουν πραγματικά πώς λειτουργεί και ποιες είναι οι συνέπειες της χρήσης της», τόνισε η O’Mara, σημειώνοντας ομοιότητες με τον κόσμο της πυρηνικής φυσικής πριν και κατά τη διάρκεια της ανάπτυξης του Manhattan Project, την ατομική βόμβα.

«Αυτή η φορά όμως μοιάζει με αυτό που έκαναν ο Gates και ο Jobs με τους υπολογιστές στις αρχές της δεκαετίας του 1980 και τη στιγμή του λογισμικού του 1990», είπε. «Υπάρχει πραγματική ελπίδα ότι μπορούμε να έχουμε τεχνολογία που να κάνει τα πράγματα καλύτερα, αν οι άνθρωποι που την κάνουν είναι καλοί άνθρωποι, έξυπνοι και νοιάζονται για τα σωστά πράγματα. Ο Sam το ενσαρκώνει όλο αυτό όσον αφορά την τεχνητή νοημοσύνη αυτή τη στιγμή».

Ο κόσμος υπολογίζει στον Altman να ενεργήσει προς το συμφέρον της ανθρωπότητας, καθώς η τεχνολογία, κατά τη δική του παραδοχή, θα μπορούσε να είναι όπλο μαζικής καταστροφής.

Αν και μπορεί να είναι ένας έξυπνος και ικανός ηγέτης, εξακολουθεί να είναι ακριβώς αυτό: Ένα και μόνο άτομο.

kourdistoportocali.com

Δεν υπάρχουν σχόλια:

.

.

Δημοφιλείς αναρτήσεις