Η AI υπάρχει εδώ και δεκαετίες, αλλά 2023 ήταν μια σημαντική χρονιά για την τρομακτική αυτή τεχνολογία, με το ChatGPT της OpenAI να δημιουργεί προσιτή, πρακτική τεχνητή νοημοσύνη για όλους τους ανθρώπους. Η Τεχνητή Νοημοσύνη, ωστόσο, έχει βεβαρημένη ιστορία και της σημερινής τεχνολογίας προηγήθηκε ένα σύντομο ιστορικό αποτυχημένων πειραμάτων.
Ως επί το πλείστον, οι καινοτομίες στην τεχνητή νοημοσύνη φαίνονται έτοιμες να βελτιώσουν πράγματα όπως η ιατρική διάγνωση και η επιστημονική ανακάλυψη. Ένα μοντέλο τεχνητής νοημοσύνης μπορεί, για παράδειγμα, να ανιχνεύσει αν διατρέχετε υψηλό κίνδυνο να αναπτύξετε καρκίνο του πνεύμονα αναλύοντας μια ακτινογραφία. Κατά τη διάρκεια του κορονοϊού, οι επιστήμονες δημιούργησαν επίσης έναν αλγόριθμο που θα μπορούσε να διαγνώσει τον ιό ακούγοντας τις λεπτές διαφορές στον ήχο του βήχα των ανθρώπων. Επίσης, η τεχνητή νοημοσύνη έχει επίσης χρησιμοποιηθεί για να σχεδιάσει πειράματα κβαντικής φυσικής πέρα από αυτά που έχουν συλλάβει οι άνθρωποι.
Ωστόσο δεν είναι όλες οι καινοτομίες τόσο καλοήθεις. Από τα φονικά μη επανδρωμένα αεροσκάφη μέχρι την Τεχνητή Νοημοσύνη που απειλεί το μέλλον της ανθρωπότητας, παρακάτω θα δείτε μερικές από τις πιο τρομακτικές ανακαλύψεις της Τεχνητής Νοημοσύνης που είναι πιθανό να έρθουν το 2024.
Q*: Η εποχή της Τεχνητής Γενικής Νοημοσύνης (AGI);
Ακόμη δεν γνωρίζουμε γιατί ακριβώς ο διευθύνων σύμβουλος της OpenAI, Sam Altman, απολύθηκε και επαναπροσλήφθηκε λίγες ημέρες αργότερα. Αλλά μέσα στο εταιρικό χάος στην OpenAI, οι φήμες έκαναν λόγο για μια προηγμένη τεχνολογία που θα μπορούσε να απειλήσει το μέλλον της ανθρωπότητας. Αυτό το σύστημα της OpenAI, που ονομάζεται Q* (προφέρεται Q-star) μπορεί να ενσωματώνει τη δυνητικά πρωτοποριακή υλοποίηση της τεχνητής γενικής νοημοσύνης (AGI), ανέφερε το Reuters. Λίγα είναι γνωστά για αυτό το μυστηριώδες σύστημα, αλλά αν οι αναφορές είναι αληθινές, θα μπορούσε να εκτοξεύσει τις δυνατότητες της τεχνητής νοημοσύνης.
Η AGI είναι ένα υποθετικό σημείο καμπής, γνωστό και ως “Singularity”, στο οποίο η τεχνητή νοημοσύνη θα γίνει εξυπνότερη από τους ανθρώπους. Οι σημερινές γενιές της AI εξακολουθούν να υστερούν σε τομείς στους οποίους οι άνθρωποι υπερέχουν, όπως η συλλογιστική με βάση το πλαίσιο και η πραγματική δημιουργικότητα. Το μεγαλύτερο μέρος, αν όχι όλο, του περιεχομένου που παράγεται από την ΤΝ είναι απλώς αναμασήματα, κατά κάποιο τρόπο, των δεδομένων που χρησιμοποιήθηκαν για την εκπαίδευσή της.
Όμως, οι επιστήμονες δήλωσαν ότι η ΑΓΙ θα μπορούσε ενδεχομένως να εκτελεί συγκεκριμένες εργασίες καλύτερα από τους περισσότερους ανθρώπους. Θα μπορούσε επίσης να γίνει όπλο και να χρησιμοποιηθεί, για παράδειγμα, για τη δημιουργία βελτιωμένων παθογόνων μικροοργανισμών, την εξαπόλυση μαζικών επιθέσεων στον κυβερνοχώρο ή την ενορχήστρωση μαζικής χειραγώγησης.
Η ιδέα της AGI έχει από καιρό περιοριστεί στην επιστημονική φαντασία και πολλοί επιστήμονες πιστεύουν ότι δεν θα φτάσουμε ποτέ σε αυτό το σημείο. Το να έχει ήδη φτάσει η OpenAI σε αυτό το σημείο καμπής θα ήταν σίγουρα ένα σοκ – αλλά όχι πέρα από το πεδίο του πιθανού. Γνωρίζουμε, για παράδειγμα, ότι ο Sam Altman έθετε ήδη τις βάσεις για την AGI τον Φεβρουάριο του 2023, περιγράφοντας την προσέγγιση της OpenAI στην AGI σε μια ανάρτηση στο blog. Γνωρίζουμε επίσης ότι οι ειδικοί αρχίζουν να προβλέπουν μια επικείμενη ανακάλυψη, συμπεριλαμβανομένου του CEO της Nvidia, Jensen Huang, ο οποίος δήλωσε τον Νοέμβριο ότι η AGI είναι εφικτή μέσα στα επόμενα πέντε χρόνια, ανέφερε το Barrons. Θα μπορούσε το 2024 να είναι η χρονιά που η AGI θα κάνει την υπέρβαση; Μόνο ο χρόνος θα δείξει.
Deepfakes βίντεο για την επιρροή εκλογών
Μία από τις πιο πιεστικές απειλές στον κυβερνοχώρο είναι αυτή των deepfakes – εντελώς κατασκευασμένες εικόνες ή βίντεο ανθρώπων που μπορεί να τους παραποιήσουν, να τους ενοχοποιήσουν ή να τους εκφοβίσουν. Η τεχνολογία AI deepfake δεν ήταν ακόμη αρκετά καλή ώστε να αποτελεί σημαντική απειλή, αλλά αυτό ίσως πρόκειται να αλλάξει.
Η τεχνητή νοημοσύνη μπορεί πλέον να παράγει deepfakes σε πραγματικό χρόνο – ζωντανές ροές βίντεο, με άλλα λόγια – και γίνεται πλέον τόσο καλή στη δημιουργία ανθρώπινων προσώπων που οι άνθρωποι δεν μπορούν πλέον να ξεχωρίσουν τι είναι πραγματικό και τι ψεύτικο. Μια μελέτη που δημοσιεύθηκε στο περιοδικό Psychological Science στις 13 Νοεμβρίου, έφερε στο φως το φαινόμενο του “υπερρεαλισμού“, κατά το οποίο το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη είναι πιο πιθανό να γίνει αντιληπτό ως “αληθινό” από το πραγματικά αληθινό περιεχόμενο.
Αυτό θα καθιστούσε πρακτικά αδύνατο για τους ανθρώπους να διακρίνουν με γυμνό μάτι το γεγονός από τη μυθοπλασία. Παρόλο που τα εργαλεία θα μπορούσαν να βοηθήσουν τους ανθρώπους να εντοπίσουν τα deepfakes, αυτά δεν είναι ακόμη ευρέως διαδεδομένα. Η Intel, για παράδειγμα, έχει κατασκευάσει έναν ανιχνευτή deepfake σε πραγματικό χρόνο, ο οποίος λειτουργεί χρησιμοποιώντας τεχνητή νοημοσύνη για την ανάλυση της ροής του αίματος. Αλλά το FakeCatcher, όπως είναι γνωστό, έχει δώσει ανάμεικτα αποτελέσματα, σύμφωνα με το BBC.
Καθώς ωριμάζει η γεννητική τεχνητή νοημοσύνη, μια τρομακτική πιθανότητα είναι ότι οι άνθρωποι θα μπορούσαν να χρησιμοποιήσουν deepfakes για να προσπαθήσουν να επηρεάσουν τις εκλογές. Οι Financial Times (FT) ανέφεραν, για παράδειγμα, ότι το Μπαγκλαντές προετοιμάζεται για εκλογές τον Ιανουάριο που θα διαταραχθούν από deepfakes. Καθώς οι ΗΠΑ προετοιμάζονται για τις προεδρικές εκλογές του Νοεμβρίου 2024, υπάρχει η πιθανότητα η τεχνητή νοημοσύνη και τα deepfakes να μεταβάλουν το αποτέλεσμα αυτής της κρίσιμης ψηφοφορίας. Το UC Berkeley παρακολουθεί, για παράδειγμα, τη χρήση της ΑΙ στην προεκλογική εκστρατεία και το NBC News ανέφερε επίσης ότι πολλές πολιτείες δεν διαθέτουν τους νόμους ή τα εργαλεία για να χειριστούν τυχόν αύξηση της παραπληροφόρησης που δημιουργείται από την ΤΝ.
Ρομπότ δολοφόνοι με τεχνητή νοημοσύνη
Οι κυβερνήσεις σε όλο τον κόσμο ενσωματώνουν ολοένα και περισσότερο την τεχνητή νοημοσύνη σε εργαλεία πολέμου. Η κυβέρνηση των ΗΠΑ ανακοίνωσε στις 22 Νοεμβρίου ότι 47 κράτη έχουν εγκρίνει μια δήλωση σχετικά με την υπεύθυνη χρήση της τεχνητής νοημοσύνης στον στρατό – που ξεκίνησε για πρώτη φορά στη Χάγη τον Φεβρουάριο. Γιατί χρειαζόταν μια τέτοια δήλωση; Επειδή η “ανεύθυνη” χρήση είναι μια πραγματική και τρομακτική προοπτική. Έχουμε δει, για παράδειγμα, μη επανδρωμένα αεροσκάφη τεχνητής νοημοσύνης να κυνηγούν δήθεν στρατιώτες στη Λιβύη χωρίς ανθρώπινη συμβολή.
Η τεχνητή νοημοσύνη μπορεί να αναγνωρίζει μοτίβα, να μαθαίνει μόνη της, να κάνει προβλέψεις ή να παράγει συστάσεις σε στρατιωτικά πλαίσια, και μια κούρσα εξοπλισμών με τεχνητή νοημοσύνη βρίσκεται ήδη σε εξέλιξη. Το 2024, είναι πιθανό να δούμε την ΑΙ να χρησιμοποιείται όχι μόνο σε οπλικά συστήματα, αλλά και σε συστήματα εφοδιαστικής και υποστήριξης αποφάσεων, καθώς και στην έρευνα και την ανάπτυξη. Το 2022, για παράδειγμα, η τεχνητή νοημοσύνη δημιούργησε 40.000 νέα, υποθετικά χημικά όπλα. Διάφοροι κλάδοι του στρατού των ΗΠΑ έχουν παραγγείλει μη επανδρωμένα αεροσκάφη που μπορούν να εκτελούν αναγνώριση στόχων και παρακολούθηση μάχης καλύτερα από τους ανθρώπους. Το Ισραήλ, επίσης, χρησιμοποίησε AI για να αναγνωρίσει γρήγορα στόχους τουλάχιστον 50 φορές πιο γρήγορα από ό,τι οι άνθρωποι στον τελευταίο πόλεμο Ισραήλ-Χαμάς, σύμφωνα με το NPR.
Όμως ένας από τους πιο επίφοβους τομείς ανάπτυξης είναι αυτός των θανατηφόρων αυτόνομων οπλικών συστημάτων (LAWS) – ή ρομπότ δολοφόνων. Αρκετοί κορυφαίοι επιστήμονες και τεχνολόγοι έχουν προειδοποιήσει για τα δολοφονικά ρομπότ, όπως ο Στίβεν Χόκινγκ το 2015 και ο Έλον Μασκ το 2017, αλλά η τεχνολογία δεν έχει ακόμη υλοποιηθεί σε μαζική κλίμακα.
Τούτου λεχθέντος, ορισμένες ανησυχητικές εξελίξεις υποδηλώνουν ότι η φετινή χρονιά μπορεί να αποτελέσει την έξαρση των ρομπότ δολοφόνων. Για παράδειγμα, στην Ουκρανία, η Ρωσία φέρεται να ανέπτυξε το drone Zala KYB-UAV, το οποίο θα μπορούσε να αναγνωρίζει και να επιτίθεται σε στόχους χωρίς ανθρώπινη παρέμβαση, σύμφωνα με έκθεση του The Bulletin of the Atomic Scientists. Η Αυστραλία, επίσης, έχει αναπτύξει το Ghost Shark – ένα αυτόνομο υποβρύχιο σύστημα που πρόκειται να παραχθεί “σε κλίμακα”, σύμφωνα με το Australian Financial Review. Το ποσό που ξοδεύουν οι χώρες σε όλο τον κόσμο για την τεχνητή νοημοσύνη αποτελεί επίσης δείκτη – με την Κίνα να αυξάνει τις δαπάνες για την τεχνητή νοημοσύνη από 11,6 εκατομμύρια δολάρια συνολικά το 2010 σε 141 εκατομμύρια δολάρια μέχρι το 2019, σύμφωνα με την Datenna, ανέφερε το Reuters. Αυτό οφείλεται στο γεγονός, πρόσθεσε το δημοσίευμα, ότι η Κίνα έχει εγκλωβιστεί σε έναν αγώνα δρόμου με τις ΗΠΑ για την ανάπτυξη LAWS. Συνδυαστικά, οι εξελίξεις αυτές υποδηλώνουν ότι εισερχόμαστε σε μια νέα αυγή του πολέμου με τεχνητή νοημοσύνη.
πηγή: FOXreport.gr
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου