Εκθεση για το Στέιτ Ντιπάρτμεντ
Η έκθεση, που δημοσιεύθηκε από την Gladstone AI, καταλήγει στο ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος»
Μια νέα έρευνα για λογαριασμό του Στέιτ Ντιπάρτμεντ παρουσιάζει τους σοβαρούς κινδύνους που εγκυμονεί η ταχέως εξελισσόμενη τεχνητή νοημοσύνη (ΑΙ) για την αμερικανική εθνική ασφάλεια.
Τα ευρήματα βασίστηκαν σε συνεντεύξεις με περισσότερους από 200 ανθρώπους για πάνω από ένα χρόνο. Ανάμεσά τους βρίσκονταν κορυφαία στελέχη εταιρειών τεχνητής νοημοσύνης, ερευνητές κυβερνοασφάλειας, εμπειρογνώμονες σε θέματα όπλων μαζικής καταστροφής και αξιωματούχοι εθνικής ασφάλειας της κυβέρνησης. Η έκθεση, η οποία δημοσιεύθηκε αυτή την εβδομάδα από την Gladstone AI, καταλήγει στο ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».
Ενας αξιωματούχος του αμερικανικού υπουργείου Εξωτερικών επιβεβαίωσε στο CNN ότι το Στέιτ Ντιπάρτμεντ ανέθεσε την εν λόγω έκθεση καθώς αξιολογεί συνεχώς τον τρόπο με τον οποίο η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο του να προστατεύονται τα συμφέροντα των ΗΠΑ στο εσωτερικό και στο εξωτερικό.
Ωστόσο, ο αξιωματούχος τόνισε ότι η έκθεση δεν αντιπροσωπεύει τις απόψεις της αμερικανικής κυβέρνησης.
«Η τεχνητή νοημοσύνη είναι ήδη μια τεχνολογία που μετασχηματίζει οικονομικά. Θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε θεωρούσαμε ανυπέρβλητες», δήλωσε ο Τζέρεμι Χάρις, διευθύνων σύμβουλος και συνιδρυτής της Gladstone AI.
«Ωστόσο, θα μπορούσε επίσης να επιφέρει σοβαρούς κινδύνους […] Ενας αυξανόμενος όγκος στοιχείων –συμπεριλαμβανομένων εμπειρικών ερευνών και αναλύσεων που δημοσιεύονται στα κορυφαία συνέδρια για την τεχνητή νοημοσύνη στον κόσμο– υποδηλώνει ότι οι τεχνητές νοημοσύνες θα μπορούσαν δυνητικά να γίνουν ανεξέλεγκτες», πρόσθεσε.
Οι ερευνητές προειδοποιούν για δύο βασικούς κινδύνους που θέτει η τεχνητή νοημοσύνη. Πρώτον, σύμφωνα με την Gladstone AI, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν ως όπλα. Δεύτερον, η έκθεση ανέφερε ότι υπάρχουν ανησυχίες εντός των εργαστηρίων τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».
«Η άνοδος της τεχνητής νοημοσύνης και της AGI [τεχνητή γενική νοημοσύνη] έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν τη δημιουργία των πυρηνικών όπλων», ανέφερε η έκθεση, προσθέτοντας ότι υπάρχει ο κίνδυνος μιας «κούρσας εξοπλισμών» της τεχνητής νοημοσύνης.
kathimerini.gr
Ακολουθήστε το HappenedNow.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Διαβάστε ολες τις ειδήσεις μας στο Facebook Group και μάθετε πρώτοι όλες τις ειδήσεις