Το τοπίο AI αυξάνεται ταχύτατα, με Έργο Stargate 500 δισεκατομμυρίων δολαρίων ΗΠΑ Ενώ επενδύσεις υποδομής μεγάλης κλίμακας Η λάμπα της Κίνας αναδύεται Ως κακοήθης διαγωνιζόμενος. Τα προχωρημένα μοντέλα AI του DeepSAC, που ανταγωνίζονται τις δυτικές δυνατότητες με χαμηλό κόστος, προκαλούν σημαντικές ανησυχίες σχετικά με τους πιθανούς κινδύνους για την ασφάλεια στον κυβερνοχώρο, την εξόρυξη δεδομένων και τη συλλογή πληροφοριών σε παγκόσμιο επίπεδο. Αυτή η εξέλιξη υπογραμμίζει την άμεση ανάγκη για ισχυρά μέτρα ρύθμισης και ασφάλειας ΑΙ στις ΗΠΑ

Καθώς ο αγώνας AI εντείνεται, το χάσμα μεταξύ της τεχνολογικής προόδου και της διακυβέρνησης διευρύνεται. Οι ΗΠΑ δεν αντιμετώπισαν μόνο μια σημαντική πρόκληση να εντείνουν τις ικανότητές τους AI μέσω έργων όπως η Stargate, αλλά έχει αναπτύξει μια ολοκληρωμένη ρυθμιστική δομή για την προστασία των ψηφιακών περιουσιακών στοιχείων και των συμφερόντων της εθνικής ασφάλειας. Με τη δυνατότητα να ανακουφίσει τον έλεγχο των εξαγωγών της DEEDSAC και να λειτουργήσει εξελιγμένες επιχειρήσεις στον κυβερνοχώρο, οι ΗΠΑ θα πρέπει να εργάζονται γρήγορα για να εξασφαλίσουν ότι οι καινοτομίες του AI παραμένουν ασφαλείς και ανταγωνιστικές σε αυτό το ταχέως μεταβαλλόμενο τεχνικό σενάριο.

Έχουμε ήδη δει το πρώτο κύμα κινδύνων που τροφοδοτούνται με AI. Στα κοινωνικά μέσα ενημέρωσης, το Deepfeck, οι λογαριασμοί BOT και ο Elgorithm Herfer βοήθησαν στη μείωση της κοινωνικής αρμονίας συμβάλλοντας στη δημιουργία πολιτικών οικολογικών θαλάμων. Αλλά αυτές οι απειλές είναι παιχνίδια παιδιών σε σύγκριση με τους αυξανόμενους κινδύνους τα επόμενα πέντε έως δέκα χρόνια.

Κατά τη διάρκεια της επιδημίας, είδαμε μοναδική κίνηση με την οποία θα μπορούσαν να αναπτυχθούν νέα εμβόλια με τη βοήθεια του AI. Ο Mustafa Suleman, ιδρυτής της DeepMind και τώρα CEO της Microsoft AI Mustafa Suleman, υποστήριξε ότι δεν θα σχεδιαστεί εδώ και πολύ καιρό όταν η AI μπορεί να σχεδιάσει τη νέα βιοπόνη με την ίδια ταχύτητα. Και αυτές οι ικανότητες δεν θα περιορίζονται στους παράγοντες του κράτους. Ακριβώς όπως η σύγχρονη τεχνολογία drone πρόσφατα δημοκρατία πρόσβαση σε δυνατότητες που κάποτε βρίσκονταν στη μοναδική επαρχία του στρατού, ακόμη και ένα άτομο με υποανάπτυκτη γνώση της κωδικοποίησης σύντομα στο AI από την κρεβατοκάμαρά του στο σπίτι σύντομα θα είναι σε θέση να κάνει.

Το γεγονός είναι ότι οι Αμερικανοί γερουσιαστές υποστήριζαν δημόσια Λήψη μη επανδρωμένων συστημάτων αεροσκαφώνΠαρά την έλλειψη νομικής βάσης για να γίνει αυτό, μια συστηματική αποτυχία του ελέγχου είναι μια σαφής ένδειξη. Αυτή η αποτυχία είναι ακόμη μεγαλύτερη από τη φιλοσοφία του drone. Όταν η εμπιστοσύνη στην ικανότητα της κυβέρνησης να χειριστεί τέτοια απροσδόκητα γεγονότα πέφτει, το αποτέλεσμα είναι ο φόβος, η σύγχυση και η ιδέα της συνωμοσίας. Αλλά είναι πολύ κακό να έρθουμε αν δεν βρούμε νέους τρόπους για τη ρύθμιση των νέων τεχνολογιών. Εάν αισθάνεστε ότι η συστηματική κατανομή σε απάντηση της φιλοσοφίας του drone είναι ανησυχητική, φανταστείτε πώς θα φαίνονται τα πράγματα όταν η AI αρχίζει να δημιουργεί ένα πρόβλημα.

Έχουν δαπανηθεί επτά χρόνια για να βοηθήσουν τα τμήματα άμυνας και την εγχώρια ασφάλεια με την καινοτομία και την αλλαγή (τόσο οργανωτική όσο και ψηφιακή), η οποία διαμόρφωσε τη σκέψη μου για τους πολύ πραγματικούς γεωπολιτικούς κινδύνους που φέρνουν μαζί τους τις AI και τις ψηφιακές τεχνολογίες. Αλλά αυτές οι απειλές δεν προέρχονται μόνο από τη χώρα μας. Την τελευταία δεκαετία παρατηρήθηκε αύξηση της ανοχής μεταξύ πολλών Αμερικανών πολιτών για την ιδέα της πολιτικής βίας, ένα περιστατικό που έχει εισαχθεί. Ιδιαίτερα ζωντανή ανακούφιση Λόγω της λήψης του Brian Thompson, Διευθύνοντος Συμβούλου της United Healthcare. Δεδομένου ότι η αυτοματοποίηση αντικαθιστά τον αυξανόμενο αριθμό θέσεων εργασίας, είναι απολύτως πιθανό ότι ένα κύμα μαζικής ανεργίας θα οδηγήσει σε σοβαρή διαταραχή, πολλαπλασιάζοντας τον κίνδυνο ότι το AI θα είναι σε μεγάλο βαθμό έξω για να βγει στην κοινωνία. .

Αυτές οι απειλές σύντομα θα βρίσκονται στην πόρτα μας. Αλλά ακόμη πιο συναφή άγνωστα είναι άγνωστα. Η AI αναπτύσσεται με την ταχύτητα της ηλεκτρικής ενέργειας, και ακόμη και οι υπεύθυνοι για την ανάπτυξη αυτή δεν γνωρίζουν πού θα τελειώσουμε. Ο νικητής του βραβείου Νόμπελ Jeffri HintonΟ SO -που ονομάζεται Νονός του AI δήλωσε ότι υπάρχει μια σημαντική ευκαιρία ότι η τεχνητή νοημοσύνη θα διαγράψει την ανθρωπότητα μέσα σε μόλις 30 χρόνια. Άλλοι προτείνουν ότι ο χρονικός ορίζοντας είναι πολύ στενός. Το απλό γεγονός είναι ότι υπάρχει τόσο μεγάλη αβεβαιότητα σχετικά με την κατεύθυνση του ταξιδιού που όλοι πρέπει να ανησυχούμε βαθιά. Όποιος δεν ανησυχεί τουλάχιστον, δεν έχει σκεφτεί αρκετά για τους κινδύνους.

“Η ρύθμιση του συντάγματος πρέπει να βασίζεται σε κίνδυνο”

Δεν μπορούμε να αντιμετωπίσουμε τον κανονισμό AI με τον ίδιο τυχαίο τρόπο που έχει εφαρμοστεί στην τεχνολογία drone. Χρειαζόμαστε μια προσαρμόσιμη, εκτεταμένη και μελλοντική προσέγγιση της ρύθμισης που έχει σχεδιαστεί για να μας προστατεύσει από αυτό που μπορεί να προκύψει, επειδή προωθούμε την εμπρός της μηχανής.

Κατά τη διάρκεια μιας πρόσφατης συνέντευξης με τον γερουσιαστή Richard Blutenal, συζήτησα το ερώτημα πώς μπορούμε να ρυθμίσουμε αποτελεσματικά μια τεχνική που δεν καταλαβαίνουμε πλήρως ακόμα. Ο νόμος Bluememtal US AI είναι συν-συγγραφέας με τον Josh Hale, τον γερουσιαστή του Bipartine Framework, επίσης γνωστό ως το πλαίσιο BlueMemental-Hole.

Η Blumemental προτείνει μια σχετικά ελαφριά προσέγγιση, υποδηλώνει ότι ο τρόπος με τον οποίο η αμερικανική κυβέρνηση ελέγχει τη φαρμακευτική βιομηχανία μπορεί να χρησιμεύσει ως πρότυπο για την προσέγγισή μας στο AI. Αυτή η προσέγγιση, υποστηρίζει, προβλέπει αυστηρή αδειοδότηση και παρακολούθηση δυνητικά επικίνδυνων αναδυόμενων τεχνικών χωρίς να επιβάλλει αθέμιτους περιορισμούς στην ικανότητα των παγκόσμιων ηγετών στον τομέα των αμερικανικών εταιρειών. “Δεν θέλουμε να σταματήσουμε την καινοτομία”, ονομάζεται Bluemintal. “Αυτός είναι ο λόγος για τον οποίο η ρύθμιση του συντάγματος πρέπει να βασίζεται σε κίνδυνο. Εάν δεν αναλάβει κανέναν κίνδυνο, δεν χρειαζόμαστε ρυθμιστή. ,

Αυτή η προσέγγιση παρέχει ένα πολύτιμο σημείο εκκίνησης για συζήτηση, αλλά πιστεύω ότι πρέπει να προχωρήσουμε. Ενώ ένα μοντέλο φαρμάκων μπορεί να είναι αρκετό για να ρυθμίσει την ανάπτυξη της εταιρικής AI, χρειαζόμαστε επίσης μια δομή που θα περιορίσει τους κινδύνους που παράγονται από άτομα. Η κατασκευή και η κατανομή των φαρμακευτικών προϊόντων απαιτούν σημαντική υποδομή, αλλά ο κωδικός υπολογιστή είναι ένα εντελώς ξεχωριστό ζώο που μπορεί να επαναληφθεί και να μεταδοθεί οπουδήποτε στον πλανήτη σε ένα κλάσμα του δευτερολέπτου. Η κατασκευή του προβληματικού AI και η διαρροή στην άγρια ​​φύση είναι πολύ υψηλότερη από την περίπτωση για νέα και επικίνδυνα ναρκωτικά.

Δεδομένης της ικανότητας να δημιουργηθεί τα αποτελέσματα του επιπέδου εξαφάνισης για το AI, δεν είναι πολύ μακριά για να πούμε ότι οι ρυθμιστικές δομές γύρω από τα πυρηνικά όπλα και την πυρηνική ενέργεια είναι πιο κατάλληλα για αυτή την τεχνική που ισχύει στη φαρμακευτική βιομηχανία.

Η ανακοίνωση του έργου Stargate προσθέτει ιδιαίτερη επείγουσα ανάγκη σε αυτή τη συζήτηση. Ενώ οι επενδύσεις του ιδιωτικού τομέα των μεγάλων κλιμάκων στην υποδομή AI είναι σημαντικές για τη διατήρηση της αμερικανικής τεχνικής ηγεσίας, επιταχύνει επίσης το χρονοδιάγραμμα για την ανάπτυξη μιας ολοκληρωμένης ρυθμιστικής δομής. Όταν μετράμε αυτές τις εξελίξεις σε εκατοντάδες δισεκατομμύρια δολάρια, δεν μπορούμε να ανεχτούμε τις ρυθμιστικές μας αντιδράσεις πίσω από την τεχνολογική ανάπτυξη.

Παρόλο που επιλέγουμε να εξισορροπήσουμε τους κινδύνους και τα βραβεία της AI, πρέπει να εργαστούμε σύντομα. Όπως είδαμε με την άποψη του αεροσκάφους πριν από τα Χριστούγεννα, η έλλειψη ευρείας και αρμονικού περιγράμματος για τη διαχείριση κινδύνων από νέες τεχνολογίες μπορεί να παρασύρει κυβερνητικές υπηρεσίες. Και με τους κινδύνους που κάνουν οτιδήποτε για να εμπλέκουν και να εμπλέκουν την εξαφάνιση της ανθρωπότητας, δεν μπορούμε να ανεχτούμε τέτοια αδράνεια και σύγχυση. Χρειαζόμαστε μια ολοκληρωμένη ρυθμιστική δομή που εξισορροπεί την καινοτομία με την ασφάλεια, η οποία αναγνωρίζει τόσο τη μετασχηματιστική ικανότητα του ΑΙ όσο και τους κινδύνους της ύπαρξής της.

Αυτό σημαίνει:

  • Προωθήστε την υπεύθυνη καινοτομία. Να ενθαρρύνει την ανάπτυξη και την ανάπτυξη τεχνολογιών AI σε σημαντικούς τομείς με ασφαλή και ηθικό τρόπο.
  • Δημιουργία ισχυρών κανόνων. Η εμπιστοσύνη του κοινού στο σύστημα AI απαιτεί τόσο καθαρό όσο και εφαρμοσμένο ρυθμιστικό πλαίσιο και διαφανή συστήματα λογοδοσίας.
  • Ενίσχυση της εθνικής ασφάλειας. Προκειμένου να εκτιμηθούν οι απειλές στον κυβερνοχώρο, να ανιχνεύσουν και να αναπτύξουν λύσεις AI που μεταδίδουν απειλές στον κυβερνοχώρο, εξασφαλίζοντας την ηθική χρήση των αυτόνομων συστημάτων, οι υπεύθυνοι για τη χάραξη πολιτικής θα πρέπει να επωφεληθούν από την AI για την ανάπτυξη λύσεων AI.
  • Επένδυση στην ανάπτυξη του εργατικού δυναμικού. Ως έθνος, θα πρέπει να δημιουργήσουμε εκτεταμένα προγράμματα κατάρτισης των εργαζομένων για τις βιομηχανίες AI, αυξάνοντας την εκπαίδευση STEM (επιστήμη, τεχνολογία, μηχανική και μαθηματικά) για τη δημιουργία βασικής εμπειρογνωμοσύνης AI μεταξύ φοιτητών και επαγγελματιών.
  • Ηγέτης στα παγκόσμια πρότυπα AI. Οι ΗΠΑ θα πρέπει να λειτουργούν ως προσπάθειες για την καθιέρωση παγκόσμιων κανόνων για τη χρήση του AI, συνεργάζοντας με συναδέλφους για να καθορίσουν τα ηθικά πρότυπα και να προστατεύσουν την πνευματική ιδιοκτησία.
  • Για την αντιμετώπιση των ανησυχιών του κοινού. Η AI πρέπει να αυξήσει τη διαφάνεια σχετικά με τους στόχους και τις εφαρμογές της πρωτοβουλίας AI για την εξασφάλιση της εμπιστοσύνης του κοινού στο AI, αναπτύσσοντας παράλληλα στρατηγικές για τη μείωση της εξάρθρωσης της εργασίας και την εξασφάλιση παρόμοιων οικονομικών οφελών.

Η Stargate Investment αντιπροσωπεύει τόσο την υπόσχεση όσο και την πρόκληση της ανάπτυξης της AI. Παρόλο που εμφανίζει την ικανότητα των ΗΠΑ να οδηγούν την επόμενη τεχνική επανάσταση, υπογραμμίζει επίσης την άμεση ανάγκη για τη ρυθμιστική δομή που μπορεί να ταιριάζει με την ταχύτητα της καινοτομίας και της κλίμακας. Με την επένδυση αυτού του μεγέθους της επανάληψης του τεχνικού μας τοπίου, δεν μπορούμε να το κάνουμε λάθος. Δεν μπορούμε να έχουμε άλλη ευκαιρία.

Σύνδεσμος πηγής