“Οι κυβερνήσεις δεν είναι καλά προετοιμασμένες για τους κινδύνους που φέρει η τεχνητή νοημοσύνη. Η ανάπτυξη της θα πρέπει να σταματήσει”. Αυτό αναφέρει έρευνα ειδικών κινδύνων από την ασφαλιστική εταιρεία AXA SA.
Μόνο το 7% από σχεδόν 3.500 ειδικούς κινδύνου από 50 χώρες δήλωσε ότι οι δημόσιες αρχές είναι έτοιμες να αντιμετωπίσουν την τεχνητή νοημοσύνη. Ο ιδιωτικός τομέας δεν τα πήγε πολύ καλύτερα, με μόλις το 16% των ειδικών να λέει ότι οι εταιρείες είναι προετοιμασμένες. Ενώ η τεχνητή νοημοσύνη ήρθε στην τέταρτη θέση συνολικά μεταξύ των αναδυόμενων κινδύνων που αντιμετωπίζει ο κόσμος. Η πιθανότητα υπαρξιακής απειλής για την ανθρωπότητα ήταν η κύρια ανησυχία. Σχεδόν τα δύο τρίτα των ειδικών και το 70% του γενικού πληθυσμού δήλωσαν ότι ο κόσμος πρέπει να κάνει ένα διάλειμμα από την έρευνα για την τεχνητή νοημοσύνη και άλλες τεχνολογίες.
Η τεχνητή νοημοσύνη μπορεί να προσφέρει πολλά οφέλη για την κοινωνία, «αλλά προφανώς πρέπει να έχουμε πολύ σαφείς κανόνες προκειμένου σε τα οφέλη να μην γίνεται κατάχρηση», είπε ο Thomas Buberl, διευθύνων σύμβουλος της AXA με έδρα το Παρίσι, κατά τη διάρκεια συνέντευξης στην πανεπιστημιούπολη του Ινστιτούτο Τεχνολογίας της Μασαχουσέτης στη Βοστώνη.
Συνολικά, οι ειδικοί θεώρησαν την κλιματική αλλαγή ως τον μοναδικό σημαντικότερο αναδυόμενο κίνδυνο για τρίτη συνεχή χρονιά, ακολουθούμενη από την ασφάλεια στον κυβερνοχώρο και τη γεωπολιτική αστάθεια.
Ο πρόεδρος Τζο Μπάιντεν κυκλοφόρησε τη Δευτέρα ένα εκτενές διάταγμα που θέτει νέα πρότυπα για την ασφάλεια και την προστασία της ιδιωτικής ζωής για την τεχνητή νοημοσύνη. Προγραμματιστές όπως η Microsoft Corp. και η Alphabet Inc. θα κληθούν να υποβάλουν αποτελέσματα. Η οδηγία του Μπάιντεν προηγείται του ταξιδιού της Αντιπροέδρου Καμάλα Χάρις σε μια σύνοδο κορυφής για τον κίνδυνο AI που φιλοξενείται στο Ηνωμένο Βασίλειο. Ο Buberl υποστηρίζει ένα πιο παγκόσμιο πλαίσιο για την τεχνητή νοημοσύνη, υποδηλώνοντας ότι οι προσπάθειες για την αντιμετώπιση της κλιματικής αλλαγής θα μπορούσαν να αποτελέσουν πρότυπο για τη ρύθμιση της τεχνητής νοημοσύνης”.