Οι ανησυχίες σχετικά με την αξιοποίηση του generative AI από κακόβουλους χρήστες πληθαίνουν και έτσι η Google ανακοίνωσε την επέκταση του Vulnerability Rewards Program (VRP), ενός προγράμματος bug bounty της εταιρείας, που θα επικεντρώνεται σε επιθέσεις που σχετίζονται με την τεχνητή νοημοσύνη. Η εταιρεία ανακοίνωσε τη νέα επέκταση και εξήγησε λεπτομερώς ποιες ανακαλύψεις θα πληρούν τις προϋποθέσεις για ανταμοιβές και ποιες δεν θα εμπίπτουν στο πεδίο εφαρμογής. Για παράδειγμα, η ανακάλυψη εξαγωγής training data που εκθέτουν ιδιωτικές, ευαίσθητες πληροφορίες εμπίπτει στο πεδίο εφαρμογής, αλλά εάν εμφανίζονται μόνο δημόσια, μη ευαίσθητα δεδομένα, τότε δεν θα πληροί τις προϋποθέσεις για ανταμοιβή.

Η τεχνητή νοημοσύνη έχει μπει για τα καλά στην καθημερινότητά μας και φέρνει νέες προκλήσεις στον τομέα της κυβερνοαασφάλειας. Όπως εξήγησε η Google, το AI παρουσιάζει διαφορετικά ζητήματα ασφάλειας σε σχέση με άλλες τεχνολογίες της και απαιτείται νέα καθοδήγηση. “Πιστεύουμε ότι η επέκταση του VRP θα δώσει κίνητρο για έρευνα γύρω από την ασφάλεια της τεχνητής νοημοσύνης και θα φέρει στο φως πιθανά ζητήματα που θα κάνουν τελικά την τεχνητή νοημοσύνη ασφαλέστερη για όλους“, ανέφερε η εταιρεία. “Επεκτείνουμε επίσης το έργο μας για την ασφάλεια ανοιχτού κώδικα για να καταστήσουμε τις πληροφορίες σχετικά με το AI supply chain security παγκοσμίως ανιχνεύσιμες και επαληθεύσιμες“.

Δείτε επίσης: Google Search: To “About this image” ελέγχει την κακή χρήση AI

Εταιρείες που ασχολούνται με προϊόντα και υπηρεσίες τεχνητής νοημοσύνης, συμπεριλαμβανομένης της Google, συγκεντρώθηκαν στον Λευκό Οίκο, δεσμευόμενες για μεγαλύτερη ανακάλυψη και επίγνωση των τρωτών σημείων της τεχνητής νοημοσύνης. Η επέκταση του προγράμματος bug bounty της Google για να συμπεριλάβει και την τεχνητή νοημοσύνη (AI) έρχεται πριν από μια εκτελεστική εντολή του Προέδρου Biden που φέρεται να έχει προγραμματιστεί για τη Δευτέρα 30 Οκτωβρίου, η οποία θα δημιουργήσει αυστηρές αξιολογήσεις και απαιτήσεις για μοντέλα AI που πρέπει να χρησιμοποιηθούν από κυβερνητικούς

φορείς.

Δείτε επίσης: Nightshade “Data Poisoning Tool”: Προστασία εικόνων από το AI

Google: Επεκτείνει το πρόγραμμα bug bounty για generative AI επιθέσεις

Προγράμματα bug bounty για επιθέσεις που σχετίζονται με το generative AI είναι χρήσιμα γιατί οι κυνηγοί ευπαθειών που επικεντρώνονται σε αυτού του είδους επιθέσεις μπορούν να ανακαλύψουν και να αναφέρουν προβλήματα που οι παραδοσιακές μέθοδοι ανίχνευσης ευπαθειών δεν μπορούν να αντιληφθούν. Αυτό μπορεί να βοηθήσει την Google και άλλες εταιρείες να βελτιώσουν την ασφάλεια των συστημάτων τους και να αντιμετωπίσουν πιθανές απειλές από τέτοιες επιθέσεις.

Δείτε επίσης: Τεχνητή νοημοσύνη (AI) και τεχνολογία παρακολούθησης

Ωστόσο, υπάρχουν και προκλήσεις που πρέπει να αντιμετωπιστούν. Οι επιθέσεις που σχετίζονται με το generative AI είναι σχετικά νέες και σύνθετες, και η ανίχνευση τους μπορεί να απαιτεί εξειδικευμένες γνώσεις και εργαλεία. Οι κυνηγοί ευπαθειών που επικεντρώνονται σε τέτοιες επιθέσεις πρέπει να είναι εξοικειωμένοι με τις προηγμένες τεχνικές και να έχουν την απαραίτητη εμπειρία για να αντιμετωπίσουν αυτές τις προκλήσεις.

Πηγή: https://www.engadget.com/