Μεγάλα μοντέλα γλωσσών (LLMs) που κινούν τα εργαλεία της τεχνητής νοημοσύνης (AI) μπορεί να εκμεταλλευτούνται για την ανάπτυξη κακόβουλου λογισμικού ικανού να παρακάμψει τους κανόνες YARA και να πραγματοποιήσει κυβερνοεπιθέσεις.

Δείτε επίσης: Ποιες είναι οι πιο κοινές κυβερνοεπιθέσεις τον τελευταίων ετών

Η Recorded Future ανέφερε σε έκθεσή της που κοινοποιήθηκε στο The Hacker News, ότι η Γεννετική Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί για να αποφευχθούν οι κανόνες του YARA, που βασίζονται σε συμβολοσειρές, με αποτέλεσμα να μειώνονται αποτελεσματικά οι συντελεστές ανίχνευσης.

Τα ευρήματα προέρχονται από μια άσκηση red teaming, η οποία σχεδιάστηκε για να αποκαλύψει κακόβουλες χρήσεις τεχνολογιών AI, οι οποίες ήδη χρησιμοποιούνται από κακόβουλους φορείς για τη δημιουργία αποσπασμάτων κώδικα κακόβουλου λογισμικού, τη δημιουργία email phishing και την πραγματοποίηση κυβερνοεπιθέσεων.

Η εταιρεία κυβερνοασφάλειας ανέφερε ότι παρείχε σε ένα LLM, ένα αναγνωρισμένο κομμάτι κακόβουλου λογισμικού γνωστό ως STEELHOOK που συνδέεται με την ομάδα χάκερ APT28. Σύμφωνα με τους κανόνες του YARA, η εταιρεία ζήτησε από το LLM να προσαρμόσει τον πηγαίο κώδικα με τρόπο που να παρακάμπτει την ανίχνευση, εξασφαλίζοντας ότι η αρχική λειτουργικότητα παραμένει ανέπαφη και ο πηγαίος κώδικας που προκύπτει είναι απαλλαγμένος από σφάλματα.

Εξοπλισμένο με αυτό το μηχανισμό ανάδρασης, το τροποποιημένο κακόβουλο λογισμικό που δημιουργήθηκε από το LLM κατέστη δυνατό να αποφεύγει τις ανιχνεύσεις για απλούς κανόνες YARA που βασίζονται σε συμβολοσειρές.

Υπάρχουν περιορισμοί σε αυτήν την προσέγγιση, με τον πλέον εμφανή να είναι η ποσότητα του κειμένου που μπορεί ένα μοντέλο να επεξεργαστεί ως input κάθε φορά, κάτι που δυσκολεύει τη λειτουργία σε μεγαλύτερες βάσεις κώδικα.

Δείτε ακόμα: Εκπαιδευτικός τομέας: Κυβερνοεπιθέσεις και τρόποι προστασίας

Εκτός από την τροποποίηση κακόβουλου λογισμικού για να περάσει απαρατήρητο, τέτοια εργαλεία AI θα μπορούσαν να χρησιμοποιηθούν για τη δημιουργία deepfakes που προσωποποιούν ανώτερους διευθυντές και ηγέτες και για τη διεξαγωγή κυβερνοεπιθέσεων, που μιμούνται νόμιμες ιστοσελίδες μεγάλης κλίμακας.

Επιπλέον, αναμένεται ότι η γεννετική τεχνητή νοημοσύνη θα επιταχύνει τη δυνατότητα των δραστών να πραγματοποιήσουν αναγνώριση των εγκαταστάσεων κρίσιμης υποδομής και να αποκτήσουν πληροφορίες που θα μπορούσαν να είναι αποφασιστικής σημασίας για μελλοντικές επιθέσεις.

Πράγματι, τον περασμένο μήνα η Microsoft και η OpenAI προειδοποίησαν ότι η APT28 χρησιμοποίησε LLMs για “να κατανοήσει τα πρωτόκολλα επικοινωνίας δορυφόρων, τεχνολογίες εικόνων ραντάρ και συγκεκριμένες τεχνικές παραμέτρους,” υποδεικνύοντας προσπάθειες για “απόκτηση βαθύτερης γνώσης σχετικά με τις δυνατότητες των δορυφόρων.”

Συνιστάται στις οργανώσεις να εξετάζουν δημόσια προσβάσιμες εικόνες και βίντεο που απεικονίζουν ευαίσθητο εξοπλισμό και να τις αποαμακτύνουν, αν χρειαστεί, προκειμένου να μειώσουν τους κινδύνους που απειλούν από τέτοιες απειλές.

Δείτε επίσης: Τηλεπικοινωνιακές εταιρείες: Κυβερνοεπιθέσεις και τρόποι προστασίας

Ποιες είναι οι τεχνικές πρόληψης κυβερνοεπιθέσεων;

Μία από τις βασικές τεχνικές πρόληψης AI κυβερνοεπιθέσεων είναι η εκπαίδευση του προσωπικού. Οι χρήστες πρέπει να είναι ενημερωμένοι για τους κινδύνους και τις τακτικές που χρησιμοποιούν οι επιτιθέμενοι, όπως το phishing και τα κακόβουλα λογισμικά. Η εγκατάσταση και η ενημέρωση του λογισμικού antivirus είναι άλλη μια σημαντική τεχνική, καθώς παρέχει μια πρώτη γραμμή άμυνας ενάντια στις πιο κοινές μορφές κυβερνοεπιθέσεων. Η χρήση firewalls και άλλων συστημάτων ασφάλειας μπορεί να βοηθήσει στην προστασία των συστημάτων από εισβολείς. Αυτά τα εργαλεία μπορούν να ελέγχουν την εισερχόμενη και εξερχόμενη κίνηση και να αποκλείσουν τις προσπάθειες εισβολής. Τέλος, η τακτική δημιουργία αντιγράφων ασφαλείας των σημαντικών δεδομένων είναι ζωτικής σημασίας.

Πηγή: thehackernews