Στις 4 Ιουλίου 2024, η New York Times αποκάλυψε, ότι η OpenAI είχε υποστεί μια άγνωστη παραβίαση στις αρχές του 2023.

Ο χάκερ σύμφωνα με πληροφορίες δεν απέκτησε πρόσβαση στα συστήματα της εταιρείας, αλλά έκλεψε συζητήσεις από ένα φόρουμ εργαζομένων. Η OpenAI δεν αποκάλυψε δημόσια το περιστατικό ούτε ενημέρωσε το FBI, καθώς ισχυρίζεται ότι δεν κλάπηκαν πληροφορίες πελατών ή συνεργατών και η παραβίαση δεν θεωρήθηκε απειλή για την εθνική ασφάλεια.

Διαβάστε επίσης: Το ChatGPT-4o οδήγησε χρήστες σε scam site

Η εταιρεία κατέληξε στο συμπέρασμα ότι η επίθεση προήλθε από ένα άτομο που δεν έχει σχέση με καμία ξένη κυβέρνηση.

Ωστόσο, το περιστατικό προκάλεσε εσωτερικές συζητήσεις μεταξύ του προσωπικού σχετικά με το πόσο σοβαρά αντιμετωπίζει το OpenAI τις ανησυχίες για την ασφάλεια.

«Μετά την παραβίαση, ο Leopold Aschenbrenner, τεχνικός διευθυντής προγράμματος της OpenAI, επικεντρώθηκε στο ότι οι μελλοντικές τεχνολογίες A.I. δεν θα προκαλέσουν σοβαρή βλάβη. Σε σημείωμα προς το διοικητικό συμβούλιο της OpenAI, υποστήριξε ότι η εταιρεία δεν έκανε αρκετά για να αποτρέψει την κινέζικη κυβέρνηση και άλλους αντιπάλους από το να κλέψουν τα μυστικά της», αναφέρει η NYT.

Νωρίτερα φέτος, απολύθηκε, φαινομενικά για διαρροή πληροφοριών, αν και πιο πιθανό λόγω του υπομνήματος. Ο Aschenbrenner έχει μια ελαφρώς διαφορετική άποψη, σχετικά με την επίσημη ιστορία των διαρροών. Σε ένα podcast με τον Dwarkesh Patel (4 Ιουνίου 2024), δήλωσε: «Η OpenAI υποστήριξε στους υπαλλήλους ότι απολύθηκα λόγω διαρροής δεδομένων. Εγώ και άλλοι τους έχουμε ζητήσει να διευκρινίσουν ποια ήταν αυτή η διαρροή. Η απάντησή τους ήταν: Κάποια στιγμή πέρυσι, είχα γράψει ένα έγγραφο καταιγισμού ιδεών σχετικά με την ετοιμότητα, την ασφάλεια και τα απαραίτητα μέτρα για την πορεία προς το AGI. Το μοιράστηκα με τρεις εξωτερικούς ερευνητές για ανατροφοδότηση. Αυτή η ενέργεια θεωρήθηκε διαρροή. Πριν το μοιραστώ, το εξέτασα για οποιοδήποτε ευαίσθητο περιεχόμενο. Η εσωτερική έκδοση περιείχε μια αναφορά σε ένα μελλοντικό σύμπλεγμα, την οποία αφαίρεσα από το εξωτερικό αντίγραφο.”

Δείτε περισσότερα: ESET Report: Infostealers χρησιμοποιούν AI για να αποσπάσουν χρήματα

Σαφώς, η OpenAI δεν είναι μια μονότονη οντότητα, καθώς περιλαμβάνει πολλές διαφορετικές απόψεις σχετικά με τον τρόπο λειτουργίας της, την ιδανική λειτουργία της και την κατεύθυνσή της. Η ανησυχία δεν επικεντρώνεται τόσο στο OpenGPT (που είναι γεννητική τεχνητή νοημοσύνη) όσο στο μέλλον της AGI (τεχνητής γενικής νοημοσύνης).

Το πρώτο μεταμορφώνει τις πληροφορίες που έχουν αποκτηθεί (συνήθως από το διαδίκτυο), ενώ το δεύτερο διαθέτει την ικανότητα για μια πρωτότυπη σκέψη. Παρόλο που το Gen-AI (γενικό AI) δεν θεωρείται απειλή για την εθνική ασφάλεια, μπορεί να αυξήσει την κλίμακα και την πολυπλοκότητα των υφιστάμενων επιθέσεων στον κυβερνοχώρο.

Το AGI αφορά ένα εντελώς διαφορετικό θέμα. Θα έχει τη δυνατότητα να δημιουργεί νέες απειλές στον κυβερνοχώρο, το πεδίο μάχης και τη νοημοσύνη. Κορυφαίες εταιρείες και τεχνολογίες τεχνητής νοημοσύνης, όπως η OpenAI, η DeepMind και η Anthropic, αγωνίζονται να είναι οι πρώτες στην αγορά. Η ανησυχία σχετικά με την παραβίαση της OpenAI το 2023 έγκειται στην πιθανή ένδειξη ανεπάρκειας προετοιμασίας για θέματα ασφαλείας, που θα μπορούσε να θέσει σε κίνδυνο την εθνική ασφάλεια στο μέλλον.

«Πολλό από το δράμα προκύπτει από την πεποίθηση της OpenAI ότι δημιουργούν πραγματικά το AGI. Αυτό δεν είναι απλώς ένα διαφημιστικό ισχυρισμό», είπε ο Aschenbrenner. ««Αυτό που μπερδεύει τους ανθρώπους είναι η αντίθεση μεταξύ της πίστης στο AGI και της μη σοβαρής αντιμετώπισης ορισμένων συνεπειών. Αυτή η τεχνολογία θα είναι απίστευτα ισχυρή, τόσο για καλό όσο και για κακό, κάτι που αφορά ζήτημα εθνικής ασφάλειας. Προστατεύονται τα μυστικά σας από το ΚΚΚ; Κρατά η Αμερική τον έλεγχο της βασικής υποδομής AGI ή βρίσκεται στα χέρια ενός δικτάτορα της Μέσης Ανατολής;»

Διαβάστε ακόμη: ChatGPT Mac App: Αποθηκεύει συνομιλίες χρηστών σε απλό κείμενο

Καθώς προσεγγίζουμε την ανάπτυξη της Γενικής Τεχνητής Νοημοσύνης (AGI), οι απειλές στον κυβερνοχώρο θα μετατοπιστούν από εγκληματίες σε hackers της ελίτ εθνικών κρατών. Ωστόσο, παρατηρούμε επανειλημμένα ότι η ασφάλειά μας δεν είναι επαρκής για να τους αντιμετωπίσουμε. Μετά από μια σχετικά μικρή παραβίαση στην OpenAI, ο Aschenbrenner εξέφρασε ειλικρινείς και ουσιαστικές ανησυχίες για την ασφάλεια – και γι’ αυτό, όπως φαίνεται, απολύθηκε.

Πηγή: securityweek