Η OpenAI έχει σχεδιάσει ένα “Πλαίσιο Ετοιμότητας” για να αντιμετωπίσει πιθανούς κινδύνους που μπορεί να προκύψουν από την τεχνολογία της τεχνητής νοημοσύνης.

Το “Πλαίσιο Ετοιμότητας” της OpenAI, περιγράφει τον τρόπο παρακολούθησης και προστασίας από καταστροφικούς κινδύνους που μπορεί να προκύψουν. Αυτοί οι κίνδυνοι περιλαμβάνουν τη δυνατότητα πρόκλησης μαζικής διακοπής της κυβερνοασφάλειας ακόμη και τη βοήθεια στη δημιουργία επικίνδυνων όπλων.

Διαβάστε επίσης: Ο Sam Altman επιστρέφει στην OpenAI

Σύμφωνα με το πλαίσιο ετοιμότητας, η ηγεσία της εταιρείας έχει την αρμοδιότητα να αποφασίζει για την κυκλοφορία νέων μοντέλων τεχνητής νοημοσύνης, αλλά το διοικητικό συμβούλιο διαθέτει το δικαίωμα να επέμβει με βέτο. Πριν από την έγκριση οποιουδήποτε μοντέλου, πραγματοποιούνται πολλαπλοί έλεγχοι ασφαλείας, με τη συμβολή μιας ομάδας “ετοιμότητας” που αναλύει τους πιθανούς κινδύνους και τους κατατάσσει σε επίπεδα “low”, “medium”, “high” ή “critical”.

Η ηγεσία της εταιρείας έχει ήδη οριστεί και μια αφοσιωμένη ομάδα επιβλέπει τις προσπάθειες για την παρακολούθηση και την αντιμετώπιση των κινδύνων μέσω προηγμένων μοντέλων τεχνητής νοημοσύνης. Το πλαίσιο ετοιμότητας βρίσκεται σε φάση “beta” και θα ανανεώνεται τακτικά βάσει των σχολίων. Ο καθηγητής Aleksander Madry του MIT διαδραματίζει ηγετικό ρόλο στην ομάδα ετοιμότητας για την αξιολόγηση και την παρακολούθηση των πιθανών κινδύνων.

Το πλαίσιο παρουσιάζει μια ολοκληρωμένη εικόνα της δομής διακυβέρνησης μιας ισχυρής startup τεχνητής νοημοσύνης, της OpenAI. Η πρόσφατη αναθεώρηση του διοικητικού συμβουλίου, με την απόμακρυνση και την ανάκληση του Διευθύνοντος Συμβούλου Sam Altman, έχει προκαλέσει ερωτήματα σχετικά με την εξουσία του Altman και του διοικητικού συμβουλίου.

Το τρέχον συμβούλιο, που αποτελείται από τρία πλούσια, λευκά άτομα, έχει αντιμετωπίσει ευρεία κριτική λόγω έλλειψης διαφορετικότητας. Επίσης, εκφράζονται ανησυχίες για την αυτορρύθμιση των εταιρειών και ζητείται από τη νομοθεσία να εξασφαλίσει την ασφαλή ανάπτυξη εργαλείων τεχνητής νοημοσύνης.

Δείτε ακόμη: Το Microsoft Paint ένωσε τις δυνάμεις του με το OpenAI!

Πρόσφατες αναφορές ασφαλείας του OpenAI έχουν προκαλέσει αυξημένο ενδιαφέρον, ενώ μια επιστολή από επιστήμονες προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης. Ορισμένοι υποστηρίζουν ότι οι εταιρείες χρησιμοποιούν αυτά τα θέματα για να αποσπάσουν την προσοχή από τις προκλήσεις που αντιμετωπίζουν τα εργαλεία τεχνητής νοημοσύνης.

Πηγή: edition.cnn.com