Στη σύνοδο Asia Tech x Singapore 2024, αρκετοί ομιλητές ήταν έτοιμοι για συζητήσεις υψηλού επιπέδου και αυξημένη ευαισθητοποίηση σχετικά με τη σημασία της ασφάλειας της τεχνητής νοημοσύνης (AI) που θα μετατραπεί σε δράση. Πολλοί επιδιώκουν να προετοιμάσουν από οργανισμούς μέχρι άτομα με τα εργαλεία για την ορθή ανάπτυξη αυτής της τεχνολογίας.

«Η πρακτική και ρεαλιστική κίνηση προς δράση. Αυτό είναι που λείπει», δήλωσε η Ieva Martinekaite, επικεφαλής έρευνας και καινοτομίας στην Telenor Group. Η Martinekaite είναι μέλος του διοικητικού συμβουλίου του Norwegian Open AI Lab και μέλος του Συμβουλευτικού Συμβουλίου της Σιγκαπούρης για την Ηθική Χρήση της Τεχνητής Νοημοσύνης και των Δεδομένων. Επίσης, υπηρέτησε ως Ειδικό Μέλος στην Ομάδα Υψηλού Επιπέδου Ειδικών της Ευρωπαϊκής Επιτροπής για την Τεχνητή Νοημοσύνη από το 2018 έως το 2020.

Η Martinekaite σημείωσε ότι κορυφαίοι αξιωματούχοι αρχίζουν επίσης να αναγνωρίζουν αυτό το ζήτημα.

Οι αντιπρόσωποι στο συνέδριο, που περιλάμβανε κορυφαίους κυβερνητικούς υπουργούς από διάφορες χώρες, αστειεύτηκαν ότι απλώς κατανάλωναν καύσιμα αεροπλάνων με τη συμμετοχή τους σε συνεδριάσεις υψηλού επιπέδου για τις συνόδους κορυφής σχετικά με την ασφάλεια της Τεχνητής Νοημοσύνης, πιο πρόσφατα στη South Korea and the United Kingdom, δεδομένου ότι έχουν ακόμη ελάχιστα να επιδείξουν σε ό,τι αφορά τα συγκεκριμένα βήματα.

Η Martinekaite δήλωσε ότι είναι καιρός οι κυβερνήσεις και οι διεθνείς οργανισμοί να αρχίσουν να εφαρμόζουν οδηγούς, πλαίσια και εργαλεία αξιολόγησης για να βοηθήσουν τις επιχειρήσεις και τους χρήστες να διασφαλίζουν την ασφαλή ανάπτυξη και χρήση της AI. Πρόσθεσε ότι χρειάζονται συνεχείς επενδύσεις για να διευκολυνθούν αυτές οι προσπάθειες.

Η τεχνητή νοημοσύνη που δημιουργεί deepfakes, συγκεκριμένα, φέρει σημαντικούς κινδύνους και μπορεί να επηρεάσει κρίσιμες υποδομές, προειδοποίησε. Η Martinekaite πρόσθεσε ότι η τεχνολογία είναι πλέον πιο εξελιγμένη από ό,τι ήταν πριν από έναν χρόνο, καθιστώντας όλο και πιο δύσκολο τον εντοπισμό των deepfakes. Οι χάκερ μπορούν να εκμεταλλευτούν αυτήν την τεχνολογία για να κλέψουν credentials και να αποκτήσουν παράνομα πρόσβαση σε συστήματα και δεδομένα.

Αυτό είναι ένα κρίσιμο ζήτημα σε ορισμένους τομείς, όπως οι τηλεπικοινωνίες, όπου τα deepfakes μπορούν να χρησιμοποιηθούν για να διεισδύσουν σε κρίσιμες υποδομές και να ενισχύσουν τις κυβερνοεπιθέσεις. Η Martinekaite σημείωσε ότι οι ταυτότητες των υπαλλήλων μπορούν να πλαστογραφηθούν και να χρησιμοποιηθούν για πρόσβαση σε data centres και συστήματα πληροφορικής, προσθέτοντας ότι αν αυτή η αδράνεια παραμείνει ανεπίλυτη, ο κόσμος κινδυνεύει να βιώσει μια πιθανώς καταστροφική επίθεση.

Οι χρήστες πρέπει να είναι εξοπλισμένοι με την απαραίτητη Education και τα εργαλεία για να αναγνωρίζουν και να αντιμετωπίζουν τέτοιους κινδύνους, είπε. Η τεχνολογία για την ανίχνευση και αποτροπή τέτοιου περιεχομένου που έχει δημιουργηθεί από τεχνητή νοημοσύνη, συμπεριλαμβανομένου κειμένου και εικόνων, πρέπει επίσης να αναπτυχθεί. Η Martinekaite πιστεύει ότι αυτά πρέπει να εφαρμοστούν παράλληλα με τη Legislation και τη διεθνή συνεργασία.

Ωστόσο, σημείωσε ότι τα νομοθετικά πλαίσια δεν θα πρέπει να ρυθμίζουν την τεχνολογία, καθώς θα μπορούσαν να περιορίσουν την καινοτομία στην τεχνητή νοημοσύνη (AI) και να επηρεάσουν πιθανές προόδους, π.χ. στην health care.

Source of information: zdnet.com