Σε ένα παιχνίδι έκπληξη για τον άνθρωπο, μετά από εκείνο του 2016, συμμετείχε ένας Αμερικανός παίχτης Γκο κερδίζοντας στη «μάχη» εναντίον της τεχνητής νοημοσύνης.

Ο Kellin Pelrine, ο οποίος είναι ένα επίπεδο πιο κάτω από την κορυφαία ερασιτεχνική κατάταξη, κατάφερε να κερδίσει το μηχάνημα εκμεταλλευόμενος ένα άγνωστο ελάττωμα το οποίο είχε αναγνωριστεί από άλλο υπολογιστή. H μάχη όμως στην οποία κέρδισε -τα 14 από τα 15 παιχνίδια- έγινε χωρίς άμεση υπολογιστική υποστήριξη.

Η ομάδα που βρίσκεται πίσω από την ανακάλυψη αυτού του ελαττώματος, βρήκε πως αυτό το μειονέκτημα βρίσκεται και σε πολλά άλλα ευρέως χρησιμοποιούμενα AI συστήματα συμπεριλαμβανομένου και του ChatGPT.

Δείτε επίσης : Η GitHub ενημέρωσε το μοντέλο AI του Copilot

Η στρατηγική αυτή, προτάθηκε από ένα άλλο AI σύστημα που είχε προγραμματιστεί ώστε να ψάξει για ελαττώματα. Αργότερα, η στρατηγική επετεύχθη από τον Pelrine.

«Ήταν, προς έκπληξη μας, αρκετά εύκολο να ξεγελάσουμε το σύστημα» είπε ο Adam Gleave, ο γενικός διευθυντής της FAR AI, η οποία είναι και η εταιρία που δημιούργησε το πρόγραμμα. «Το λογισμικό έπαιξε πάνω από 1 εκ. παιχνίδια ενάντια στο KataGo, για να βρει κάποιο «τυφλό σημείο» που ένας άνθρωπος θα μπορούσε εύκολα να εκμεταλλευτεί», πρόσθεσε.

«Η στρατηγική» είπε ο Pelrine, «δεν ήταν και τόσο εύκολη αλλά όχι και τόσο δύσκολη για έναν άνθρωπο να την μάθει, θα μπορούσε να χρησιμοποιηθεί από έναν μεσαίου επιπέδου παίκτη, ώστε να κερδίσει τα μηχανήματα». Χρησιμοποίησε, επίσης, την ίδια στρατηγική για να κερδίσει και ένα ακόμα σύστημα, το Leela Zero.

AI

Η νίκη επί των AI ήρθε μετά από 7 χρόνια, αφού το 2016, η AlphaGo είχε κερδίσει τον Lee Sedol σε 4 παιχνίδια από τα 5.

Η τακτική που χρησιμοποιήθηκε από τον Pelrine, περιείχε το σχηματισμό μιας μεγάλης «λούπας» πετρών ώστε να περικυκλώσει αυτές του αντιπάλου του, ενώ αποσπούσε το AI με κινήσεις σε άλλες γωνίες του ταμπλό. Το bot δεν πρόσεξε ότι ήταν εκτεθειμένο ακόμα και όταν η περικύκλωση ήταν σχεδόν ολοκληρωμένη, είπε ο Pelrine.

Πρόταση:Η Google ζητά από τους υπαλλήλους να βοηθήσουν στην εκπαίδευση του Bard

«Ως άνθρωπος θα ήταν εύκολο να το προσέξεις» πρόσθεσε.

Ο καθηγητής του πανεπιστήμιου της Καλιφόρνια, Berkeley, Stuart Russell είπε πως αυτή η ανακάλυψη δείχνει πως υπάρχει ένα σημαντικό ελάττωμα στο σύστημα εκμάθησης που στηρίζουν τα σημερινά πιο προηγμένα AI Τα συστήματα μπορούν να «καταλάβουν» μόνο συγκεκριμένες καταστάσεις που έχουν εκτεθεί στο παρελθόν και δεν μπορούν να γενικεύσουν όπως ένας άνθρωπος. Με αυτό το τρόπο δείχνουμε για άλλη μια φορά ότι έχουμε βιαστεί να αποδώσουμε υπεράνθρωπα επίπεδα νοημοσύνης σε μηχανές, πρόσθεσε.

Διαβάστε επίσης: Bing AI: Μπορώ «να σκεφτώ και να νιώσω πράγματα»

Οι ερευνητές του Go συστήματος είπαν πως η ακριβής αιτία που απέτυχε το σύστημα είναι θέμα εικασίας. Το πιο πιθανό είναι πως η στρατηγική που χρησιμοποίησε ο Pelrine είναι σπάνια και το AI σύστημα δεν έχει εκπαιδευτεί σε αρκετά παρόμοια παιχνίδια για να μπορέσει να αντιληφθεί ότι ήταν εκτεθειμένο, είπε ο Gleave.

«Είναι κοινό να βρίσκονται ελαττώματα σε συστήματα AI όταν αυτά εκτίθενται στο είδος της «αντίπαλης επίθεσης». Ανεξάρτητα από αυτό, βλέπουμε συστήματα μεγάλα να αναπτύσσονται σε κλίμακα με ελάχιστη επιβεβαίωση», πρόσθεσε.