Η «έκρηξη» νέων προϊόντων και δυνατοτήτων του generative AI τους τελευταίους μήνες έχει οδηγήσει σε ένα κύκλο hype. Σε συνέχεια, αυτή η κατάσταση έχει οδηγήσει σε μια εξίσου εκτεταμένη και παθιασμένη συζήτηση για τις αναγκαίες ρυθμίσεις του AI.

Δείτε επίσης: Adobe: Φέρνει το Firefly AI στα εργαλεία βίντεο της

Το showdown για τις ρυθμίσεις AI

Τη «φωτιά» πυροδότησε το Ινστιτούτο Future of Life με μια ανοιχτή επιστολή, η οποία πλέον έχει υπογραφτεί και από εκατοντάδες ερευνητές AI αλλά και άλλους που απλά ανησυχούν. Κάποια ονόματα είναι αυτά του Steve Wozniak, Elon Musk, Emad Mostaque, Yuval Noah Harari, Yoshua Bengio.

Επικαλούμενη τον, «εκτός ελέγχου αγώνα για ανάπτυξη και χρήση ολοένα και πιο ισχυρών ψηφιακών μυαλών που κανείς – ούτε οι ίδιοι οι δημιουργοί – δεν μπορούν να καταλάβουν, να προβλέψουν ή να ελέγξουν αξιόπιστα» η επιστολή προτείνει μια 6μηνη παύση ανάπτυξης για οτιδήποτε πιο ισχυρό από το GPT-4. Η επιστολή υποστηρίζει πως ο επιπλέον χρόνος θα επιτρέψει ηθικές ρυθμίσεις και ανησυχίες περί ασφάλειας να ληφθούν υπόψιν και δηλώνει πως ισχυρά συστήματα AI θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι.

Η άλλη μεριά

Δεν συμφωνούν όλοι με τους ισχυρισμούς της επιστολής ή ότι δικαιολογείται μια παύση. Στην πραγματικότητα, πολλοί από τη βιομηχανία AI έχουν αντιδράσει, λέγοντας ότι μια παύση θα έκανε ελάχιστο καλό. Σύμφωνα με δημοσίευμα του VentureBeat, ο επικεφαλής επιστήμονας της Meta Yann LeCun δήλωσε: “Δεν βλέπω το νόημα της ρύθμισης της έρευνας και της ανάπτυξης. Δεν νομίζω ότι αυτό εξυπηρετεί κανέναν άλλο σκοπό εκτός από τη μείωση της γνώσης που θα μπορούσαμε να χρησιμοποιήσουμε για να κάνουμε πραγματικά την τεχνολογία καλύτερη, ασφαλέστερη”.

Παρ’ όλα αυτά, η συζήτηση που ακολούθησε στη βιομηχανία μπορεί να ώθησε τον διευθύνοντα σύμβουλο της OpenAI, Sam Altman, να δηλώσει ότι η εταιρεία δεν δοκιμάζει επί του παρόντος το GPT-5. Επιπλέον, ο Altman πρόσθεσε ότι η τεχνολογία δικτύου Transformer που διέπει το GPT-4 και το τρέχον ChatGPT

μπορεί να έχει εξαντλήσει την πορεία της και ότι η εποχή των γιγαντιαίων μοντέλων AI έχει ήδη τελειώσει.

Το συμπέρασμα από αυτό είναι ότι η δημιουργία όλο και μεγαλύτερων LLM μπορεί να μην αποφέρει αισθητά καλύτερα αποτελέσματα, και κατ’ επέκταση, το GPT-5 δεν θα βασιστεί σε ένα μεγαλύτερο μοντέλο.

Πρόταση:Ο Elon Musk θέλει να φτιάξει το δικό του AI chatbot, το TruthGPT

Αυτό εγείρει το ερώτημα πώς θα μοιάζει το GPT-5 όταν υλοποιηθεί. Ενδείξεις μπορούν να βρεθούν στην τρέχουσα καινοτομία, η οποία βασίζεται στην υφιστάμενη κατάσταση αυτών των LLM. Η OpenAI, για παράδειγμα, παρέχει plug-ins για το ChatGPT που προσθέτουν ορισμένες επιπλέον δυνατότητες.

Αυτά τα plug-ins προορίζονται τόσο να συμπληρώσουν όσο και να αντισταθμίσουν τις αδυναμίες του μοντέλου, όπως η κακή απόδοση σε μαθηματικά προβλήματα, η τάση να επινοεί πράγματα και η αδυναμία εξήγησης του τρόπου με τον οποίο το μοντέλο παράγει αποτελέσματα. Όλα αυτά τα ζητήματα είναι τυπικά για τα “connectionist” neural δίκτυα, τα οποία βασίζονται σε πεποιθήσεις σχετικά με τον τρόπο λειτουργίας του εγκεφάλου. Αντίθετα, τα AI που μαθαίνουν “συμβολικά” δεν έχουν αυτά τα ελαττώματα, επειδή είναι συστήματα συλλογισμού βασισμένα σε γεγονότα.

Μια καλή πιθανότητα λοιπόν θα είναι ο συνδυασμός των δύο αυτών προσεγγίσεων για το AI, το οποίο θα αποτελούσε αξιοσημείωτη βελτίωση σε σχέση με μια προσέγγιση που βασίζεται αποκλειστικά στη LLM.

Αν και ο αποτελεσματικός συνδυασμός αυτών των προσεγγίσεων παρουσιάζει μοναδικές προκλήσεις, η περαιτέρω ενσωμάτωσή τους θα μπορούσε να αποτελέσει ένα βήμα προς ένα AI που θα είναι πιο ισχυρό, θα προσφέρει καλύτερη επεξηγηματικότητα και μεγαλύτερη ακρίβεια.

Διαβάστε επίσης: Οι επιχειρηματικοί ηγέτες πιστεύουν ότι το AI θα αντικαταστήσει τους ανθρώπους;

πηγή πληροφοριών:venturebeat.com