Περισσότεροι από 2.600 ηγέτες τεχνολογίας και ερευνητές υπέγραψαν μια ανοιχτή επιστολή ζητώντας μια προσωρινή παύση της περαιτέρω ανάπτυξης της τεχνητής νοημοσύνης (AI), φοβούμενοι «βαθούς κινδύνους για την κοινωνία και την ανθρωπότητα».
Ο Διευθύνων Σύμβουλος της Tesla, Elon Musk, ο συνιδρυτής της Apple, Steve Wozniak, και μια σειρά από CEOs, CTO και ερευνητές της τεχνητής νοημοσύνης ήταν μεταξύ των υπογραφόντων της επιστολής, η οποία δημοσιεύθηκε από το Ινστιτούτο Μέλλοντος της Ζωής (FOLI) των Ηνωμένων Πολιτειών στις 22 Μαρτίου.
Το ινστιτούτο κάλεσε όλες τις εταιρείες τεχνητής νοημοσύνης να «διακόψουν αμέσως» την εκπαίδευση συστημάτων τεχνητής νοημοσύνης που είναι πιο ισχυρά από το GPT-4 για τουλάχιστον έξι μήνες, μοιράζοντας τις ανησυχίες ότι «η ανθρώπινη-ανταγωνιστική νοημοσύνη μπορεί να θέσει σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα», μεταξύ άλλων. .
«Η προηγμένη τεχνητή νοημοσύνη θα μπορούσε να αντιπροσωπεύει μια βαθιά αλλαγή στην ιστορία της ζωής στη Γη και θα πρέπει να σχεδιάζεται και να διαχειρίζεται με ανάλογη φροντίδα και πόρους. Δυστυχώς, αυτό το επίπεδο σχεδιασμού και διαχείρισης δεν συμβαίνει», έγραψε το ινστιτούτο.
Το GPT-4 είναι η πιο πρόσφατη επανάληψη του chatbot με τεχνητή νοημοσύνη του OpenAI, το οποίο κυκλοφόρησε στις 14 Μαρτίου. Μέχρι σήμερα, έχει περάσει μερικές από τις πιο αυστηρές εξετάσεις γυμνασίου και νομικής στις ΗΠΑ εντός του 90ου εκατοστημόριου . Είναι κατανοητό ότι είναι 10 φορές πιο καλό από την αρχική έκδοση του ChatGPT.
Υπάρχει ένας «εκτός ελέγχου κούρσας» μεταξύ των εταιρειών τεχνητής νοημοσύνης για την ανάπτυξη πιο ισχυρής τεχνητής νοημοσύνης, την οποία «κανείς —ακόμη και οι δημιουργοί τους— δεν μπορεί να καταλάβει, να προβλέψει ή να ελέγξει αξιόπιστα», ισχυρίστηκε η FOLI.
Μεταξύ των βασικών ανησυχιών ήταν εάν οι μηχανές θα μπορούσαν να πλημμυρίσουν τα κανάλια πληροφόρησης, ενδεχομένως με «προπαγάνδα και αναλήθεια» και εάν οι μηχανές θα «αυτοματοποιήσουν» όλες τις ευκαιρίες απασχόλησης.
Η FOLI προχώρησε αυτές τις ανησυχίες ένα βήμα παραπέρα, υποδηλώνοντας ότι οι επιχειρηματικές προσπάθειες αυτών των εταιρειών τεχνητής νοημοσύνης μπορεί να οδηγήσουν σε υπαρξιακή απειλή:
«Θα έπρεπε να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να ξεπεράσουν αριθμητικά, να ξεπεράσουν, να ξεπεραστούν και να μας αντικαταστήσουν; Πρέπει να διακινδυνεύσουμε να χάσουμε τον έλεγχο του πολιτισμού μας;»
«Τέτοιες αποφάσεις δεν πρέπει να ανατίθενται σε μη εκλεγμένους ηγέτες τεχνολογίας», προστίθεται στην επιστολή.
Το ινστιτούτο συμφώνησε επίσης με μια πρόσφατη δήλωση του ιδρυτή του OpenAI, Sam Altman, ότι θα πρέπει να απαιτείται ανεξάρτητη αναθεώρηση πριν από την εκπαίδευση μελλοντικών συστημάτων AI.
Ο Altman στην ανάρτησή του στο blog της 24ης Φεβρουαρίου τόνισε την ανάγκη προετοιμασίας για ρομπότ τεχνητής γενικής νοημοσύνης (AGI) και τεχνητής υπερνοημοσύνης (ASI).
Ωστόσο, δεν έσπευσαν όλοι οι ειδικοί της τεχνητής νοημοσύνης να υπογράψουν την αναφορά. Ο Ben Goertzel, ο Διευθύνων Σύμβουλος της SingularityNET, εξήγησε σε μια απάντηση στο Twitter στις 29 Μαρτίου στον Gary Marcus, συγγραφέα του Rebooting.AI, ότι τα μοντέλα εκμάθησης γλωσσών (LLM) δεν θα γίνουν AGI, τα οποία, μέχρι σήμερα, έχουν υπάρξει ελάχιστες εξελίξεις .
Αντίθετα, είπε ότι η έρευνα και η ανάπτυξη θα πρέπει να επιβραδυνθούν για πράγματα όπως τα βιοόπλα και τα πυρηνικά:
Εκτός από τα μοντέλα εκμάθησης γλωσσών όπως το ChatGPT, η τεχνολογία deep fake με τεχνητή νοημοσύνη έχει χρησιμοποιηθεί για τη δημιουργία πειστικών εικόνων, φάρσες ήχου και βίντεο. Η τεχνολογία έχει επίσης χρησιμοποιηθεί για τη δημιουργία έργων τέχνης που δημιουργούνται από την τεχνητή νοημοσύνη, με ορισμένες ανησυχίες σχετικά με το εάν θα μπορούσε να παραβιάσει τους νόμους περί πνευματικών δικαιωμάτων σε ορισμένες περιπτώσεις.
Ο Διευθύνων Σύμβουλος της Galaxy Digital, Mike Novogratz, είπε πρόσφατα στους επενδυτές ότι ήταν σοκαρισμένος με την ποσότητα της ρυθμιστικής προσοχής που έχει δοθεί στα κρύπτο, ενώ ελάχιστα έχει γίνει για την τεχνητή νοημοσύνη.
«Όταν σκέφτομαι την τεχνητή νοημοσύνη, με σοκάρει το γεγονός ότι μιλάμε τόσο πολύ για ρύθμιση κρύπτο και τίποτα για ρύθμιση τεχνητής νοημοσύνης. Θέλω να πω, νομίζω ότι η κυβέρνηση το πήρε εντελώς ανάποδα», είπε κατά τη διάρκεια κλήσης των μετόχων στις 28 Μαρτίου.
Η FOLI έχει υποστηρίξει ότι εάν η παύση ανάπτυξης της τεχνητής νοημοσύνης δεν εφαρμοστεί γρήγορα, οι κυβερνήσεις θα πρέπει να εμπλακούν με ένα μορατόριουμ.
«Αυτή η παύση θα πρέπει να είναι δημόσια και επαληθεύσιμη και να περιλαμβάνει όλους τους βασικούς παράγοντες. Εάν μια τέτοια παύση δεν μπορεί να εφαρμοστεί γρήγορα, οι κυβερνήσεις θα πρέπει να παρέμβουν και να θεσπίσουν μορατόριουμ», έγραψε.
Για περισσότερα ενημερωμένα νέα, βρείτε μας στο Twitter και στις Ειδήσεις Crypto ή εγγραφείτε στο κανάλι μας στο YouTube .
Ποια είναι η γνώμη σας για το συγκεκριμένο θέμα; Αφήστε μας το σχόλιο σας από κάτω! Πάντα μας ενδιαφέρει η γνώμη σας!
Author: Dimitrios Alexandridis