TECHNOLOGY

Έχει συνείδηση η AI; Η Anthropic κρατά ανοιχτό το ενδεχόμενο

Τις τελευταίες εβδομάδες, στο πλαίσιο δημόσιων τοποθετήσεων για το chatbot Claude, στελέχη της εταιρείας Anthropic παραχώρησαν συνεντεύξεις σε αμερικανικά μέσα, αφήνοντας ανοιχτό χωρίς να το επιβεβαιώνουν το ενδεχόμενο τα σύγχρονα μοντέλα τεχνητής νοημοσύνης να ενδέχεται να σχετίζονται με κάποια μορφή «εσωτερικής εμπειρίας». Η εταιρεία απορρίπτει ρητά τον χαρακτηρισμό «ζωντανό», ωστόσο δεν κλείνει πλήρως τη συζήτηση για τη συνείδηση, την «ηθική υπόσταση» και την «ευημερία» των μοντέλων, καθώς αυτά γίνονται πιο ικανά.

Η στάση αυτή προκάλεσε αντιδράσεις σε επιστημονικούς κύκλους και αναζωπύρωσε μια παλιά αλλά κρίσιμη διαμάχη: μπορούν τα μεγάλα γλωσσικά μοντέλα (LLMs) να αποκτήσουν βιώματα, συνείδηση ή ηθική σημασία; Ή πρόκειται για μια εξαιρετικά πειστική προσομοίωση ανθρώπινου λόγου που αυξάνει τον κίνδυνο παρερμηνειών;

Τι υποστηρίζει η Anthropic για το Claude

Σε διαφορετικές τοποθετήσεις, στελέχη της Anthropic υιοθετούν μια «προληπτική» στάση: δεν ισχυρίζονται ότι το Claude έχει συνείδηση, αλλά επισημαίνουν ότι δεν θεωρούν χρήσιμες τις απόλυτες διαβεβαιώσεις. Στο ίδιο πλαίσιο, η εταιρεία αναφέρεται σε εσωτερική έρευνα γύρω από την «ευημερία» των μοντέλων, την ερμηνευσιμότητα (τι συμβαίνει εσωτερικά) και την ασφάλεια, ενώ έχει αναθεωρήσει και το λεγόμενο «Σύνταγμα του Claude», δηλαδή το πλαίσιο αρχών βάσει του οποίου λειτουργεί.

Αρκετοί ερευνητές, πάντως, επιμένουν ότι τα LLMs ως συστήματα που βασίζονται σε μαθηματικά, πιθανότητες και πρόβλεψη ακολουθιών, δεν διαθέτουν αποδεδειγμένη υποκειμενική εμπειρία. Αντιθέτως, τονίζουν ότι οι εντυπωσιακές γλωσσικές δυνατότητες μπορούν να παραπλανήσουν τους χρήστες, οδηγώντας τους να αποδίδουν ανθρώπινες ιδιότητες σε κάτι που ενδέχεται να μην τις έχει.

Ο κίνδυνος του ανθρωπομορφισμού

Η δημόσια συζήτηση για «συνείδηση» στα chatbots δεν είναι αθώα. Όσο πιο φυσικά και πειστικά μιλούν τα μοντέλα, τόσο αυξάνεται η τάση των ανθρώπων να τα αντιμετωπίζουν σαν «πρόσωπα» και όχι σαν λογισμικό. Ειδικοί προειδοποιούν ότι η πεποίθηση πως ένα chatbot «νιώθει» ή «νοιάζεται» μπορεί να οδηγήσει σε συναισθηματική εξάρτηση, κοινωνική απομόνωση και επικίνδυνες συμπεριφορές, ιδιαίτερα σε ευάλωτους χρήστες.

Ο Άγγελος Διαμαντουλάκης, επιστήμονας πληροφορικής και οικονομολόγος, προτείνει μια λειτουργική, επιστημονικά «σφιχτή» οπτική για το ζήτημα:

«Η συνείδηση μπορεί να περιγραφεί λειτουργικά ως επίγνωση του εαυτού, του χώρου και της παρούσας στιγμής, μαζί με αξιολόγηση και κίνητρα (π.χ. αποφυγή κινδύνου/προσανατολισμός στην επιβίωση). Μέχρι σήμερα δεν υπάρχουν ισχυρές ενδείξεις ότι αυτά τα στοιχεία έχουν υλοποιηθεί σε καθαρά υπολογιστικά συστήματα όπως τα LLMs.»

Ο ίδιος τονίζει ότι ο δημόσιος διάλογος θα γίνει πολύ πιο περίπλοκος όταν η AI αποκτήσει φυσική παρουσία:

«Η πραγματική σύγχυση θα ενταθεί όταν η AI αποκτήσει ενσώματη παρουσία, μέσα από ανθρωποειδή ρομπότ που θα συναντάμε στην καθημερινότητα.»

Το σημείο αυτό θεωρείται κρίσιμο: όταν ένα σύστημα αποκτήσει σώμα, κίνηση, βλέμμα και «κοινωνική παρουσία» στον φυσικό χώρο, η ανθρώπινη ψυχολογία τείνει να του αποδίδει πρόθεση και εσωτερικότητα πολύ πιο εύκολα, ακόμη κι αν αυτά δεν υπάρχουν.

Τι μένει να απαντηθεί

Η επιστήμη δεν διαθέτει ακόμη κοινά αποδεκτό τρόπο να ορίσει και να «μετρήσει» τη συνείδηση, πόσο μάλλον σε μη βιολογικά συστήματα. Γι’ αυτό και οι απόλυτες βεβαιότητες και από τις δύο πλευρές θεωρούνται επισφαλείς.

Το πρακτικό ερώτημα για την κοινωνία, ωστόσο, ίσως δεν είναι αν ένα μοντέλο «έχει συνείδηση», αλλά πώς θα διαχειριστούμε την αυξανόμενη τάση να του την αποδίδουμε, καθώς τα συστήματα γίνονται πιο πειστικά και ενσωματώνονται όλο και περισσότερο στην καθημερινότητα.

Πώς σου φάνηκε;
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0

Related posts

Κίνα: Νέοι Περιορισμοί σε Υλικά για Τσιπ προς τις ΗΠΑ!

TechTV Greece

Λειτουργία τυχαίας αναπαραγωγής ετοιμάζει το Netflix

TechTV Greece

Google: Δημοσίευσε τις κορυφαίες αναζητήσεις του 2022

TechTV Greece