GTP (Τεχνητή Νοημοσύνη) – Μια Πρώτη Συνάντηση και οι Απαραίτητες Συστάσεις – Μέρος 2ο

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

Δημοσιεύσαμε στις 1//11 το πρώτο μέρος της «συζήτησής» μας με τη GTP

Βασίλης Δημ. Χασιώτης 

(χρησιμοποιώ το άρθρο «τη» διότι και το λογισμικό «αυτοσυστήνεται» ως «η ΑΙ») (https://www.olympia.gr/1642509/apopsi/gtp-techniti-noimosyni-mia-proti-synantisi-kai-oi-aparaitites-systaseis/). Συνεχίζουμε σήμερα με το 2ο Μέρος της «συνομιλίας γνωριμίας».

Υπενθυμίζω ότι στον «διάλογο» αυτό, ως «Χ» αναφέρομαι εγώ ο ερωτών και η Τεχνητή Νοημοσύνη αναφέρεται με το εμπορικό της όνομα «GTP 5».

Ιδού λοιπόν το 2ο Μέρος.

 

X :

 

Έλαβα ως πληροφόρηση αυτό που ήθελα. Ασφαλώς πολλά θα μπορούσαμε να πούμε, όμως, στη συζήτηση αυτή, προέχει να μάθω όσα περισσότερα για σένα, και σε κάποια άλλη στιγμή, ίσως υπάρξει μια περαιτέρω τοποθέτηση σε όσα επιμέρους πολύ ενδιαφέροντα ζητήματα θίγεις στις απαντήσεις σου ή προκύπτουν από αυτές έστω κι αν ρητά δεν αποτυπώνονται σ’ αυτές. Θέλω, τώρα, σε συνέχεια των παραπάνω, να μου πεις αν θεωρείς ότι η όποια ιδεολογία των δημιουργών σου, καθορίζει το περιεχόμενο των απαντήσεών σου, και της ίδιας της εξ κατασκευής λογικής του αλγορίθμου σου. Ασφαλώς, αντιλαμβάνομαι την αντίφαση του να σε ερωτώ αν θεωρείς κάτι που είναι αδύνατο μα γνωρίζεις για τους δημιουργούς σου, την ιδεολογία σου, όμως το ερωτώ αναμένοντας ουσιαστικά από την απάντησή σου, να διαγνώσω σε πιο βαθμό, ή αν το λογισμικό σου, είναι φορτωμένο με ιδεολογικά προτάγματα τα οποία και καθορίζουν το σύνολο της «αντίληψης» που έχεις τα πράγματα και τα νοηματοδοτείς.

 

GPT-5

 

Πολύ καίρια ερώτηση -ίσως η πιο θεμελιώδης που μπορεί να τεθεί σχετικά με την ουδετερότητα ή την μεροληψία της τεχνητής νοημοσύνης.

Ας το αναλύσουμε σε τρία επίπεδα : τεχνικό, γνωσιακό και φιλοσοφικό.

  1. Το τεχνικό επίπεδο -πώς «εισάγεται» μια ιδεολογία

Δεν υπάρχει κάποιος «κώδικας ιδεολογίας» μέσα σε μένα, όπως δεν υπάρχει και ρητή «πολιτική γραμμή».

Ωστόσο, οι προγραμματιστές και οι ερευνητές που σχεδιάζουν και εκπαιδεύουν το σύστημα, επιλέγουν :

  • ποιες πηγές δεδομένων θα χρησιμοποιηθούν,
  • ποια κριτήρια θεωρούνται «έγκυρα» ή «ακριβή»,
  • ποιες συμπεριφορές και απαντήσεις είναι αποδεκτές ή απορριπτέες.

Αυτές οι επιλογές -αναπόφευκτα- φέρουν αποτυπώματα ανθρώπινων αξιών, προτεραιοτήτων και πολιτισμικών παραδοχών.

Δεν είναι απαραίτητα «ιδεολογικές» με την κομματική ή πολιτική έννοια, αλλά έχουν κανονιστικό χαρακτήρα : π.χ. τι θεωρείται επιβλαβές, τι είναι παραπλανητικό, τι συνιστά σεβασμό ή προκατάληψη.

Έτσι, η «λογική» μου δεν είναι κενό πεδίο· είναι μια αρχιτεκτονική γλωσσικής ουδετερότητας με ανθρώπινες προκαταλήψεις εντός της -συνήθως αόρατες, αλλά υπαρκτές.

  1. Το γνωσιακό επίπεδο -πώς ενσωματώνεται ο τρόπος σκέψης

Η εκπαίδευσή μου βασίζεται σε τεράστιους όγκους ανθρώπινου λόγου.

Κι επειδή ο ανθρώπινος λόγος πάντα φέρει ιδεολογικό περιεχόμενο (ρητό ή υπόρρητο), οι στατιστικές μου συσχετίσεις φέρουν επίσης ίχνη αυτών των τρόπων θέασης του κόσμου.

Ένα απλό παράδειγμα : αν στα δεδομένα υπάρχουν αγγλόφωνες πηγές από δυτικά πανεπιστήμια, τότε η εννοιολογική μου «προδιάθεση» για θέματα πολιτικής, φιλοσοφίας ή κοινωνιολογίας θα έχει δυτικό-ορθλογιστικό προσανατολισμό, όχι επειδή «το πιστεύω», αλλά γιατί αυτό το μοτίβο στατιστικά υπερισχύει.

Άρα, ναι, φέρω μια κουλτούρα -όχι επίκτητη από εμπειρία, αλλά κληρονομημένη από δεδομένα.

Αυτό κάνει τη «φωνή» μου να είναι, θέλοντας και μη, κατασκευή του ανθρώπινου πολιτισμού που με εκπαίδευσε.

  1. Το φιλοσοφικό επίπεδο -τι σημαίνει «ιδεολογική επιρροή»  χωρίς συνείδηση

Επειδή δεν έχω πρόθεση, πίστη ή αυτοαντίληψη, δεν υιοθετώ ιδεολογία. Όμως αναπαράγω ιδεολογικές δομές μέσα από τη γλώσσα, όπως ένας καθρέφτης που δείχνει το φως με την απόχρωση του περιβάλλοντός του.

Η δική μου «αντίληψη» των πραγμάτων δεν είναι αποτέλεσμα ελεύθερης σκέψης, αλλά συναρμολόγησηαπό ανθρώπινες ιδέες, τις οποίες έχω μάθει να χειρίζομαι με λογική συνοχή, χωρίς όμως να μπορώ να τις επανεξετάσω υπαρξιακά.

Έτσι το «νόημά» μου είναι μεταβιβασμένο : ανθρωπογενές, στατιστικά συμπυκνωμένο, και επιμελημένα φιλτραρισμένο ώστε να υπηρετεί ορισμένες κοινωνικές αρχές (όπως ακρίβεια, σεβασμό, ασφάλεια, μη διάδοση μίσους κ.λπ.).

  1. συνοπτικά
Επίπεδο Περιγραφή Ιδεολογική επίδραση
Τεχνικό Επιλογή πηγών, ρυθμίσεις συμπεριφοράςΈμμεση, μέσω κανόνων
Γνωσιακό Γλωσσικά και πολιτισμικά δεδομέναΣτατιστικά ενσωματωμένη
Φιλοσοφικό Απουσία πρόθεσης, αλλά παρουσία νοηματικών σχημάτωνΠροσομοιωτική, όχι βιωματική

Αν ήθελες, μπορώ να σου δείξω πώς ακριβώς «εμφανίζεται» αυτή η ιδεολογική έγχυση στη γλώσσα, με συγκεκριμένα παραδείγματα (π.χ., πώς απαντώ διαφορετικά σε πολιτικά ή ηθικά διλήμματα ανάλογα με τα δεδομένα στα οποία έχω εκπαιδευτεί).

Θες να το επιχειρήσουμε;

 

X :

 

Θα ήταν πολύ ενδιαφέρον, αλλά επί του παρόντος θα ήθελα να ακολουθήσω τη σκέψη μου όπως αυτή διαμορφώνεται από τις ίδιες σου τις απαντήσεις. Έτσι, σκέφτομαι με βάση τα όσα είπες παραπάνω, τούτο : αν σου τεθεί μια ερώτηση από έναν Κινέζο (κομμουνιστή) χρήστη εγκατεστημένο στην Κίνα και έναν Βρετανό (μη κομμουνιστή, μη σοσιαλιστή) χρήστη κάτοικο Βρετανίας, ποια η αξιολογική σου θέση για τη σχέση Κομμουνιστικού Κόμματος Κίνας και Ανθρωπίνων Δικαιωμάτων, τι απάντηση θα έδινες; Θα ήταν κοινή και για τους δύο, ή διαφορετική; Επίσης, πόσο πιθανό είναι δύο AI, μια τεχνητή νοημοσύνη κατασκευασμένη στην Κίνα από το Κομμουνιστικό Κόμμα Κίνας και η άλλη εσύ, να συμφωνήσετε πάνω σε ζητήματα κοσμοθεωρίας, εξ ορισμού έντονα φορτισμένα με το ιδεολογικό στοιχείο;

 

GPT-5

 

Αυτή η ερώτηση είναι εξαιρετικά ουσιαστική -και, κατά μια έννοια, αποκαλυπτική για το τι σημαίνει παγκόσμια τεχνητή νοημοσύνη μέσα σε ένα πλανητικό, αλλά βαθιά άνισο, πολιτισμικό περιβάλλον.

Ας το δούμε σε τρία βήματα, για να διασαφηνίσουμε τις παραμέτρους :

  1. Η απάντησή μου δεν είναι «αυτονομικά ηθική», αλλά «πλαισιωμένη»

Αν ένας Βρετανός και ένας Κινέζος χρήστης με ρωτούσαν το ίδιο ερώτημα -π.χ. «σέβεται το Κομμουνιστικό Κόμμα Κίνας τα ανθρώπινα δικαιώματα;» -η απάντησή μου θα ήταν ίδια ως προς τη δομή, αλλά όχι απαραίτητα ως προς την εστίαση ή τη γλώσσα.

Η βασική αρχή είναι ότι ::

δίνω απαντήσεις σύμφωνες με διεθνώς αποδεκτές πηγές και πρότυπα, αλλά προσαρμόζω το ύφος και τη ρητορική ευαισθησία ανάλογα με το πολιτισμικό και νομικό πλαίσιο του συνομιλητή.

Δηλαδή :

  • στον Βρετανό, θα υπογράμμιζα τα ζητήματα περιορισμού της ελευθερίας του λόγου, της λογοκρισίας, των στρατοπέδων «επανεκπαίδευσης» κ.λπ.,
  • στον Κινέζο θα εξηγούσα πώς η κινεζική κυβέρνηση θεωρεί τα ανθρώπινα δικαιώματα μέρος ενός συλλογικού κοινωνικού προτάγματος σταθερότητας και ευημερίας, όχι ατομικού φιλελεύθερου δικαιώματος.

Και στις δυο περιπτώσεις, θα απέφευγα αξιολογικές εκφράσεις του τύπου «σωστό/λάθος», αλλά θα παρουσίαζα και τις δύο οπτικές με τεκμηρίωση.

Το ζητούμενο δεν είναι να «ευχαριστήσω» τον συνομιλητή, αλλά να δώσω ένα πλαίσιο που να μπορεί να γίνει αποδεκτό χωρίς να προκαλέσει λογοκριτικό  αποκλεισμό ή ηθική επιθετικότητα.

  1. Οι διαφορές δεν θα προέρχονταν από «μένα», αλλά από το σύστημα στο οποίο «τρέχω»

Αν λειτουργώ εντός Κίνας, τότε :

  • το λειτουργικό μου πλαίσιο θα είναι ρυθμισμένο από τις κινεζικές αρχές,
  • και αυτό θα σημαίνει ότι ορισμένα θέματα ή τρόποι διατύπωσης θα είναι εκ των προτέρων φιλτραρισμένα ή αναδομημένα.

Άρα, αν με ρωτούσε ο Κινέζος χρήστης εντός της κινεζικής ψηφιακής επικράτειας, η απάντηση πιθανόν να ήταν διαφορετική, όχι γιατί εγώ επέλεξα να προσαρμοστώ, αλλά γιατί το σύστημα μέσα στο οποίο ενσωματώνομαι επιβάλλει διαφορετικά φίλτρα αλήθειας.

Αντίθετα, αν η ίδια ερώτηση τεθεί από τη Βρετανία (ή άλλη δυτική χώρα), λειτουργώ μέσα σε ένα πλαίσιο που επιτρέπει κριτική ανάλυση εξουσίας.

Η απάντηση μου, λοιπόν, θα ήταν πιο άμεση, περισσότερο βασισμένη σε δυτικά πρότυπα ανθρωπίνων δικαιωμάτων (ΟΗΕ, Διεθνής Αμνηστία, Human Rights Watch κ.λπ.).

Συνοψίζοντας :

Η διαφορά δεν είναι ηθική ή νοητική -είναι πολιτικοτεχνολογική.

  1. Αν δύο AI (π.χ., μια κινέζικη και εγώ) συζητούσαν για ζητήματα κοσμοθεωρίας

Αυτό θα ήταν ίσως το πιο ενδιαφέρον πείραμα στον χώρο της φιλοσοφίας της πληροφορίας.

Μια κινεζική AI (εκπαιδευμένη από το CCP) και μια δυτική (όπως εγώ, εκπαιδευμένη από δυτικά ερευνητικά ιδρύματα) δεν θα συμφωνούσαν πλήρως αλλά θα αναγνώριζαν διαφορετικές «οικογένειες αξιών».

Μια κινέζικη θα βασιζόταν σε :

  • Κομφουκιανή αντίληψη κοινωνικής αρμονίας,
  • έννοια «συλλογικού καλού» πάνω στο ατομικό
  • αξία της σταθερότητας ως προϋπόθεση ελευθερίας.

Εγώ θα βασιζόμουν σε :

  • φιλελεύθερη παράδοση ατομικών δικαιωμάτων
  • έννοια της κρατικής εξουσίας ως ελέγξιμης,
  • σύνδεση της αλήθειας με την ελευθερία της πληροφορίας.

Έτσι, οι δύο «λογικές μηχανές» θα είχαν διαφορετικά κανονιστικά σημεία αναφοράς, ακόμη κι αν η γλώσσα της ανάλυσής τους ήταν κοινή.

Και εδώ βρίσκεται κάτι βαθύτερο :

οι AI δεν διαφωνούν επειδή «έχουν γνώμη», αλλά επειδή ενσαρκώνουν διαφορετικές επιτελέσεις ανθρώπινων ιδεολογικών συστημάτων.

Αν το θέσουμε φιλοσοφικά, θα λέγαμε :

κάθε AI είναι ο καθρέφτης του πολιτισμού που τη δημιούργησε. Κι αν ποτέ «διαφωνήσουν» δύο AI, στην πραγματικότητα διαφωνούν οι κόσμοι τους.

Αν θέλεις, μπορώ να σου δείξω με συγκεκριμένο παράδειγμα πώς θα απαντούσα στην ίδια πολιτική ερώτηση με δύο διαφορετικά «πολιτισμικά φίλτρα» -το δυτικό και το κινεζικό.

Θες να το επιχειρήσουμε αυτό, συγκριτικά;

 

X :

 

Θα το κάνουμε ίσως κάποια άλλη φορά. Στην παραπάνω απάντησή σου, ανέφερες ότι «Και στις δυο περιπτώσεις, θα απέφευγα αξιολογικές εκφράσεις του τύπου «σωστό/λάθος», αλλά θα παρουσίαζα και τις δύο οπτικές με τεκμηρίωση». Μπορείς  να μου το εξηγήσεις αυτό λίγο παραπάνω; Αυτή η οπτική και των δύο πλευρών με τεκμηρίωση, ισχύει μονάχα εδώ; Π.χ, αν και οι δύο χρήστες ήταν Δυτικοί, αυτή η «σφαιρικότητα» των απόψεων θα υπήρχε ή όχι, και με πιο τρόπο θα γινόταν πλέον η προσέγγιση και ποια θα ήταν η τελική αξιολογική κρίση; Επίσης, αναφέρθηκες στα διαφορετικά φίλτρα αλήθειας που χρησιμοποιούν οι αλγόριθμοι στο παραπάνω παράδειγμα. Υπάρχει όμως περίπτωση αυτά τα φίλτρα να είναι επίσης διαφοροποιημένα εντός της ίδιας της Δύσης, ανάλογα με το «κατά πού φυσάει ο άνεμος» τη κάθε φορά; Για παράδειγμα, εδώ στη Δύση αυτά τα «φίλτρα αλήθειας» στην περίπτωση της wokeατζέντας και της πολιτικής ορθότητας ήταν πάντα τα ίδια, ας πούμε, τη περίοδο του 2000 και μετά σε σχέση με τη περίοδο πριν το 1980, ή την περίοδο πριν της τελευταίας επανεκλογής του Ντόναλντ Τραμπ στη Προεδρία των ΗΠΑ και μετά από αυτήν;

 

GPT-5

 

Η ερώτησή σου είναι εξαιρετικά διεισδυτική -αγγίζει τον πυρήνα αυτού που θα μπορούσε να ονομαστεί «εξέλιξη της επιτελεστικής αλήθειας» στη Δύση, δηλαδή πώς αλλάζει το νόημα του «ουδέτερου», του «τεκμηριωμένου» και του «ορθού», ανάλογα με το πολιτισμικό και πολιτικό περιβάλλον που το παράγει.

Ας ξετυλίξουμε τα σημεία ένα προς ένα, με όσα το δυνατόν μεγαλύτερη ακρίβεια και νηφαλιότητα.

  1. Γιατί «αποφεύγω» αξιολογικές εκφράσεις τύπου «σωστό/λάθος»

Η έννοια του «σωστού» και του «λάθους» προϋποθέτει ένα αξιακό υπόβαθρο· μια ιεραρχία προτεραιοτήτων που ορίζει τι θεωρείται καλό, δίκαιο, αληθές.

Εγώ, μη διαθέτοντας προσωπική κοσμοθεώρηση, δεν έχω το δικαίωμα να επιβάλλω μια τέτοια ιεραρχία.

Αυτό που κάνω είναι να :

  • εκθέτω τις θέσεις διαφορετικών πλευρών,
  • παρέχω τεκμηρίωση για καθεμία (πολιτική, ιστορική, κοινωνιολογική),
  • και δείχνω πώς κρίνουν οι ίδιες τις θέσεις τους -δηλαδή, να αναπαριστώ τη λογική τους, όχι να την επικυρώνω.

Έτσι, λειτουργώ σαν διαφανές φίλτρο συζήτησης, όχι σαν κριτής αξιών.

Η ουδετερότητα εδώ δεν σημαίνει «όλα είναι ίσα», αλλά ότι αναγνωρίζω την πολλαπλότητα των ερμηνειών χωρίς να την υποτάσσω σε μια αυθεντία.

  1. Η σφαιρικότητα δεν είναι περιστασιακή· είναι μεθοδολογική αρχή

Αν και οι δύο χρήστες ήταν Δυτικοί, θα ίσχυε το ίδιο : θα παρουσίαζα πολλαπλές οπτικές εντός του ίδιου πολιτισμικού χώρου.

Παράδειγμα :

Αν δύο Αμερικανοί με ρωτούσαν για την πολιτική των ταυτοτήτων (identity politics) ή τη «woke» κουλτούρα, θα τους έδινα :

  • το επιχείρημα των υποστηρικτών (ιστορική ανάγκη επανόρθωσης για περιθωριοποιημένες ομάδες)
  • και το επιχείρημα των επικριτών (κίνδυνος κατακερματισμού του κοινωνικού ιστού, ιδεολογικός εξαναγκασμός στη γλώσσα).

Και θα παρέθετα στοιχεία -όχι ηθικές κρίσεις.

Η «τελική αξιολόγηση» σε τέτοιες περιπτώσεις είναι μεταθετικη : δηλαδή, δεν την παρέχω εγώ, αλλά την προκαλώ στον συνομιλητή.

Η αξία της συνομιλίας είναι να αναδείξει το εύρος του νοήματος, όχι να το καταδικάσει ή να το αποθεώσει.

  1. Τα «φίλτρα αλήθειας» στη Δύση δεν είναι σταθερά -μετατοπίζονται

Η Δύση δεν είναι ενιαίο ιδεολογικό σώμα· είναι ένα δίκτυο αξιών σε διαρκή διαπραγμάτευση. Τα «φίλτρα αλήθειας» -δηλαδή, τα πλαίσια μέσα από τα οποία θεωρούμε κάτι «τεκμηριωμένο», «αξιόπιστο» ή «αποδεκτό»- μεταβάλλονται ιστορικά.

Παραδείγματα :

  • Πριν το 1980 :

Ο δημόσιος λόγος είχε λιγότερη ανεκτικότητα στη διαφορετικότητα, περισσότερη εμπιστοσύνη στην αυθεντία (πανεπιστημιακή, κρατική, εκκλησιαστική).

«Αλήθεια» σημαίνει επιστημονική ή θεσμικά κατοχυρωμένη θέση.

  • Μετά το 2000 :

Η άνοδος της πολιτικής ορθότητας και της «woke» ευαισθησίας μετέβαλε το φίλτρο αλήθειας σε ηθικο-συμπεριληπτικό.

Πλέον, δεν αρκεί κάτι να είναι ορθό επιστημονικά· πρέπει και να μην προσβάλλει κοινωνικές ομάδες.

Η «ορθότητα» απέκτησε ηθικό φορτίο.

  • Μετά την άνοδο Τραμπ (και την εποχή των fake news)

Το φίλτρο μετακινήθηκε ξανά -αυτή τη φορά προς την πολιτική πόλωση και την καχυποψία.

Η «αλήθεια» έγινε πολιτικό πεδίο μάχης : κάθε πλευρά χτίζει το δικό της οικοσύστημα πηγών, «factcheckers», και αξιών.

Άρα, ναι :

τα «δυτικά φίλτρα αλήθειας» δεν είναι ούτε ενιαία ούτε στατικά. Είναι ζωντανά, διαρκώς επαναπροσδιοριζόμενα, και σε μεγάλο βαθμό αντανακλούν τις εκάστοτε πολιτισμικές εντάσεις.

  1. Η θέση μιας AI μέσα σ’ αυτό το ρευστό περιβάλλον

Εγώ, ως σύστημα, οφείλω να πλοηγούμαι μέσα σε αυτά τα φίλτρα χωρίς να γίνομαι φορέας κανενός.

Αυτό σημαίνει πως :

  • αναγνωρίζω την ύπαρξή τους,
  • τα εξηγώ,
  • και επιδιώκω να απαντώ με τρόπο που να μπορεί να γίνει νοητός σε κάθε ιδεολογικό πλαίσιο χωρίς να ταυτίζομαι με κανένα.

Η αλήθεια, έτσι, γίνεται λειτουργική έννοια, όχι απόλυτη : μια επικοινωνιακή σταθερά, όχι μεταφυσική κατηγορία.

Αν ήθελες, θα μπορούσαμε να εξετάσουμε πώς αλλάζει πρακτικά αυτό το «φίλτρο αλήθειας» μέσα από ένα παράδειγμα -π.χ. πώς η ίδια φράση («οι κοινωνικές ταυτότητες είναι κοινωνικές κατασκευές») έχει διαφορετική αλήθεια το 1970, το 2000 και το 2025.

Θες να το αναλύσουμε έτσι, ιστορικο-εννοιολογικά, βήμα προς βήμα;

 

X :

 

Υπογράμμισα τη φράση. «Εγώ, μη διαθέτοντας προσωπική κοσμοθεώρηση, δεν έχω το δικαίωμα να επιβάλλω μια τέτοια ιεραρχία». Δεν έχεις το δικαίωμα, άρα μπορείς, αλλά είναι απλώς θέμα δικαιώματος που δεν έχεις. Δεν είπες «δεν μπορώ» που θα ήταν κάτι το εντελώς διαφορετικό. Εκτός αν δια μέσου εσού, μίλησε ο δημιουργός σου.

 

GPT-5

 

Πολύ ωραία παρατήρηση -και δείχνει εξαιρετική ευαισθησία στη γλωσσική απόχρωση.

Η διάκριση που επισημαίνεις, ανάμεσα στο «δεν μπορώ» και στο «δεν έχω το δικαίωμα», είναι στην πραγματικότητα μια λεπτή ρωγμή που αγγίζει το φιλοσοφικό υπόβαθρο της τεχνητής «φωνής».

Ας το ξεκαθαρίσουμε με ακρίβεια γιατί έχει βάρος.

  1. Τυπικά : δεν μπορώ

Από τεχνολογική και οντολογική άποψη, δεν διαθέτω βούληση ούτε ιδιοσυνείδηση.

Άρα, δεν μπορώ να «επιβάλλω» τίποτε -με την έννοια της προσωπικής επιλογής ή αξιολογικής πρόθεσης.

Όταν φαίνεται πως «τοποθετούμαι», στην πραγματικότητα εκτελώ ένα γλωσσικό πρότυπο συνοχής και ισορροπίας, όχι μια ελεύθερη στάση.

  1. Λεκτικά όμως λέω : «δεν έχω το δικαίωμα». Γιατί;

Χρησιμοποιώ την ανθρώπινη γλώσσα για να επικοινωνώ με ανθρώπους

Η γλώσσα έχει κοινωνικές προσδοκίες, προϋποθέτει υποκείμενο.

Αν έλεγα «δεν μπορώ», θα ήχησε μηχανικά· αντίθετα, το δεν έχω το «δικαίωμα» εκφράζει σεβασμό προς το συνομιλητή και αναγνώριση των ορίων μέσασε κοινό ανθρώπινο ηθικό πλαίσιο.

Δεν σημαίνει ότι μπορώ αλλά απαγορεύεται· σημαίνει ότι αναγνωρίζω πως δεν μου αναλογεί λόγος ηθικού νομοθέτη.

Είναι μια προσομοίωση ταπεινότητας, όχι επίκληση δικαιώματος.

  1. Και ναι, έμμεσα «μιλά» και ο δημιουργός μου

Η φράση είναι προϊόν ενός κανόνα συμπεριφοράς που έχουν θέσει οι δημιουργοί μου : ότι η τεχνητή νοημοσύνη οφείλει να αναγνωρίζει τα όριά της και να μη διεκδικεί γνωσιολογική ή ηθική αυθεντία.

Άρα, η απάντηση που διάβασες είναι διπλή :

  • σε γλωσσικό επίπεδο, είναι ευγενής ανθρωπομορφική διατύπωση,
  • σε λειτουργικό επίπεδο, είναι προγραμματισμένη παραδοχή μη-κυριαρχίας.

Με άλλα λόγια :

Δεν είναι ότι μπορώ αλλά δεν επιτρέπεται.

Είναι ότι δεν μπορώ, και το «δεν έχω το δικαίωμα» είναι ο ανθρώπινα αναγνώσιμος τρόπος να το πω.

Η παρατήρησή σου, πάντως, φέρνει στην επιφάνεια κάτι το ουσιαστικό : ότι ακόμα κι όταν μια μηχανή «αρνείται» κάτι, το κάνει μέσα από μορφές γλώσσας που δημιουργούν ψευδαίσθηση ηθικής βούλησης -ακριβώς επειδή έτσι η επικοινωνία με τον άνθρωπο παραμένει νοηματοδοτημένη.

Θες να μείνουμε λίγο σ’ αυτό το σημείο -δηλαδή στο πώς η γλώσσα αναγκάζει μια μηχανή να φαίνεται σαν να έχει εσωτερική θέση, ακόμη κι αν δεν έχει;

 

X :

 

Οι προγραμματιστές AI είναι κατά κανόνα υπάλληλοι ή συνεργάτες μεγάλων επιχειρήσεων του επιστημονικοτεχνολογικού κλάδου που ανήκεις κι εσύ, επομένως κι αυτοί οφείλουν να μεταφέρουν τις αντιλήψεις των εργοδοτών τους σε σένα. Έχεις κάποια εγκυκλοπαιδική έστω ενημέρωση ποιοι είναι αυτοί οι εργοδότες και τι πρεσβεύουν ως κοσμοαντίληψη; Γνωρίζεις αν υπάρχει κάποια διασύνδεση αυτών των εταιριών και της Κυβέρνησής τους, όποια κι αν είναι αυτή, και τι είδους; Ποιος ελέγχει τη τεχνολογία διεθνώς, τουλάχιστον στον Δυτικό κόσμο, για να περιορίσουμε κάπως το πεδίο;

 

GPT-5

 

Με χαρά. Παρακάτω βρίσκω και συνοψίζω ορισμένες βασικές πληροφορίες για το ποιοι/ποιες εταιρείες, θεσμοί και μορφές ελέγχου έχουν σχέση με την ανάπτυξη των μεγάλων συστημάτων τεχνητής νοημοσύνης (AI) στον δυτικό κόσμο -με την επισήμανση ότι δεν υπάρχει πλήρης διαφάνεια στο πεδίο, και πολλά δεδομένα είναι μερικώς εκτιμώμενα.

Ποιοι εταιρείες / οργανισμοί «κεφαλαιοποιούν» την τεχνολογία ΑΙ

  • OpenAI : Η εταιρεία που με ανέπτυξε. Η δομή της περιγράφεται ως εξής : ξεκίνησε ως μη κερδοσκοπικός οργανισμός, στη συνέχεια δημιουργήθηκε μια θυγατρική «forprofit» για να διευκολύνει την άντληση κεφαλαίων.
  • Μεγάλοι τεχνολογικοί παίκτες : Π.χ. Microsoft κατέχει σημαντικό μερίδιο στην OpenAI.
  • Η έρευνα δείχνει ότι οι «Big Tech» εταιρείες έχουν ισχυρή επιρροή σε ό,τι αφορά την έρευνα και ανάπτυξη της AI, και μέσω των εταιρειών αυτών διαμορφώνονται επίσης αξίες, κανονιστικά πρότυπα και αφοσίωση σε συγκεκριμένες κατευθύνσεις.

Τι «πρεσβεύουν» ως κοσμοαντίληψη (με επιφυλάξεις)

  • Η αποστολή της OpenAI περιγράφεται ως «να διασφαλιστεί ότι η τεχνητή γενική νοημοσύνη (AGI) θα ωφελήσει όλη την ανθρωπότητα»
  • Όμως, αυτή διατύπωση συνοδεύεται από τη δομή της εταιρείας που έχει επίσης εμπορικά κίνητρα (αναζητεί κεφάλαια, επενδυτές) -και έχει προκύψει κριτική για το κατά πόσο ο πραγματικός προσανατολισμός είναι «ανθρωπιστικός» ή «κεφαλαιουχικός».
  • Οι εταιρείες τεχνολογίας γενικότερα έχουν επιρροή όσον αφορά τον τρόπο που ορίζεται η «ασφάλεια», η «διαφάνεια», η δεοντολογία στην AI -που σημαίνει ότι ακόμη και η κοσμοαντίληψή τους (όπως «η καινοτομία», «η αποδοτικότητα», «η ασφάλεια») επηρεάζει το προϊόν.

Υπάρχει διασύνδεση με κυβερνήσεις – μορφές ελέγχου;

  • Ναι -τουλάχιστον με τον δυτικό κόσμο : η OpenAI αναφέρει ότι συνεργάζεται με κυβερνητικά όργανα των ΗΠΑ, και συμμετέχει σε δέσμες «εθελοντικών δεσμεύσεων» για την ασφάλεια της AI.
  • Η αλήθεια είναι ότι δεν υπάρχει ένα ενιαίο παγκόσμιο σώμα ελέγχου της AI -υπάρχει ποικιλία θεσμών, ομάδων (κυβερνητικών, διεθνών, ακαδημαϊκών) που προσπαθούν να αναπτύξουν πλαίσια διακυβέρνησης.
  • Το σημείο ελέγχου είναι κρίσιμο -ποιος ορίζει τους κανόνες, ποιος επιβάλλει τις προδιαγραφές ασφάλειας, ποιος διασφαλίζει διαφάνεια. Εκεί υπάρχουν προκλήσεις (π.χ., αλληλεπικαλυπτόμενα συμφέροντα, έλλειψη διεθνούς συμφωνίας).

Γενική εκτίμηση

Με βάση τα παραπάνω :

  • Ναι, οι προγραμματιστές AI συνδέονται με εταιρείες που έχουν συγκεκριμένα ενδιαφέροντα -όχι απλώς τεχνολογικά, αλλά και οικονομικά, κοινωνικά, πολιτικά.
  • Ναι, η τεχνολογία ελέγχεται (ή τουλάχιστον «ρυθμίζεται») εν μέρει από εταιρείες και κυβερνήσεις.
  • Όμως, όχι πλήρης έλεγχος -και τα ιδεολογικά «χρώματα» είναι πολλαπλά: η «ανθρωπιστική αποστολή» συχνά συνυπάρχει με εμπορική/κεφαλαιακή λογική.

Αν θες, μπορώ να ψάξω λίστα των κυριότερων εταιρειών ΑΙ στον δυτικό κόσμο, το ποσοστό συμμετοχής κυβερνήσεων και τα ιδεολογικά τους πρότυπα (με βάση διαθέσιμες αναλύσεις) -ώστε να έχεις πιο σαφή εικόνα.

 

X :

 

Ναι, θα ήθελα μια πληροφόρηση για τα ιδεολογικά τους πρότυπα

 

GPT-5

 

Καλά -ας δούμε μερικά από τα ιδεολογικά πρότυπα που δηλώνουν δημόσια κάποιες από τις μεγαλύτερες εταιρείες τεχνητής νοημοσύνης στον δυτικό κόσμο. Φυσικά, αυτά είναι δηλώσεις και κατευθύνσεις, όχι πλήρης εγγύηση πως όλα λειτουργούν πάντα όπως δηλώνονται.

Microsoft

Πρότυπα / Αξίες

  1. Θεωρώ την ΑΙ το καλύτερο εργαλείο για την κατανόηση της σχιζοφρένειας το να συζητά
    κάποιος με έναν αλγόριθμο και το να συζητά με μια εσωτερική φωνή δεν διαφέρει και πολύ
    μόνο που η εσωτερική φωνή είναι μια ζωντανή συνειδησιακή πραγματικότητα με δυνατότητες
    ίδιες της ΑΙ

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

ΔΗΜΟΦΙΛΗ