Χτες, αναδείξαμε το πρόβλημα της παραπληροφόρησης που προκύπτει στο περιεχόμενο εργαλείων παραγωγικής Τεχνητής Νοημοσύνης. Και τις προκλήσεις που αυτό δημιουργεί ενόψει των αμερικανικών και άλλων εκλογικών αναμετρήσεων στον κόσμο. Σε ένα μικρό βαθμό θα μπορούσαμε να δείξουμε… κατανόηση. Διότι σίγουρα η παραγωγική ΤΝ δεν βρίσκεται σε μια φάση τελειοποιημένης ανάπτυξης. Επομένως θα μπορούσαμε να εντάξουμε το φαινόμενο στις παιδικές ασθένειες μιας τεχνολογίας που ακόμα βρίσκεται σε πρώιμο στάδιο. Υποτίθεται άλλωστε ότι γύρω στα μέσα Φεβρουαρίου όλοι οι κολοσσοί τεχνολογίας - Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, Stability AI, κλπ. - συνυπέγραψαν το Σύμφωνο Τεχνολογίας, στο Μόναχο, ακριβώς με αντικείμενο την αντιμετώπιση της κακόβουλης χρήσης ΤΝ εν όψει των εκλογών του 2024.
Κανείς δεν αρνείται την ευθύνη των εταιρειών, δεν υπάρχει αμφιβολία γι’ αυτό και θα πρέπει να δουλέψουν σοβαρά, όχι μόνο στις ΗΠΑ αλλά σε κάθε χώρα και γλώσσα η οποία χρησιμοποιείται στα εργαλεία τους.
Από κει και πέρα είναι καιρός να αναλάβει καθένας τις δικές του ευθύνες. Στα μεγάλα μέσα ενημέρωσης ας πούμε υπάρχει μια θετική, αναπτυσσόμενη τάση προσοχής και εγρήγορσης εκ μέρους των δημοσιογράφων, προκειμένου να είναι σε θέση να αναγνωρίσουν και να συμβάλουν στη μη διάδοση ψευδούς πολιτικής πληροφόρησης από ΤΝ.
Υπάρχουν φορείς που έχουν ρόλο στην ενημέρωση ή και εκπαίδευση του κοινού, νομοθετικές παρεμβάσεις για την τήρηση της δεοντολογίας στις εκλογές, επέκταση της νομοθεσίας για την ΤΝ στα θέματα πολιτικής πληροφόρησης, αλλά και πρακτικές όπως το labeling (να γνωστοποιείται αν ένα περιεχόμενο είναι από ΤΝ), που αν και δεν λύνουν το πρόβλημα, διευκολύνουν την κατάσταση.
Δύο σχολές σκέψης
Όπως πολλές φορές συμβαίνει όταν αναδύεται μια νέα αγορά, ο παράγοντας των οικονομικών και κατ’ επέκταση πολιτικών συμφερόντων είναι καθοριστικός. Για καλό ή για κακό…
Το τελευταίο πεντάμηνο γνωρίζουμε ότι κορυφαία κυβερνητικά στελέχη από τις ΗΠΑ, την ΕΕ και άλλες χώρες και αρχηγοί κρατών έχουν κάνει αλλεπάλληλες συναντήσεις με στελέχη εταιρειών τεχνολογίας, με στόχο να συγκλίνουν σε μια κοινή γραμμή. Από τη μια μεριά έχουμε την προσέγγιση που θέλει την αγορά να “αυτορρυθμιστεί” περισσότερο σε εθελοντική βάση, όπως ορίζει γενικά το προεδρικό διάταγμα του Τζο Μπάιντεν, το περασμένο φθινόπωρο. Από την άλλη έχουμε την ευρωπαϊκή προσέγγιση, που απαιτεί δικλείδες ασφαλείας στα πρότυπα της Ευρωπαϊκή ς Πράξης για την Τεχνητή Νοημοσύνη, όπως τίθεται πολύ σύντομα σε ισχύ.
Πίσω από την απόκλιση αυτή κρύβεται ξεκάθαρα η ανησυχία των Αμερικανών, και των ισχυρών ευρωπαϊκών κρατών, να μην μείνουν πίσω στην ανάπτυξη τεχνολογίας ΤΝ σε σχέση με την Κίνα, η οποία έχει και περισσότερο ρευστό και λιγότερες αναστολές για τους κινδύνους. Αλλά και η ανησυχία των εταιρειών τεχνολογίας να μην βρεθούν ενώπιον ασφυκτικών νόμων που θα περιορίσουν την επενδυτική τους ελκυστικότητα και την ανάπτυξή τους.
Δεν υπάρχει “αυτορρύθμιση”
Το ερώτημα παραμένει: Μπορούμε να εμπιστευθούμε απόλυτα τις εταιρείες τεχνολογίας;
Δυστυχώς, όλα όσα εκτυλίχθηκαν στο παρελθόν με την υπόθεση των προσωπικών δεδομένων και των big data, δείχνουν το αντίθετο και δεν μπορούμε να εναποθέτουμε τις ελπίδες μας στην “αυτορρύθμιση” του κλάδου. Θα πρέπει να βρεθεί η χρυσή τομή ανάμεσα στο ρυθμιστικό πλαίσιο και την ελευθερία των παρόχων να δημιουργήσουν εργαλεία με ωφέλιμες δυνατότητες.
Στην παρούσα φάση και σε ό,τι μας αφορά, στις εκλογικές διαδικασίες, ενδεχομένως τα deepfakes και η ανικανότητα των εργαλείων ΤΝ να μην μπορούν να έχουν καθοριστικό, επικίνδυνο αντίκτυπο. Έτσι κι αλλιώς, η πειθώ και η απόκτηση ψήφων παραμένει μια υπόθεση ανθρώπινη, ενώ και η υπάρχουσα παραπληροφόρηση είναι άφθονη και ταλαιπωρεί τις δημοκρατίες ως έχει. Αυτό όμως δεν μας εμποδίζει να κάνουμε κάτι για να την περιορίσουμε, και σίγουρα να μην αφήσουμε τα πράγματα στην τύχη τους.