Aπό τα μαντάτα στα… metadata

Ρωτήσαμε εφαρμογή της ΑΙ στο «Χ» και πήραμε κάποιες απαντήσεις...

Aπό τα μαντάτα στα… metadata
ΒΟΥΛΗ, ΦΩΤΟ ΣΑΒΒΑΣ ΑΥΓΗΤΙΔΗΣ

Ίσως με στενή συνεργασία ανθρώπων και μηχανών, μπορούμε να προστατεύσουμε όσα μέχρι σήμερα πιστεύαμε ως δεδομένα και όχι ως… data! 

Άρχισε εδώ και λίγο καιρό το “party”  στα κοινωνικά δίκτυα ενόψει… εθνικών εκλογών. Μαζί με τις περιοδείες των αρχηγών κομμάτων «πέφτουμε» συνεχώς πάνω σε βιντεάκια με περίεργες φιγούρες που τους «τα ρίχνουν» ή τους «αποθεώνουν» αναλόγως της διατεταγμένης υπηρεσίας ή της αγνής ιδεολογίαs των ακολούθων και πλέον και δημιουργών περιεχομένου. Μόνο που αυτές οι φιγούρες δεν είναι πραγματικές αλλά εικονικές, σχεδιασμένες από την ΑΙ και τις διάφορες εφαρμογές της οι οποίες αναπτύσσουν και μια αντιπαλότητα μεταξύ τους, όπως διαπίστωσα στις διάφορες «περιηγήσεις» μου.

Θα κερδίσουν ή θα… χάσουν εκλογές κόμματα με ΑΙ;

Ψεύτικα βίντεο, τροποποιημένες φωτογραφίες, ακόμα και κείμενα που μοιάζουν αληθινά είναι έργα μηχανών και απειλούν την… πραγματικότητα. Πώς μπορούν οι πολίτες, οι δημοσιογράφοι, οι κυβερνώντες και οι αντιπολιτευόμενοι να ξεχωρίσουν το ρεαλιστικό από το εικονικό; Κατά την προεκλογική καμπάνια τι «ψηφιακή λάσπη» θα ριχθεί και πώς θα «καθαρίσει»; Ρωτήσαμε εφαρμογή της ΑΙ στο «Χ» και πήραμε κάποιες απαντήσεις:

«Το πρώτο και πιο σημαντικό βήμα είναι να ελέγξετε την πηγή κάθε είδησης. Αν διαβάσετε κάτι σε ιστοσελίδα ή κοινωνικά δίκτυα, αναρωτηθείτε, αν είναι γνωστό και αξιόπιστο το μέσο; Προέρχεται η πληροφορία από επίσημους φορείς, όπως το πχ το Υπουργείο Εσωτερικών; Υπαρχει υπογραφή δημοσιογράφου; Αν η είδηση κυκλοφορεί μόνο σε άγνωστους ιστότοπους ή από λογαριασμούς χωρίς επαληθευμένη ταυτότητα, να είστε επιφυλακτικοί. Συγκρίνετε την ίδια πληροφορία από διαφορετικά μέσα. Αν δεν εμφανίζεται πουθενά αλλού, ίσως δεν είναι αληθινή. Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει βίντεο ή φωτογραφίες που δείχνουν πολιτικούς να λένε ή να κάνουν πράγματα που δεν συνέβησαν ποτέ. «Αυτά τα λεγόμενα «deepfakes» είναι επικίνδυνα γιατί μοιάζουν αληθινά. Παρατηρήστε αν στο βίντεο, τα χείλη συγχρονίζονται τέλεια με τον ήχο. Το πρόσωπο κινείται φυσικά ή μοιάζει… παγωμένο»;

Δεν υπάρχουν λέμε…

Στις φωτογραφίες, ψάξτε για παράξενες λεπτομέρειες, όπως φωτισμό που δεν ταιριάζει ή αντικείμενα που φαίνονται… αφύσικα. Για μεγαλύτερη σιγουριά, μπορείτε να χρησιμοποιήσετε διαδικτυακά εργαλεία που ελέγχουν αν μια εικόνα ή ένα βίντεο έχει τροποποιηθεί. «Εφαρμογές όπως το Deepware Scanner ή το Forensically είναι εύχρηστες και μπορούν να δώσουν στοιχεία για το αν το περιεχόμενο έχει δημιουργηθεί από τεχνητή νοημοσύνη. Επίσης, αν έχετε πρόσβαση σε τεχνικές γνώσεις, μπορείτε να ελέγξετε τα «μεταδεδομένα» (πληροφορίες όπως η η ημερομηνία και η συσκευή λήψης) μιας φωτογραφίας με προγράμματα όπως το ExifTool» Η τεχνητή νοημοσύνη μπορεί να γράψει κείμενα που μοιάζουν πειστικά με δηλώσεις πολιτικών ή ειδήσεις που ΔΕΝ ΥΠΑΡΧΟΥΝ. Αν κάτι σας φαίνεται… πολύ καλό ίσως έχει γραφτεί από μηχανή. Αυτά μέχρι τις εκλογές. Για τα εκλογικά αποτελέσματα, βασιστείτε μόνο σε επίσημες ανακοινώσεις από το Υπουργείο Εσωτερικών ή την SingularLogic. «Μην πιστεύετε αναρτήσεις στα κοινωνικά δίκτυα που ανακοινώνουν πρώτους και τελευταίους πριν κλείσουν οι κάλπες ή πριν δημοσιευτούν τα επίσημα αποτελέσματα».

Νέα τεχνολογία, παλιές ανησυχίες

Από το δυστοπικό σύμπαν του Φίλιπ Κ. Ντικ στο Do Androids Dream of Electric Sheep όπου ανδροειδή θολώνουν τα όρια της ανθρωπιάς, μέχρι το πρωτοποριακό Neuromancer του Γουίλιαμ Γκίμπσον, που μας βυθίζει στον κυβερνοχώρο και την τεχνητή νοημοσύνη, η λογοτεχνία  εξερευνά τη σχέση ανθρώπου και τεχνολογίας. Ο Ισαάκ Ασίμοφ, με το I, Robot, θέτει τους περίφημους νόμους της ρομποτικής, προβληματίζοντας για την ηθική των μηχανών, ενώ ο Ε.Μ. Φόρστερ, στο προφητικό The Machine Stops, μας προειδοποιεί για έναν κόσμο που εξαρτάται απόλυτα από την τεχνολογία. Ακόμα και το κλασικό 1984 του Τζορτζ Όργουελ μιλάει για την τεχνολογία ως εργαλείο ελέγχου.

Τι λέει ο νόμος

Η Ευρωπαϊκή Ένωση έχει αρχίσει να ρυθμίζει τη χρήση της τεχνητής νοημοσύνης με τον νόμο AI Act, που απαιτεί να επισημαίνεται το περιεχόμενο που δημιουργείται από μηχανές. “Παρακολουθήστε για νέους κανονισμούς που μπορεί να βοηθήσουν στον έλεγχο της παραπληροφόρησης. Τα δε κοινωνικά δίκτυα, όπως το X, μπορούν να γίνουν πεδίο εξάπλωσης ψευδών ειδήσεων. Αν δείτε κάτι που φαίνεται υπερβολικό μην το μοιραστείτε. Συνεργαστείτε με ειδικούς σε τεχνολογία και fact-checking”. Η τεχνητή νοημοσύνη είναι ένα ισχυρό εργαλείο, αλλά μπορεί να χρησιμοποιηθεί για να μας εξαπατήσει κι αυτό δεν πρέπει να το ξεχνάμε γιατί κι αυτό στο χέρι μας είναι. Ισως πάλι επιστρέψουμε σε πιο ασφαλείς συνήθειες, πχ στις έντυπες εφημερίδες και στα τυπογραφεία όπου η είδηση περνάει από κόσκινο και από ρεπορτερ, εσωτερικούς συντάκτες, διορθωτές, αρχισυντάκτες και διευθυντές.

Οι μηχανές δεν έχουν συναισθήματα

Στις προσεχείς εκλογές, η καλύτερη άμυνά μας είναι η κριτική σκέψη, το ανθρώπινο ένστικτο που προς το παρόν δεν αντιγράφεται, η ενημέρωση από αξιόπιστες πηγές και η χρήση τεχνολογικών εργαλείων. Ας μην αφήσουμε την… πρόοδο να αμφισβητήσει ακόμα και τους εαυτούς μας κσι ίσως με συνεργασία ανθρώπων και μηχανών -λέω ίσως- μπορέσουμε  να προστατεύσουμε όσα μέχρι σήμερα πιστεύαμε ως δεδομένα και όχι ως… data ή metadata

@karapanagiotidu / Grok3 (X)