Ρομπότ που μαθαίνουν χωρίς οδηγίες! Η… σιωπηρή επικοινωνία κι όσα κρύβει η νέα τεχνολογία

Η νέα ή μάλλον η ακόμη πιο νέα μέθοδος βασίζεται σε αλγορίθμους που αναλύουν δεδομένα από αισθητήρες του ρομπότ για να ερμηνεύσουν τις ανθρώπινες αντιδράσεις

Ρομπότ που μαθαίνουν χωρίς οδηγίες! Η… σιωπηρή επικοινωνία κι όσα κρύβει η νέα τεχνολογία
φωτο ΤΝ - Σάββας Αυγητίδης

Η νέα -ή μάλλον η ακόμη πιο νέα- μέθοδος βασίζεται σε αλγορίθμους που αναλύουν δεδομένα από αισθητήρες του ρομπότ (π.χ., κάμερες ή αισθητήρες κίνησης) για να ερμηνεύσουν τις ανθρώπινες αντιδράσεις. Με τον καιρό, το ρομπότ γίνεται πιο αποτελεσματικό, μειώνοντας την ανάγκη για ανθρώπινη παρέμβαση.

Διαβάζουν το… μυαλό μας

Μια πρόσφατη επιστημονική μελέτη* εξετάζει πώς τα ρομπότ μπορούν να συνεργάζονται καλύτερα με ανθρώπους, μαθαίνοντας από τις… σιωπηρές αντιδράσεις μας, όπως ο χρόνος που χρειαζόμαστε για να πάρουμε ένα αντικείμενο ή απλά την έκφρασή μας. Χρησιμοποιεί μια τεχνική που λέγεται μάθηση ενίσχυσης, όπου το ρομπότ δοκιμάζει διάφορες ενέργειες και μαθαίνει από το αν οι αντιδράσεις μας δείχνουν ότι έκανε κάτι σωστά ή λάθος. Για παράδειγμα, σε ένα εργοστάσιο, αν ένα ρομπότ δώσει ένα εργαλείο σε έναν εργάτη και αυτός το πάρει αμέσως, το ρομπότ καταλαβαίνει ότι η κίνηση ήταν σωστή. Αν ο εργάτης το αγνοήσει ή δείχνει εκνευρισμένος, το ρομπότ προσαρμόζει τη συμπεριφορά του για να βελτιωθεί την επόμενη φορά. Αυτή η μέθοδος επιτρέπει στα ρομπότ να γίνουν πιο χρήσιμοι χωρίς να χρειάζονται συνεχείς, ξεκάθαρες οδηγίες, κάνοντας τη συνεργασία πιο ομαλή σε μέρη όπως νοσοκομεία, αποθήκες ή γραφεία.

Προσαρμοστικότητα στο φουλ

Η συνεργασία ανθρώπων και ρομπότ αρχίζει με τέτοιες μικρές αλληλεπιδράσεις, όπου τα ρομπότ μαθαίνουν να προσαρμόζονται στις ανάγκες μας. Στο νοσοκομείο που λέγαμε, ένα ρομπότ μπορεί να φέρνει φάρμακα σε νοσηλευτές, μαθαίνοντας από το αν οι νοσηλευτές τα δέχονται γρήγορα ή όχι. Σε μια αποθήκη, μπορεί να βοηθά στην τακτοποίηση προϊόντων, παρατηρώντας πώς οι εργάτες ανταποκρίνονται στις κινήσεις του. Η μέθοδος βασίζεται σε αλγορίθμους που αναλύουν δεδομένα από αισθητήρες του ρομπότ (π.χ., κάμερες ή αισθητήρες κίνησης) για να ερμηνεύσουν τις ανθρώπινες αντιδράσεις. Με τον καιρό, το ρομπότ γίνεται πιο αποτελεσματικό, μειώνοντας την ανάγκη για ανθρώπινη παρέμβαση. Αυτό μπορεί να οδηγήσει σε πιο γρήγορες και αποδοτικές διαδικασίες, όπως η παράδοση υλικών σε εργοτάξια ή η υποστήριξη ηλικιωμένων στο σπίτι, όπου το ρομπότ μαθαίνει πώς να κινείται χωρίς να ενοχλεί.

Δεν είμαστε ρομποτ

Όμως, η συνεργασία αυτή φέρνει προβλήματα, ειδικά ηθικά ζητήματα. Ένα μεγάλο πρόβλημα είναι η ερμηνεία των ανθρώπινων αντιδράσεων. Οι άνθρωποι δεν είναι πάντα προβλέψιμοι – αν ένας εργάτης είναι κουρασμένος ή αγχωμένος, μπορεί να μην αντιδράσει όπως περιμένει το ρομπότ, οδηγώντας σε λανθασμένες αποφάσεις. Για παράδειγμα, αν το ρομπότ δώσει ένα εργαλείο λάθος στιγμή και ο εργάτης δεν το πάρει, το ρομπότ μπορεί να νομίσει ότι η κίνηση ήταν λάθος, ενώ το πρόβλημα ήταν αλλού. Αυτό μπορεί να προκαλέσει καθυστερήσεις ή λάθη στη δουλειά.

Αναλώσιμοι… άνθρωποι

Ένα ακόμα ζήτημα είναι η διαφάνεια. Οι αλγόριθμοι μάθησης ενίσχυσης είναι και… παραμένουν συχνά χαμένα «μαύρα κουτιά», δηλαδή δεν ξέρουμε ακριβώς πώς το ρομπότ παίρνει αποφάσεις. Αν ένα ρομπότ κάνει λάθος, π.χ., δίνει λάθος φάρμακο σε νοσοκομείο, ποιος φταίει; Ο προγραμματιστής, ο κατασκευαστής ή ο άνθρωπος που δούλευε μαζί του; Αυτό φέρνει ακόμη ένα μεγάλο ηθικό ερώτημα, αν γίνει λάθος, θα απολυθεί ο άνθρωπος που συνεργαζόταν με το ρομπότ ή θα «τιμωρηθεί» το ρομπότ (π.χ., με επαναπρογραμματισμό ή απόσυρση); Στην πράξη, οι άνθρωποι κινδυνεύουμε περισσότερο να χάσουμε τη δουλειά μας καθώς οι εταιρείες μπορεί να θεωρήσουν ότι ο εργάτης δεν συνεργάστηκε σωστά, ενώ το ρομπότ είναι… πολύτιμο κεφάλαιο.

Φόβοι και πραγματικότητα

Ένας άλλος ηθικός φόβος είναι η αντικατάσταση θέσεων εργασίας. Αν τα ρομπότ που δεν συνδικαλίζονται, τουλάχιστον όχι ακομη, γίνουν εξαιρετικά καλά στη δουλειά τους, τότε οι εργοδότες μπορεί να τα προτιμήσουν αντί για ανθρώπους, ειδικά σε επαναλαμβανόμενες δουλειές, όπως σε αποθήκες ή εργοστάσια. Αυτό μπορεί να οδηγήσει σε απολύσεις, ιδιαίτερα για εργάτες χαμηλής ειδίκευσης. Υπάρχει επίσης ο φόβος της ιδιωτικότητας. Τα ρομπότ που παρατηρούν συνεχώς τις αντιδράσεις μας (π.χ., μέσω καμερών ή αισθητήρων) συλλέγουν δεδομένα, όπως εκφράσεις προσώπου ή μοτίβα κίνησης. Αν αυτά τα δεδομένα δεν προστατεύονται καλά, μπορεί να καταλήξουν σε λάθος χέρια, π.χ., σε εταιρείες που τα χρησιμοποιούν για διαφήμιση ή χειρότερα. Ένα ακόμα ηθικό πρόβλημα είναι η εξάρτηση από τα ρομπότ. Αν συνηθίσουμε να βασιζόμαστε σε αυτά, μπορεί να χάσουν δεξιότητες ή να νιώθουν ότι δεν ελέγχουν τη δουλειά τους. Τέλος, υπάρχει ο φόβος της αυτονομίας. Αν τα ρομπότ γίνουν υπερβολικά «έξυπνα» και πάρουν αποφάσεις που δεν προβλέψαμε, πώς θα ξέρουμε αν είναι ασφαλείς

Θα τα κάνουμε σαν κι… εμάς;

Η συγκεκριμένη επιστημονική εργασία τονίζει ότι χρειάζεται ακόμα πολυ δουλειά για να γίνουν οι αλγόριθμοι πιο… διαφανείς.  Επίσης, δεν δίνει σαφή απάντηση στο ποιος ευθύνεται για τα λάθη – ο άνθρωπος ή το ρομπότ – κάτι που παραμένει και θα παραμείνει για πολύ ακόμη ανοιχτό ζήτημα, ηθικό ή νομικό… 

               εδώ περισσότερα : https://arxiv.org/abs/2507.13171 *

φωτο ΤΝ – Σάββας Αυγητίδης