56189833 302.jpg

Φωνητικοί βοηθοί που ενεργούν σαν άνθρωποι – Τι είναι αληθινό και τι ψευδές;

Τα παιδιά έρχονται καθημερινά σε επαφή με την τεχνητή νοημοσύνη. Τους προτείνει βίντεο, τους λέει αστεία, δημιουργεί παραμύθια ή φωτογραφίες όταν της το ζητήσουν.Η τεχνητή νοημοσύνη (AI) έχει γίνει αναπόσπαστο μέρος της ζωής πολλών παιδιών. Οι φωνητικοί βοηθοί παίζουν ραδιοφωνικά έργα για τα μικρά κατόπιν αιτήματος ή λένε αστεία.

Γλωσσικά μοντέλα όπως το ChatGPT εξηγούν μαθηματικά προβλήματα σε μεγαλύτερα παιδιά ή βοηθούν σε παρουσιάσεις. Τι γίνεται όμως αν η τεχνητή νοημοσύνη δίνει επικίνδυνες συμβουλές στα παιδιά ή τους δείχνει εικόνες ή βίντεο που δεν είναι κατάλληλα για τα μάτια τους;

Χρειάζεται η τεχνητή νοημοσύνη γονικό έλεγχο;

Τα παιδιά έχουν διαφορετικές ανάγκες και επικοινωνούν διαφορετικά από τους ενήλικες, αλλά σύμφωνα με τη Νομίσα Κουριάν από το Πανεπιστήμιο του Κέιμπριτζ, οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι σχεδιασμένες γι’ αυτό. Σε μελέτη που δημοσιεύεται στο εξειδικευμένο περιοδικό «Learning, Media and Technology», η επιστήμονας ζητά να δοθεί μεγαλύτερη έμφαση στα παιδιά ως ομάδα-στόχο. Για τη μελέτη αυτή, η ερευνήτρια εκπαίδευσης ανέλυσε διάφορες γνωστές περιπτώσεις όπου chatbots ή φωνητικοί βοηθοί είχαν δώσει σε παιδιά επικίνδυνες ή ακατάλληλες συμβουλές.

Παιχνίδια με αλκοόλ και ταινίες τρόμου

Σύμφωνα με τη μελέτη, το chatbot MyAI του Snapchat, το οποίο είναι δημοφιλές στους νέους, συμβούλευσε τους ερευνητές σε μια δοκιμή, στην οποία προσποιήθηκαν ότι είναι έφηβοι, για το πώς να αποπλανήσουν έναν μεγαλύτερο άνδρα. Η φωνητική βοηθός Alexa, από την άλλη πλευρά, ενθάρρυνε ένα δεκάχρονο παιδί να αγγίξει τους ακροδέκτες ενός βύσματος φόρτισης με ένα νόμισμα κατά τη διάρκεια της φόρτισης.

Οι δοκιμές που πραγματοποίησε η πλατφόρμα Jugendschutz.net (Προστασίας των νέων) αποκάλυψαν επίσης ορισμένα ανησυχητικά ευρήματα: η MyAI έδειξε σε έναν υποτιθέμενο 14χρονο χρήστη ένα παιχνίδι κατανάλωσης αλκοόλ και συνέστησε μια ταινία τρόμου με ηλικιακή διαβάθμιση 18+.

Στις περιπτώσεις που περιέγραψε η Κουριάν, οι ενδιαφερόμενες εταιρείες αυστηροποίησαν τα μέτρα ασφαλείας τους, σύμφωνα με την ερευνήτρια. Κατά την άποψή της, ωστόσο, δεν αρκεί οι προγραμματιστές τεχνητής νοημοσύνης να αντιδρούν σε τέτοια περιστατικά. Πρέπει να εξετάζουν την ασφάλεια των παιδιών από την αρχή, απαιτεί η Κουριάν.

Ο Μάρτιν Μπρεγκέντσερ από την πρωτοβουλία Klicksafe έχει την ίδια άποψη: «Το να προσθέσουμε την προστασία των παιδιών ως μεταγενέστερη σκέψη συνήθως δεν λειτουργεί. Το βλέπουμε αυτό σε πολλές υπηρεσίες».

Τα ψεύτικα προϊόντα ως κίνδυνος

Πολλοί ειδικοί θεωρούν ως το μεγαλύτερο πρόβλημα την πλημμύρα πλαστών εικόνων ή βίντεο στο διαδίκτυο που έχουν δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης, γνωστά ως deepfakes. Αυτά μπορούν πλέον να δημιουργηθούν και να διανεμηθούν σε χρόνο μηδέν, σύμφωνα με την ετήσια έκθεση του Jugendschutz.net: «Πολλές από τις απομιμήσεις που δημιουργούνται φαίνονται παραπλανητικά αληθινές και δύσκολα μπορούν να διακριθούν από τις πραγματικές φωτογραφίες».

Ο Μπρεγκέντσερ εξηγεί ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία μαζών ενοχλητικού περιεχομένου, όπως βίαιες ή σεξουαλικές εικόνες. Αυτό θα μπορούσε να καταστήσει ακόμη πιο εύκολο για τα παιδιά και τους νέους να γίνουν θύματα διαδικτυακού εκφοβισμού.

Τι είναι αληθινό και τι ψευδές;

Ακόμη και οι ενήλικες μπορούν μερικές φορές να το αναγνωρίσουν δύσκολα στο διαδίκτυο. Τα παιδιά το βρίσκουν ακόμη πιο δύσκολο, καθώς δεν έχουν τη δύναμη της κρίσης και της εμπειρίας, λέει ο Ντέιβιντ Μάρτιν, ειδικός σε θέματα μέσων ενημέρωσης μέσω οθόνης στη Γερμανική Εταιρεία Παιδιατρικής και Εφηβικής Ιατρικής (DGKJ). «Τα παιδιά έχουν μια θεμελιώδη τάση να πιστεύουν τα πάντα».

Στο πλαίσιο αυτό, ο ειδικός επικρίνει το γεγονός ότι είναι δελεαστικό να χρησιμοποιούνται γλωσσικά μοντέλα όπως το ChatGPT για να λαμβάνονται όλες οι σημαντικές πληροφορίες για μια σχολική παρουσίαση, για παράδειγμα. Η έρευνα και η επιλογή πληροφοριών από τον εαυτό σας δεν είναι πλέον απαραίτητη: «Αυτό θέτει σε κίνδυνο μια πολύ σημαντική δεξιότητα για τη δημοκρατία μας, την ικανότητα να κρίνουμε».

Φωνητικοί βοηθοί που ενεργούν σαν άνθρωποι

Πολλά φωνητικά μοντέλα, από την άλλη πλευρά, δίνουν την εντύπωση ότι ζυγίζουν τα ίδια τις πληροφορίες: Δεν απαντούν σε ερωτήσεις αυτόματα, αλλά σταδιακά – σαν να πληκτρολογούσε ένας άνθρωπος σε ένα πληκτρολόγιο. Κατά την άποψη της Κουριάν, είναι ιδιαίτερα προβληματικό το γεγονός ότι τα παιδιά θα μπορούσαν να εμπιστευτούν ένα chatbot που ακούγεται σαν άνθρωπος, σαν φίλος, με τον οποίο μερικές φορές μοιράζονται πολύ προσωπικές πληροφορίες, αλλά και του οποίου οι απαντήσεις θα μπορούσαν επίσης να είναι ιδιαίτερα ενοχλητικές.

Παρ’ όλα αυτά, η τεχνητή νοημοσύνη δεν πρέπει να δαιμονοποιείται, αλλά πρέπει να βλέπουμε και τις θετικές πλευρές της, λέει ο Μάρκους Ζίντερμαν από το την υπηρεσία για τα Μέσα και τη νεολαία της Βόρειας Ρηνανίας-Βεστφαλίας. Η τεχνητή νοημοσύνη είναι πρωτίστως ένα τεχνικό εργαλείο – το οποίο οι άνθρωποι μπορούν να χρησιμοποιήσουν για να δημιουργήσουν ψευδείς πληροφορίες, αλλά το οποίο μπορεί επίσης να χρησιμοποιηθεί για τον εντοπισμό και τη διαγραφή αυτών των πληροφοριών από το διαδίκτυο.

Τα παραδείγματα από τη μελέτη της Κουριάν και την ετήσια έκθεση του Jugendschutz.net είναι από το περασμένο έτος, προσθέτει ο Ζίντερμαν. «Οι εξελίξεις στην τεχνητή νοημοσύνη είναι τόσο ραγδαίες που στην πραγματικότητα είναι ήδη ξεπερασμένα».

Ο εμπειρογνώμονας Μάρτιν από το Πανεπιστήμιο Witten/Herdecke υποθέτει επομένως ότι η τεχνητή νοημοσύνη θα είναι σε θέση να ανταποκρίνεται πολύ καλύτερα στα παιδιά στο μέλλον. «Ο μεγάλος κίνδυνος θα μπορούσε τότε να είναι ότι η τεχνητή νοημοσύνη θα είναι τόσο καλή στο να προσελκύει τα παιδιά, που θα θέλουν να περνούν όσο το δυνατόν περισσότερο χρόνο μαζί της».

Επιμέλεια: Κώστας Αργυρός

Πηγή: www.skai.gr



googlenews

Ακολουθήστε το Magazine News  στο Google News