357126f1031566e866cbc2629de5dc5f 72575792 302.jpg

Η χρήση των chatbots τεχνητής νοημοσύνης αυξάνεται ραγδαία στην καθημερινότητα των χρηστών, γεννώντας ταυτόχρονα κρίσιμα ερωτήματα για την αξιοπιστία και την ακρίβεια των απαντήσεών τους. Πόσο έμπιστες είναι πραγματικά οι πλατφόρμες όπως το ChatGPT, το MetaAI, το Gemini και το Copilot; Η δημόσια συζήτηση εντείνεται, ειδικά μετά την εμφάνιση του Grok από την xAI του Ίλον Μασκ, που έγινε προσβάσιμο ευρέως στα τέλη του 2024, σηματοδοτώντας ένα νέο κεφάλαιο στη σχέση κοινωνίας και AI.

Στροφή των χρηστών στα εργαλεία AI

Σύμφωνα με έρευνα της TechRadar, το 27% των Αμερικανών προτιμούν πλέον εργαλεία τεχνητής νοημοσύνης για την αναζήτηση πληροφοριών, αντικαθιστώντας παραδοσιακές μηχανές όπως η Google και η Yahoo. Η δυνατότητα «γρήγορης επαλήθευσης» αποτελεί ισχυρό πλεονέκτημα των chatbots, όμως η ποιότητα αυτών των απαντήσεων αποτελεί σημείο αντιπαράθεσης, καθώς αυξάνονται και τα περιστατικά λανθασμένης πληροφόρησης.

Πολυάριθμα ερωτήματα ακρίβειας

Η αξιοπιστία της τεχνητής νοημοσύνης βρίσκεται στο μικροσκόπιο. Διεθνείς μελέτες επισημαίνουν διάφορους κινδύνους, όπως τις ανακρίβειες, τη παραπλανητική παρουσίαση γεγονότων και τη συχνή αδυναμία αναγνώρισης των ορίων γνώσης από τα συστήματα, με όρους «ανησυχητικής σιγουριάς σε λανθασμένες απαντήσεις».

Εντοπισμένες αδυναμίες και παραδείγματα

Σύμφωνα με το BBC, σε δοκιμή όπου τέσσερα δημοφιλή chatbots απάντησαν σε ερωτήματα επικαιρότητας με βάση ειδήσεις της ίδιας πηγής, διαπιστώθηκε πως πάνω από το 50% των απαντήσεων παρουσίαζε προβλήματα. Τα εργαλεία συχνά εμπλούτιζαν τις απαντήσεις τους με δικά τους λάθη, ενώ το 19% των περιπτώσεων εντοπίστηκαν πραγματολογικά σφάλματα.

Στο ίδιο μήκος κύματος, μελέτη του Tow Center του Columbia διαπίστωσε πως τα chatbots αδυνατούσαν στο 60% των περιπτώσεων να εντοπίσουν την προέλευση αποσπασμάτων. Ανησυχία προκαλεί και η αδυναμία τους να αρνηθούν να απαντήσουν όταν αγνοούν την απάντηση.

Η προέλευση των πληροφοριών και η απειλή παραπληροφόρησης

Η τεχνητή νοημοσύνη αντλεί πληροφορίες από τεράστιες βάσεις δεδομένων και online πηγές. Αν όμως οι υποκείμενες βάσεις είναι ελλιπείς ή χαμηλής ποιότητας, οι απαντήσεις είναι συνήθως «ελλιπείς, ανακριβείς, παραπλανητικές ή ψευδείς», επισημαίνει ο Τομάσο Κανέτα, συντονιστής fact-checking στο EDMO. Τονίζει μάλιστα τον αυξημένο κίνδυνο εξαιτίας της διασποράς ρωσικής παραπληροφόρησης μέσω μεγάλων γλωσσικών μοντέλων (LLM).

Οι συνέπειες μιας τέτοιας παραπληροφόρησης είναι άμεσες και σοβαρές· χαρακτηριστικό παράδειγμα όταν, τον Αύγουστο του 2024, το Grok διακίνησε «ψευδή είδηση» σχετικά με τη συμμετοχή της Αντιπροέδρου Χάρις στο αμερικανικό ψηφοδέλτιο.

Η θέση των ειδικών και οι συστάσεις

Ειδικοί, όπως ο Felix Simon από το Οxford Internet Institute, ξεκαθαρίζουν: «Τα συστήματα τεχνητής νοημοσύνης δεν πρέπει να θεωρούνται αξιόπιστα εργαλεία επαλήθευσης». Ενώ μπορούν να διευκολύνουν έναν απλό έλεγχο γεγονότων, η ακρίβεια και συνέπεια παραμένουν ζητούμενα, κυρίως σε περίπλοκες περιπτώσεις. Ο Κανέτα συμφωνεί ότι, προς το παρόν, τα chatbots είναι χρήσιμα μόνο για βασικό fact-checking και συστήνει συνεχή επαλήθευση από άλλες πηγές.

Συμπέρασμα

Η δημοφιλία των chatbots τεχνητής νοημοσύνης ανεβαίνει, αλλά η χρήση τους ως αξιόπιστο εργαλείο ενημέρωσης απαιτεί επιφύλαξη. Οι χρήστες οφείλουν να προσεγγίζουν κριτικά τις απαντήσεις και να επιβεβαιώνουν την εγκυρότητά τους, αξιοποιώντας ανεξάρτητες και αξιόπιστες πηγές.

Στη συγγραφή του άρθρου συνέβαλε ο Ντάνιελ Έμπερτς.
Επιμέλεια: Ιοκάστη Κροντήρη

Πηγή: Deutsche Welle

Πηγή: www.skai.gr



googlenews

Ακολουθήστε το Magazine News  στο Google News



Επισκόπηση απορρήτου

Αυτός ο ιστότοπος χρησιμοποιεί cookies ώστε να μπορούμε να σας παρέχουμε την καλύτερη δυνατή εμπειρία χρήστη. Οι πληροφορίες cookie αποθηκεύονται στο πρόγραμμα περιήγησής σας και εκτελούν λειτουργίες όπως η αναγνώριση σας όταν επιστρέφετε στον ιστότοπό μας και η βοήθεια της ομάδας μας να κατανοήσει ποιες ενότητες του ιστότοπου θεωρείτε πιο ενδιαφέρουσες και χρήσιμες.