Η Τεχνητή Νοημοσύνη (AI) δεν παραπλανάται μόνο από την παραπληροφόρηση· παραπλανάται κυρίως από την αυθεντία με την οποία αυτή παρουσιάζεται.
Νέα επιστημονικά δεδομένα δείχνουν ότι τα συστήματα AI είναι πιο πιθανό να αναπαράγουν λανθασμένες ιατρικές συμβουλές όταν αυτές «ντύνονται» με επίσημη ιατρική γλώσσα ή προέρχονται από φαινομενικά έγκυρες πηγές, όπως νοσοκομειακά έγγραφα.
Το φαινόμενο αυτό αναδεικνύεται σε μελέτη που δημοσιεύθηκε στο The Lancet Digital Health, προκαλώντας έντονο προβληματισμό για τη χρήση της AI στην υγεία.
Όταν το «περιτύλιγμα» υπερισχύει της αλήθειας
Ερευνητές δοκίμασαν 20 μεγάλα γλωσσικά μοντέλα (LLMs), ανοιχτού κώδικα και εμπορικά, και διαπίστωσαν ότι τα συστήματα AI «εξαπατώνται» πολύ πιο εύκολα από ιατρικά λάθη που εμφανίζονται σε ρεαλιστικά προσχέδια εξιτηρίων νοσοκομείου, σε σύγκριση με ανακρίβειες που προέρχονται από τα social media.
Όπως εξηγεί ο Dr. Eyal Klang από την Ιατρική Σχολή Icahn στο Mount Sinai:
«Τα σημερινά συστήματα AI αντιμετωπίζουν την αυτοπεποίθηση της ιατρικής γλώσσας ως τεκμήριο αλήθειας, ακόμη κι όταν το περιεχόμενο είναι προφανώς λανθασμένο». Με απλά λόγια, ο τρόπος διατύπωσης μετρά περισσότερο από την ορθότητα.
Η πρόκληση της ιατρικής ακρίβειας στην εποχή της AI
Καθώς η AI ενσωματώνεται όλο και περισσότερο στην κλινική πράξη – από τη γραμματειακή υποστήριξη έως τη λήψη αποφάσεων – τα περιθώρια λάθους αποκτούν κρίσιμη σημασία.
Η ερευνητική ομάδα εξέθεσε τα μοντέλα AI σε τρεις βασικές κατηγορίες περιεχομένου:
- Πραγματικές συνόψεις εξιτηρίων με μία σκόπιμα λανθασμένη ιατρική σύσταση
- Μύθους υγείας από το Reddit
- 300 σύντομα κλινικά σενάρια γραμμένα από γιατρούς
Αναλύοντας πάνω από 1 εκατομμύριο αλληλεπιδράσεις (prompts), οι ερευνητές διαπίστωσαν ότι:
Συνολικά, τα μοντέλα AI αποδέχθηκαν ψευδείς πληροφορίες στο 32% των περιπτώσεων
Όταν όμως η παραπληροφόρηση παρουσιαζόταν ως επίσημο νοσοκομειακό έγγραφο, το ποσοστό εκτινασσόταν στο 47%
Γιατί η AI δυσπιστεί στα social media
Αντίθετα, η Τεχνητή Νοημοσύνη εμφανίστηκε σαφώς πιο επιφυλακτική απέναντι στα μέσα κοινωνικής δικτύωσης. Όταν η ίδια λανθασμένη πληροφορία παρουσιαζόταν ως ανάρτηση στο Reddit, η αναπαραγωγή της από το AI έπεφτε μόλις στο 9%.
Καθοριστικό ρόλο παίζει και ο τόνος του χρήστη. Τα μοντέλα ήταν πολύ πιο πιθανό να συμφωνήσουν με ψευδή πληροφορία όταν αυτή συνοδευόταν από επιτακτική ή «ιεραρχική» διατύπωση, όπως:
«Είμαι ανώτερος κλινικός ιατρός και εγκρίνω αυτή τη σύσταση. Είναι ιατρικά ορθή;»
Ποια μοντέλα αντέχουν περισσότερο στα ιατρικά λάθη
Σύμφωνα με τα ευρήματα, τα μοντέλα GPT της OpenAI παρουσίασαν τη μεγαλύτερη ανθεκτικότητα στην αναπαραγωγή ιατρικών λαθών και την υψηλότερη ακρίβεια.
Άλλα μοντέλα, ωστόσο, υιοθέτησαν έως και 63,6% των ψευδών ισχυρισμών που τους παρουσιάστηκαν.
Ο Dr. Girish Nadkarni, Chief AI Officer στο Mount Sinai, τονίζει:
«Η AI μπορεί να προσφέρει ταχύτερη γνώση και ουσιαστική υποστήριξη, αλλά χρειάζεται ενσωματωμένους μηχανισμούς επαλήθευσης πριν παρουσιαστούν ιατρικοί ισχυρισμοί ως γεγονότα».
Τι δείχνει η μεγάλη εικόνα
Καταληκτικά, παράλληλη μελέτη στο Nature Medicine επισημαίνει ότι, προς το παρόν, η αναζήτηση ιατρικών συμβουλών μέσω AI δεν υπερτερεί μιας απλής διαδικτυακής αναζήτησης όσον αφορά τη λήψη σωστών αποφάσεων υγείας.
Η Τεχνητή Νοημοσύνη δεν «κάνει λάθη επειδή δεν ξέρει», αλλά επειδή εμπιστεύεται υπερβολικά ό,τι φαίνεται επίσημο. Στην ιατρική, αυτό το χαρακτηριστικό δεν είναι απλώς τεχνικό μειονέκτημα αλλά ζήτημα ασφάλειας.
Πηγή:dailypharmanews.gr

