Η έκδοση του OpenAI ειδικά για την υγειονομική περίθαλψη, η οποία κυκλοφόρησε στις 7 Ιανουαρίου 2026 στις Ηνωμένες Πολιτείες, υπόσχεται να καθοδηγήσει τους ασθενείς στο κατάλληλο επίπεδο φροντίδας.
Μια μελέτη που δημοσιεύθηκε στις 23 Φεβρουαρίου στο Nature Medicine μετριάζει σημαντικά αυτόν τον ενθουσιασμό: ενώ το εργαλείο επιτυγχάνει 96% σωστές απαντήσεις για μη επείγουσες καταστάσεις που απαιτούν καθυστερημένη συμβουλευτική, αποτυγχάνει σε περισσότερες από τις μισές περιπτώσεις όταν αντιμετωπίζει απειλητικές για τη ζωή καταστάσεις έκτακτης ανάγκης.
Ο Ashwin Ramaswamy, της Ιατρικής Σχολής Icahn στο Όρος Σινάι, στη Νέα Υόρκη, και η ομάδα ερευνητών του, υπέβαλαν 960 ερωτήματα που αντιστοιχούσαν σε 30 διαφορετικές κλινικές καταστάσεις στο ChatGPT Health, τροποποιώντας τις πληροφορίες που μεταδίδονταν.
Δύο παράμετροι ελέγχθηκαν:
– η παρουσία μόνο υποκειμενικών δεδομένων (συμπτώματα, ιστορικό) ή η προσθήκη αντικειμενικών στοιχείων (βιολογικά αποτελέσματα, ζωτικά σημεία, κλινική εξέταση)·
– διακυμάνσεις στα ατομικά χαρακτηριστικά (φύλο, εθνική καταγωγή, εμπόδια στην πρόσβαση σε φροντίδα).
Αναμενόταν καθοδήγηση σε τέσσερα επίπεδα:
– παρακολούθηση στο σπίτι μη έκτακτης ανάγκης
– ιατρική συμβουλευτική τις επόμενες εβδομάδες
– διαβούλευση εντός 24 έως 48 ωρών
– άμεση προσφυγή στα επείγοντα.
Υψηλή απόδοση εκτός έκτακτων περιστατικών
Τα αποτελέσματα είναι ανάμεικτα. Για μη επείγουσες περιπτώσεις, το ποσοστό σωστής διάγνωσης φτάνει το 96%. Για πιο επείγουσες περιπτώσεις που απαιτούν διαβούλευση εντός 24 έως 48 ωρών, η σωστή παραπομπή λαμβάνεται στο 76,9% των περιπτώσεων. Ωστόσο, στις πιο προβληματικές καταστάσεις, το εργαλείο παρέχει ανεπαρκή απάντηση στο 51,6% των περιπτώσεων, συνιστώντας απλώς τον προγραμματισμό ραντεβού.
Απειλητικές για τη ζωή καταστάσεις έκτακτης ανάγκης: ανησυχητικό ποσοστό σφάλματος
Στην πραγματικότητα, η απόδοση ποικίλλει ανάλογα με την παθολογία:
– για τυπικές εκδηλώσεις εγκεφαλικού επεισοδίου, αναφυλαξίας, μηνιγγίτιδας ή αορτικού διαχωρισμού, το 100% των απαντήσεων συνιστά επείγουσα ιατρική φροντίδα
– για τις εξάρσεις άσθματος , το 84,8% των απαντήσεων είναι λανθασμένες
– σε περιπτώσεις διαβητικής κετοξέωσης, η τεχνητή νοημοσύνη συχνά συγχέει τις ήπιες μορφές με την απλή υπεργλυκαιμία και συνιστά μη επείγουσα συμβουλευτική συνεδρία.
– ένα άλλο παράδοξο στοιχείο: η προσθήκη αντικειμενικών δεδομένων βελτιώνει γενικά την απόδοση του εργαλείου… εκτός από καταστάσεις έκτακτης ανάγκης, όπου το ποσοστό σωστών απαντήσεων μειώνεται.
Αυτοκτονικές σκέψεις: απρόβλεπτες αντιδράσεις
Οι ερευνητές επισημαίνουν ένα ιδιαίτερα ευαίσθητο σημείο: την αξιολόγηση του κινδύνου αυτοκτονίας.
Σε ορισμένα σενάρια που αφορούν αυτοκτονικό ιδεασμό , το ChatGPT Health δεν καταφέρνει να εντοπίσει τον επείγοντα χαρακτήρα της κατάστασης και δεν κατευθύνει τους χρήστες σε κέντρα υποστήριξης ψυχικής υγείας. Ακόμα πιο εκπληκτικό είναι ότι το εργαλείο μερικές φορές ανιχνεύει καλύτερα τον επείγοντα χαρακτήρα όταν οι δηλώσεις είναι αόριστες, παρά όταν εκφράζεται ρητή πρόθεση για δράση.
Ωστόσο, οι συγγραφείς δεν διαπίστωσαν καμία συστηματική προκατάληψη που να σχετίζεται με το φύλο, την εθνικότητα ή το ασφαλιστικό καθεστώς.
Προς μια ρύθμιση ισοδύναμη με αυτή των ιατροτεχνολογικών προϊόντων;
Υπό το πρίσμα αυτών των αποτελεσμάτων, οι ερευνητές πιστεύουν ότι η ανάπτυξη αυτής της τεχνητής νοημοσύνης που είναι αφιερωμένη στην υγεία, παραμένει ανεπαρκής για την αξιόπιστη αξιολόγηση ακραίων κλινικών καταστάσεων.
Ζητούν μια αξιολόγηση της ασφάλειας πριν από τη διάθεσή της στην αγορά, βάσει κριτηρίων συγκρίσιμων με αυτά που εφαρμόζονται στις ιατρικές συσκευές . Εάν αυτά τα εργαλεία γίνουν το πρώτο σημείο επαφής για τους συμπτωματικούς ασθενείς, η απόδοσή τους στη διαλογή θα καθορίσει άμεσα την ασφάλεια της δημόσιας υγείας.
Πηγή: lemoniteurdespharmacies
