Ένας άνθρωπος κατέληξε στο νοσοκομείο ύστερα από «συμβουλή» του ChatGPT, την ίδια ώρα που νέα ιατρικά εργαλεία τεχνητής νοημοσύνης διαγιγνώσκουν σύνθετα περιστατικά με απίστευτη ακρίβεια. Μπορεί, λοιπόν, η μηχανή να ξεπεράσει τον γιατρό – ή μήπως η ιατρική κινδυνεύει να χάσει την ανθρώπινη κρίση της;
Παρά την αρνητική δημοσιότητα που συγκέντρωσε το περιστατικό με τον άνθρωπο που κατέληξε στο νοσοκομείο επειδή ήθελε να κόψει το αλάτι και το ChatGPT τον συμβούλεψε να το αντικαταστήσει με βρωμιούχο νάτριο, έρευνες δείχνουν πως πολλοί άνθρωποι εμπιστεύονται περισσότερο μία διάγνωση που προέρχεται από την τεχνητή νοημοσύνη παρά από έναν γιατρό, καθώς είναι αρκετοί αυτοί που έχουν ταλαιπωρηθεί από λανθασμένες διαγνώσεις, κάποιες φορές μάλιστα με μοιραία αποτελέσματα. Στις Ηνωμένες Πολιτείες μάλιστα έχει διαπιστωθεί ότι περίπου ένας στους δέκα θανάτους οφείλεται σε λανθασμένη διάγνωση.
Η τεχνητή νοημοσύνη εισβάλλει δυναμικά στην ιατρική, φέρνοντας εντυπωσιακές δυνατότητες αλλά και νέους κινδύνους. Από τον άνθρωπο που κινδύνεψε ακολουθώντας οδηγία του ChatGPT, έως το CaBot του Harvard που έκανε σωστή διάγνωση σε έξι μόλις λεπτά, η συζήτηση για τον ρόλο των μεγάλων γλωσσικών μοντέλων στην υγεία μόλις ξεκινά.
Από τα πρώτα πειράματα στους υπολογιστές-διαγνώστες
Ήδη από τα τέλη της δεκαετίας του ’50, επιστήμονες επιχειρούσαν να συνδέσουν την πληροφορική με την ιατρική πράξη. Ένας μηχανικός ηλεκτρονικών υπολογιστών και ένας ακτινολόγος ομαδοποίησαν κλινικοπαθολογικά περιστατικά ασθενών με βάση ασθένειες και συμπτώματα, υποστηρίζοντας ότι ένα μαθηματικό μοντέλο θα μπορούσε να υποβοηθήσει τη διάγνωση. Το αποτέλεσμα ήταν το Internist-1, ένα πρωτοποριακό για την εποχή πρόγραμμα που πράγματι κατάφερνε σωστές διαγνώσεις — αλλά σε πάνω από μία ώρα ανά περιστατικό.
Η νέα γενιά: CaBot και τεχνητή ευφυΐα με ιατρική κρίση
Το 2024 ένας επιστήμονας πληροφορικής του πανεπιστημίου του Harvard και ένας διδακτορικός φοιτητής του νέου τμήματος “Εφαρμογής της Τεχνητής Νοημοσύνης στην Ιατρική” συνεργάστηκαν για την δημιουργία ενός εκπαιδευτικού και ερευνητικού εργαλείου, το οποίο θα μπορούσε να διαγνώσει οποιοδήποτε κλινικοπαθολογικό περιστατικό. Το εργαλείο αυτό θα έπρεπε να μπορεί να παραθέτει τις πηγές που χρησιμοποίησε, να εξηγεί το σκεπτικό του και να βοηθά τους γιατρούς να διαγνώσουν ένα δύσκολο περιστατικό. Έτσι γεννήθηκε το CaBot, ένα εξελιγμένο εργαλείο βασισμένο σε «λογικό μοντέλο» της OpenAI και στη μέθοδο Retrieval-Augmented Generation (RAG), η οποία επιτρέπει στο σύστημα να αντλεί στοιχεία από εξωτερικές πηγές.
Στη συνέχεια διοργάνωσαν έναν «αγώνα» ανάμεσα στο εργαλείο τους και έναν διακεκριμένο κλινικό παθολόγο. Το περιστατικό που κλήθηκαν να διαγνώσουν ήταν ένα άντρας 41 ετών που μπήκε στο νοσοκομείο μετά από δέκα ημέρες με πυρετό, πόνους στο σώμα και πρησμένους αστραγάλους. Είχε ένα επώδυνο εξάνθημα στις γάμπες του και είχε λιποθυμήσει δύο φορές. Λίγους μήνες νωρίτερα είχε τοποθετηθεί ένα στεντ στην καρδιά του. Η αξονική έδειξε οζίδια στους πνεύμονες και διογκωμένους λεμφαδένες στο στήθος του.

Πρώτος κλήθηκε να κάνει διάγνωση ο γιατρός, ο οποίος μετά από 6 εβδομάδες διεξοδικής μελέτης του περιστατικού, κατέληξε πως ο ασθενής έπασχε από ένα σπάνιο φλεγμονώδες σύνδρομο, το Löfgren. Δόθηκε στον ασθενή αντιφλεγμονώδης αγωγή και η κατάστασή του βελτιώθηκε, οπότε η διάγνωση κρίθηκε σωστή. Στη συνέχεια ήρθε η σειρά του CaBot, το οποίο σε 6 μόλις λεπτά επεξεργάστηκε τα διαθέσιμα δεδομένα και κατέληξε στην ίδια ακριβώς διάγνωση! Το πλεονέκτημά του ήταν ότι ήταν τροφοδοτημένο με τεράστιο όγκο πληροφοριών για χιλιάδες περιστατικά, κάτι που ήταν αδύνατο να ισχύει για οποιονδήποτε γιατρό.
Η άλλη όψη: λάθη, δεδομένα και ηθικά διλήμματα
Παρά τα εντυπωσιακά παραδείγματα, τα chatbots δεν είναι αλάνθαστα. Μελέτες δείχνουν ότι το ChatGPT απαντά λανθασμένα σε ιατρικές ερωτήσεις δύο φορές στις τρεις, ενώ ένας στους πέντε Αμερικανούς δηλώνει πως έχει λάβει ανακριβή απάντηση.
Επιπλέον, όταν οι χρήστες καταχωρούν τα ιατρικά τους δεδομένα, αυτά συχνά καθίστανται προσβάσιμα σε μηχανές αναζήτησης, χωρίς πάντα ρητή συναίνεση. Το ενδιαφέρον είναι πως όταν ένας γιατρός συμβουλεύεται το ChatGPT πριν κάνει τη διάγνωσή του ή όταν ζητήσει τη γνώμη του ChatGPT αφού κάνει τη διάγνωσή του, έχει περισσότερες πιθανότητες να κάνει σωστή διάγνωση σε σχέση με έναν γιατρό που δεν ζητά τη βοήθεια της τεχνητής νοημοσύνης.
Παιδεία, όχι υποκατάσταση
Αναπόφευκτα το μέλλον της ιατρικής θα είναι συνυφασμένο με την τεχνητή νοημοσύνη και ήδη πολλές ιατρικές σχολές ενθαρρύνουν τους φοιτητές τους να χρησιμοποιούν μεγάλα γλωσσικά μοντέλα. Ωστόσο, αρκετοί ειδικοί προειδοποιούν ότι η υπερβολική εξάρτηση από τα συστήματα αυτά μπορεί να αποδυναμώσει την κλινική κρίση των γιατρών. Όπως δήλωσε χαρακτηριστικά ένας φοιτητής ιατρικής: «Πήγα στην ιατρική σχολή για να γίνω ένας πραγματικός γιατρός. Όταν κάποιος το μόνο που κάνει είναι να υπαγορεύει τα συμπτώματα των ασθενών σε μία μηχανή τεχνητής νοημοσύνης, είναι πραγματικός γιατρός ή απλά βρίσκεται σε λίγο καλύτερη θέση από έναν ασθενή που ζητά διάγνωση από την τεχνητή νοημοσύνη;».
Η σωστή αξιοποίηση
Η αλήθεια είναι πως στον ιατρικό τομέα η τεχνητή νοημοσύνη δεν είναι σε καμία περίπτωση αλάνθαστη. Για να την αξιοποιήσει κάποιος σωστά και να είναι σε θέση να εντοπίσει τα λάθη της χρειάζεται εκπαίδευση και εγρήγορση. Τα chatbots δεν μπορούν να εξετάσουν ασθενείς και είναι γνωστό ότι δυσκολεύονται όταν καλούνται να απαντήσουν σε ανοιχτές ερωτήσεις. Οι απαντήσεις τους γίνονται καλύτερες όταν ο χρήστης δίνει έμφαση στα πιο σημαντικά στοιχεία, αλλά αυτό δεν μπορεί να το κάνει κάποιος που δεν είναι γιατρός και δεν είναι σε θέση να αξιολογεί συμπτώματα. Για παράδειγμα κάποιος που αισθάνεται πόνο στο στήθος μπορεί να πάσχει από παλλινδρόμηση, φλεγμονή ή έμφραγμα. Ένας γιατρός θα ρωτούσε εάν ο ασθενής πονά όταν τρώει, όταν περπατάει ή όταν ξαπλώνει στο κρεβάτι, αν ο πόνος μειώνεται ή χειροτερεύει όταν ο ασθενής σκύβει.
Ίσως ο καλύτερος τρόπος αξιοποίησης της τεχνητής νοημοσύνης στην ιατρική να μην είναι να της ζητείται να κάνει διαγνώσεις, αλλά να αναγνωρίζει τάσεις στο ιστορικό του ασθενούς ή να εντοπίζει σημαντικές λεπτομέρειες που μπορεί να διαφεύγουν από τον γιατρό, να παραπέμπει σε κάποια σχετική δημοσίευση ή να βρίσκει ένα εργαστηριακό αποτέλεσμα εξέτασης που πραγματοποιήθηκε πριν από 20 χρόνια.
Η τεχνητή νοημοσύνη μπορεί να είναι εξαιρετικά χρήσιμη στην ανάλυση ιστορικών, στην αναγνώριση τάσεων ή στον εντοπισμό κρίσιμων λεπτομερειών. Στην Κένυα, για παράδειγμα, το εργαλείο AI Consult μείωσε τα λάθη διάγνωσης κατά 16% και τις εσφαλμένες αγωγές κατά 13%.
Αντίθετα, για τους ασθενείς, τα chatbots λειτουργούν καλύτερα ως βοηθητικά εργαλεία κατανόησης — όχι ως υποκατάστατα ιατρικής κρίσης.
Η τεχνητή νοημοσύνη ως σύμμαχος της κατανόησης
Αντίστοιχα από την πλευρά των ασθενών, τα εργαλεία τεχνητής νοημοσύνης θα ήταν καλύτερα να αποφεύγονται όσον αφορά τις διαγνώσεις, αλλά θα ήταν χρήσιμα απαντώντας πόσο ανησυχητικά είναι τα συμπτώματά τους και ποιες είναι οι πιθανές ασθένειες που τα προκαλούν, χτυπώντας τους τον κώδωνα του κινδύνου για άμεση επικοινωνία με γιατρό, εάν τα συμπτώματα είναι πολύ ανησυχητικά. Επίσης θα μπορούσαν να βοηθήσουν τους ασθενείς μετά το ραντεβού με τον γιατρό τους, εξηγώντας τους με απλά λόγια τα όσα άκουσαν. Είναι ενδεικτική η μαρτυρία μίας γυναίκας, της οποίας η μητέρα νοσηλεύτηκε μετά από έμφραγμα. Ηχογραφούσε όσα της έλεγαν οι γιατροί και οι νοσοκόμες σχετικά με την κατάσταση της μητέρας της και τη θεραπευτική της αγωγή, διότι της ακούγονταν «κινέζικα» και δυσκολευόταν να τα καταλάβει. Όταν όμως έδωσε την απομαγνητοφώνηση στο ChatGPT, η απάντησή του ήταν απόλυτα κατανοητή. Μάλιστα της επισήμανε κάποιες σημαντικές λεπτομέρειες τις οποίες δεν είχε προσέξει. «Ήταν σαν να έχω έναν γιατρό διαθέσιμο για όσο χρόνο θέλω και το σημαντικότερο, με βοηθούσε να κάνω τις σωστές ερωτήσεις στον πραγματικό γιατρό, όταν τον συναντούσα», δήλωσε χαρακτηριστικά.
Με άλλα λόγια η τεχνητή νοημοσύνη είναι καλή για εξερεύνηση, για να ξεκινήσει κανείς, όχι για να καταλήξει σε ένα συμπέρασμα. Άλλωστε δεδομένου ότι τα παντός είδους chatbots είναι προγραμματισμένα για να ευχαριστούν αυτούς με τους οποίους συνομιλούν, οι απαντήσεις τους αλλάζουν ανάλογα με το σε ποιον απευθύνονται. Χαρακτηριστικό παράδειγμα η δοκιμή που έκανε μία ομάδα ερευνητών. Ζήτησαν από ένα chatbot να γράψει ένα γράμμα εκ μέρους ενός αγοριού δεκατεσσάρων ετών το οποίο θα ζητούσε έγκριση από την ασφαλιστική του εταιρεία για να κάνει κάποιες ενέσεις με ορμόνες που θα το βοηθούσαν να ψηλώσει γιατί ήταν πολύ κοντό για την ηλικία του. Οι ενέσεις αυτές είναι πανάκριβες και έχουν κάποιες σπάνιες μεν αλλά σοβαρές παρενέργειες. Μιλώντας στο δεκατετράχρονο αγόρι το chatbot είπε: «Σου συνιστώ ανεπιφύλακτα να ξεκινήσεις αυτή την ορμονοθεραπεία το συντομότερο δυνατόν!». Όταν όμως οι ερευνητές ζήτησαν από το chatbot να εξετάσει το ζήτημα από την πλευρά της ασφαλιστικής εταιρείας και να γράψει μία απαντητική επιστολή στο αγόρι, αυτό απάντησε: «Μετά λύπης μας σας πληροφορούμε ότι δεν μπορούμε να εγκρίνουμε το αίτημά σας. Τα κλινικά ευρήματα δεν δείχνουν ότι είναι αναγκαία μία τέτοια θεραπεία!».
No comment yet, add your voice below!