AI στην Ασφάλιση Υγείας: Τι αποκαλύπτει έρευνα της Deloitte στην Ελβετία

Πρόσφατη έρευνα της Deloitte, στην οποία συμμετείχαν περισσότεροι από 1.000 Ελβετοί, προσφέρει μια διαφοροποιημένη εικόνα για το πώς γίνεται αντιληπτή η Τεχνητή Νοημοσύνη (AI) στην υγειονομική περίθαλψη, ιδίως στο πλαίσιο των ασφαλίσεων υγείας. Τα αποτελέσματα δεν είναι ούτε ευφορικά ούτε απαξιωτικά. Αντίθετα, υποδεικνύουν μια κρίσιμη μεταβατική φάση: Η Τεχνητή Νοημοσύνη είναι ευρέως αποδεκτή, αλλά μόνο υπό σαφώς καθορισμένες συνθήκες. Για τα διοικητικά συμβούλια και τις εκτελεστικές ομάδες των Ελβετών ασφαλιστών υγείας, αυτή η κατάσταση δημιουργεί ευκαιρίες αλλά και ευθύνες.
Η AI χρησιμοποιείται ευρέως, ωστόσο, ο αντίκτυπός της στην υγειονομική περίθαλψη εξακολουθεί να θεωρείται περιορισμένος. Τρεις στους τέσσερις ερωτηθέντες στην έρευνα χρησιμοποιούν ήδη την AI τουλάχιστον μηνιαίως και σχεδόν οι μισοί τη χρησιμοποιούν εβδομαδιαίως ή ακόμα και καθημερινά. Παρά το υψηλό αυτό επίπεδο εξοικείωσης, μόνο μια μικρή μειοψηφία αντιλαμβάνεται ότι η Τεχνητή Νοημοσύνη έχει ισχυρό αντίκτυπο στο ελβετικό σύστημα υγειονομικής περίθαλψης. Περισσότερο από το μισό του πληθυσμού πιστεύει ότι η Τεχνητή Νοημοσύνη παίζει επί του παρόντος μικρό ή καθόλου ουσιαστικό ρόλο στην παροχή υγειονομικής περίθαλψης.
Αυτό το χάσμα μεταξύ της ευρείας γενικής χρήσης και του περιορισμένου αντιληπτού αντίκτυπου στην υγειονομική περίθαλψη είναι σημαντικό. Σηματοδοτεί ότι η υιοθέτηση της Τεχνητής Νοημοσύνης από μόνη της, για τους παρόχους και τους χρήστες, δεν μεταφράζεται σε ορατή αξία. Από στρατηγική άποψη, αυτό σημαίνει ότι ο πειραματισμός δεν επαρκεί πλέον. Αυτό που έχει σημασία τώρα είναι η συνάφεια – ο απτός, κατανοητός και μετρήσιμος αντίκτυπος.
Η αποδοχή εξαρτάται από το πού εφαρμόζεται η AI
Όταν η AI εισέρχεται στον εξαιρετικά ευαίσθητο τομέα της υγειονομικής περίθαλψης, οι στάσεις απέναντι στις χρήσεις της αλλάζουν. Οι διοικητικές και επιχειρησιακές εφαρμογές απολαμβάνουν συντριπτική υποστήριξη. Η χρήση της Τεχνητής Νοημοσύνης για την ταχύτερη επεξεργασία αιτήσεων παροχών, την ανίχνευση απάτης και την αυτοματοποίηση της εξυπηρέτησης πελατών θεωρείται ευρέως ως λογική και επιθυμητή. Σε αυτούς τους τομείς, η Τεχνητή Νοημοσύνη θεωρείται ως εργαλείο που βελτιώνει την αποτελεσματικότητα, χωρίς να απειλεί την ανθρώπινη κρίση.
Η εικόνα αλλάζει όταν η AI πλησιάζει την ιατρική ή την ατομική λήψη αποφάσεων. Εφαρμογές όπως εξατομικευμένες συστάσεις, αυτοματοποιημένες αποφάσεις σχετικά με την καταλληλότητα ή αλγοριθμικές αξιολογήσεις των διαδρομών περίθαλψης αντιμετωπίζονται με πολύ πιο κριτική ματιά. Σε αυτό το πλαίσιο, η ουδετερότητα και ο σκεπτικισμός είναι οι κυρίαρχες στάσεις απέναντι στη χρήση της τεχνητής νοημοσύνης.
Το μήνυμα είναι σαφές: η AI είναι ευπρόσδεκτη ως βοηθός, αλλά όχι ως αυτόνομος φορέας λήψης αποφάσεων.
Η ανθρώπινη εποπτεία παραμένει αδιαπραγμάτευτη
Περισσότερο από το 70% των ερωτηθέντων στην έρευνα δηλώνουν ρητά ότι η Τεχνητή Νοημοσύνη στην υγειονομική περίθαλψη είναι αποδεκτή μόνο εάν οι άνθρωποι διατηρούν την τελική ευθύνη. Η συντριπτική πλειοψηφία αποδοκιμάζει τις πλήρως αυτοματοποιημένες αποφάσεις χωρίς ανθρώπινη συμμετοχή. Αυτό έχει βαθιές επιπτώσεις στη διακυβέρνηση. Σημαίνει ότι τα μοντέλα που απαιτούν ανθρώπινη παρουσία (“human-in-the-loop” models) δεν αποτελούν απλώς βέλτιστες πρακτικές – αποτελούν κοινωνική απαίτηση. Τα διοικητικά συμβούλια και οι εκτελεστικές ομάδες πρέπει, επομένως, να διασφαλίζουν ότι το πλαίσιο διακυβέρνησης της Τεχνητής Νοημοσύνης ορίζει με σαφήνεια τη λογοδοσία, τους μηχανισμούς κλιμάκωσης και τα δικαιώματα λήψης αποφάσεων. Επιπλέον, οι εταιρείες που επιτυγχάνουν την αλληλεπίδραση μεταξύ Τεχνητής Νοημοσύνης και ανθρώπου έχουν σαφές πλεονέκτημα.
Στην υγειονομική περίθαλψη, η νομιμότητα είναι εξίσου σημαντική με την αποτελεσματικότητα.
Η εμπιστοσύνη διαφέρει μεταξύ των φορέων
Η εμπιστοσύνη στην υγειονομική περίθαλψη ποικίλλει σημαντικά ανάλογα με το ποιος εφαρμόζει την Τεχνητή Νοημοσύνη. Οι επαγγελματίες υγείας και τα νοσοκομεία απολαμβάνουν το υψηλότερο επίπεδο εμπιστοσύνης. Αντίθετα, οι ασφαλιστές υγείας αντιμετωπίζουν έλλειμμα εμπιστοσύνης, όπως και οι μεγάλες εταιρείες τεχνολογίας, που αντιμετωπίζονται με τον μεγαλύτερο σκεπτικισμό από όλους. Οι ανησυχίες σχετικά με την κακή χρήση δεδομένων, την εμπορική εκμετάλλευση και τους αδιαφανείς αλγόριθμους είναι ευρέως διαδεδομένες. Για τους ασφαλιστές υγείας, αυτό το χάσμα εμπιστοσύνης είναι ιδιαίτερα κρίσιμο. Ως σημαντικοί κάτοχοι δεδομένων και διαχειριστές συστημάτων, οι ασφαλιστές αναμένεται να ενεργούν υπεύθυνα, με διαφάνεια και προς το ευρύτερο συμφέρον του συστήματος υγειονομικής περίθαλψης – και όχι απλώς ως διαχειριστές κόστους. Η εμπιστοσύνη, όταν χαθεί, είναι δύσκολο να ανακτηθεί. Αντίθετα, όταν κερδηθεί, γίνεται στρατηγικό πλεονέκτημα.

Ως σημαντικοί κάτοχοι δεδομένων και διαχειριστές συστημάτων, οι ασφαλιστές αναμένεται να ενεργούν υπεύθυνα, με διαφάνεια και προς το ευρύτερο συμφέρον του συστήματος υγειονομικής περίθαλψης – και όχι απλώς ως διαχειριστές κόστους. Η εμπιστοσύνη, όταν χαθεί, είναι δύσκολο να ανακτηθεί. Αντίθετα, όταν κερδηθεί, γίνεται στρατηγικό πλεονέκτημα.
Η μείωση του κόστους κυριαρχεί στις προσδοκίες, αλλά δημιουργεί κίνδυνο για την εικόνα
Όταν ρωτάμε τους ανθρώπους τι περιμένουν από την τεχνητή νοημοσύνη στον τομέα της ασφάλισης υγείας, η πιο συχνή και ξεκάθαρη απάντηση είναι: μείωση του κόστους του συστήματος. Ακολουθούν από κοντά η επιτάχυνση των διαδικασιών και η λειτουργική αποδοτικότητα. Η βελτίωση της εμπειρίας των ασθενών ή της ποιότητας της περίθαλψης, αν και αναγνωρίζονται ως σημαντικές, αποτελούν δευτερεύοντες λόγους.
Αυτό δημιουργεί ένα δίλημμα. Ενώ η σχέση κόστους – απόδοσης είναι αναμφίβολα σημαντική, μια υπερβολικά στενή προσέγγιση της τεχνητής νοημοσύνης, που εστιάζει αποκλειστικά στην αποδοτικότητα, κινδυνεύει να ενισχύσει τον υπάρχοντα σκεπτικισμό. Εάν η AI χρησιμοποιείται κυρίως ως ένα εργαλείο για τη μείωση των παροχών ή την ενίσχυση των ελέγχων, η αποδοχή της ενδέχεται να μειωθεί αντί να αυξηθεί.
Οι επιτυχημένες στρατηγικές τεχνητής νοημοσύνης θα χρειαστούν, επομένως, μια ισορροπημένη πρόταση αξίας, που θα συνδυάζει την αποδοτικότητα με την ποιότητα, τη δικαιοσύνη και τη βελτίωση των υπηρεσιών.
Η διαφάνεια και η δυνατότητα επιλογής καθοριστικοί παράγοντες αποδοχής
Δύο προϋποθέσεις ξεχωρίζουν ως σχεδόν καθολικά αποδεκτές από τους ερωτηθέντες:
Πρώτον, οι άνθρωποι θέλουν να ενημερώνονται με σαφήνεια, όταν χρησιμοποιείται τεχνητή νοημοσύνη.
Δεύτερον, θέλουν να έχουν τη δυνατότητα να αποφασίζουν, εάν και πώς χρησιμοποιούνται τα δεδομένα τους.
Αυτές οι προσδοκίες υπερβαίνουν τη συμμόρφωση με τους κανονισμούς. Αντικατοπτρίζουν μια ευρύτερη κοινωνική απαίτηση για αυτονομία και σεβασμό. Η διαφάνεια δεν είναι μια άσκηση επικοινωνίας: είναι μια δομική απαίτηση. Οι μηχανισμοί ενεργής συμμετοχής, τα μοντέλα στα οποία οι διαδικασίες είναι εξηγήσιμες και η σαφής επικοινωνία είναι τα στοιχεία που όλο και περισσότερο θα διαφοροποιούν αυτούς που υιοθετούν την ΑΙ σε αξιόπιστους ή μη.
Η AI στην υγεία είναι ένα κοινωνικό ζήτημα, όχι μόνο τεχνολογικό
Ίσως η πιο σημαντική διαπίστωση της έρευνας είναι ότι η ΑΙ στον τομέα της υγειονομικής περίθαλψης δεν θεωρείται καθαρά τεχνικό ζήτημα. Οι ηθικές σκέψεις, η δικαιοσύνη, η υπευθυνότητα και η διακυβέρνηση διαδραματίζουν κεντρικό ρόλο στη στάση του κοινού.
Οι άνθρωποι θέλουν ηγέτες και όχι να ακολουθούν μια μόδα. Αναμένουν ικανότητα, όχι πειραματισμό χωρίς περιορισμούς. Και αναμένουν αποτελέσματα, όχι μόνο ιδέες.
Για τα διοικητικά συμβούλια και τις εκτελεστικές ομάδες, αυτό αναβαθμίζει την τεχνητή νοημοσύνη από ένα ζήτημα ΙΤ σε ένα κρίσιμο θέμα στην ατζέντα της ηγεσίας.
Ξεκάθαρο το μήνυμα για τις ελβετικές –και όχι μόνον– ασφαλιστικές εταιρείες υγείας
Τα ευρήματα της έρευνας δείχνουν μια σαφή στρατηγική κατεύθυνση:
- Η τεχνητή νοημοσύνη πρέπει να χρησιμοποιείται όπου δημιουργεί ορατή αξία και μειώνει τις τριβές.
- Η ανθρώπινη εποπτεία πρέπει να παραμείνει καθοριστική.
- Η εμπιστοσύνη πρέπει να είναι ενεργή και όχι να θεωρείται δεδομένη.
- Η διαφάνεια και η επιλογή πρέπει να ενσωματώνονται στον σχεδιασμό.
- Η αύξηση της αποδοτικότητας πρέπει να ισορροπείται με τη δικαιοσύνη και την ποιότητα.
Για την υιοθέτηση της AI, είναι σημαντικό να εφαρμοστεί μια μεσοπρόθεσμη και μακροπρόθεσμη στρατηγική σκέψη, καθώς η πορεία δεν είναι αγώνας ταχύτητας – μάλλον πρόκειται για μαραθώνιο.
Πάντως, οι ελβετικές ασφαλιστικές εταιρείες υγείας βρίσκονται σε καλή κατάσταση, για να αναλάβουν αυτόν τον ρόλο. Λειτουργούν σε ένα αυστηρά ρυθμιζόμενο σύστημα που βασίζεται στην εμπιστοσύνη και έχουν μακροχρόνια εμπειρία στην εξισορρόπηση της αλληλεγγύης, της αποτελεσματικότητας και της ποιότητας. Η τεχνητή νοημοσύνη, αν χρησιμοποιηθεί με σύνεση, μπορεί να ενισχύσει αυτό το μοντέλο αντί να το υπονομεύσει.
Η επόμενη φάση στην υιοθέτηση της τεχνητής νοημοσύνης δεν αφορά το αν θα χρησιμοποιηθεί στην ελβετική ασφάλιση υγείας, αλλά το πόσο υπεύθυνα, διαφανώς και αξιόπιστα θα ενσωματωθεί. Και αυτό, τελικά, είναι μια απόφαση ηγεσίας.
Πηγή: Deloitte.com
Ακολουθήστε την ασφαλιστική αγορά στο Google News








