Skip to content

AI Risks: Ποιος φέρει την ευθύνη;

Μπορεί η Τεχνητή Νοημοσύνη να κυριαρχεί στους στρατηγικούς σχεδιασμούς των επιχειρήσεων και να αναγνωρίζεται ως πολύτιμο εργαλείο από τα επιτελεία των ασφαλιστικών εταιρειών, όμως εάν εστιάσουμε στην ασφαλιστική κάλυψη των κινδύνων που απορρέουν από αυτήν, το τοπίο παραμένει θολό.

Γράφει: Kατερίνα Πετρίδη

«Η Τεχνητή Νοημοσύνη δεν είναι κάτι καινούργιο, πρωτοεμφανίστηκε τη δεκαετία του ’50. Η δημιουργική Τεχνητή Νοημοσύνη (Gen AI) είναι σχετικά πιο πρόσφατη, αλλά αποτελεί απλά ένα υποσύνολο του deep learning και του machine learning. Έπρεπε ήδη να έχουμε δημιουργήσει μοντέλα για την αξιολόγηση των σχετικών κινδύνων και για το πώς αυτοί επηρεάζουν τη λειτουργία των επιχειρήσεων. Οπότε πιστεύω ότι αποτύχαμε να προσαρμοστούμε εγκαίρως στις εξελίξεις. Για την ακρίβεια έχουμε μείνει πίσω κατά μία εικοσαετία», παραδέχθηκε στέλεχος αμερικανικoύ χρηματοοικονομικού ομίλου στο πλαίσιο των εργασιών του Συμποσίου Κυβερνοασφάλειας που πραγματοποιήθηκε πρόσφατα στη Νέα Υόρκη από την Professional Liability Underwriting Society.

Ένας σημαντικός λόγος που έχει προκαλέσει αυτή την καθυστέρηση είναι πως η κατηγοριοποίηση των κινδύνων που απορρέουν από την Τεχνητή Νοημοσύνη και το ξεκαθάρισμα του ποιος ευθύνεται για τι, δεν είναι καθόλου εύκολη υπόθεση.

Πάρτε το παράδειγμα των οχημάτων αυτόνομης ή ημιαυτόνομης οδήγησης, τα οποία ήδη έχουν εγείρει πολλές συζητήσεις σχετικά με το ποιος θα φέρει την ευθύνη σε περίπτωση ατυχήματος: η εταιρεία που κατασκεύασε το όχημα, ο δημιουργός του λογισμικού, η εταιρεία που προωθεί το λογισμικό ή ο οδηγός;

Αντίστοιχα στην περίπτωση της πρόσβασης στα δεδομένα μίας επιχείρησης από μη εγκεκριμένους χρήστες, την ευθύνη φέρει ο τεχνικός που εγκατέστησε το πρόγραμμα και δεν έκανε καλά τη δουλειά του, ο δημιουργός του προγράμματος που δεν έκανε καλά τη δουλειά του ή ο υπάλληλος της επιχείρησης που χειριζόταν το πρόγραμμα; Εάν ευθύνεται κάποιος από αυτούς, τότε τη ζημιά καλύπτει η ασφάλιση λαθών και παραλείψεων (Ε&Ο). Εάν βρεθεί ότι δεν ευθύνεται κάποιος από αυτούς, τότε περνάμε στην ασφάλιση κυβερνοκινδύνων. Το πρόβλημα είναι πως συνήθως οι διαχωριστικές γραμμές ανάμεσα στις περιπτώσεις που προαναφέραμε είναι πολύ λεπτές και δυσδιάκριτες.

Για να πάμε το προβληματισμό μας ένα βήμα πιο πέρα, μία από τις πάμπολλες υπηρεσίες που προσφέρει το ChatGPT είναι ότι μπορεί κανείς να το χρησιμοποιήσει για τη δημιουργία κώδικα σε διάφορες γλώσσες προγραμματισμού και κατ’ επέκταση για τη δημιουργία λογισμικού, δυνατότητα που πλέον αξιοποιείται ευρύτατα από πολλούς προγραμματιστές. Εάν λοιπόν προκύψει ότι ο κώδικας που δημιουργήθηκε από την Τεχνητή Νοημοσύνη δεν ήταν ασφαλής και επέτρεψε τη μη εξουσιοδοτημένη πρόσβαση στα δεδομένα, τότε ποιος φέρει την ευθύνη; Ο κατασκευαστής του μοντέλου δημιουργίας κώδικα μέσω Τεχνητής Νοημοσύνης ή ο προγραμματιστής που χρησιμοποίησε τον κώδικα;

Με την Τεχνητή Νοημοσύνη να έχει εισχωρήσει σε όλους τους κλάδους της οικονομικής δραστηριότητας, οι χρήστες των εφαρμογών είναι άνθρωποι όλων των ειδικοτήτων: πωλητές, λογιστές, γιατροί, σύμβουλοι επιχειρήσεων κ.λπ. και όλοι θα έπρεπε να έχουν ασφαλιστική κάλυψη για τυχόν λάθη και παραλείψεις κατά την εκτέλεση των καθηκόντων τους. Είναι άνθρωποι που χρησιμοποιούν την τεχνολογία κατά την παροχή των υπηρεσιών τους. Από την άλλη πλευρά είναι οι άνθρωποι που εργάζονται σε τεχνολογικές εταιρείες ή εταιρείες τηλεπικοινωνιών, στην περίπτωση των οποίων η τεχνολογία ενσωματώνεται στις υπηρεσίες που παρέχουν. Τέλος υπάρχουν οι κατασκευαστές των τεχνολογικών προϊόντων. Ο διαχωρισμός της τεχνολογικής υπηρεσίας από το τεχνολογικό προϊόν είναι δύσκολος, αλλά σημαντικός.

Όταν λοιπόν το τμήμα ανάληψης κινδύνων μίας ασφαλιστικής εταιρείας αντιμετωπίζει μία υποψήφια προς ασφάλιση επιχείρηση, θα πρέπει αρχικά να αναλύσει το μοντέλο λειτουργίας της, προκειμένου να διαπιστώσει το είδος και το βαθμό έκθεσής της σε πιθανούς κινδύνους που σχετίζονται με την Τεχνητή Νοημοσύνη και το ύψος των πιθανών ζημιών. Διότι όσο περισσότερο εισχωρεί η ΑΙ και μάλιστα η Gen AI στη λειτουργία των επιχειρήσεων, τόσο ανεβαίνει -και θα συνεχίσει να ανεβαίνει ταχύτατα- το κόστος από μία βλάβη ή μία παραβίαση.

Μία άλλη σοβαρή παράμετρος είναι το κατά πόσον μία επιχείρηση που χρησιμοποιεί προγράμματα Gen AI διαθέτει τους κατάλληλους μηχανισμούς για τη διασφάλιση της ηθικής εφαρμογής τους, της προστασίας των προσωπικών δεδομένων και της συμμόρφωσης με το κανονιστικό πλαίσιο, το οποίο έχει αρχίσει να διαμορφώνεται. Ήδη στις 13 Μαρτίου ψηφίστηκε από το Ευρωπαϊκό Κοινοβούλιο ο Κανονισμός για την Τεχνητή Νοημοσύνη (AI Act), ο οποίος χωρίζει τα συστήματα ΑΙ σε πέντε κατηγορίες, ανάλογα με τους κινδύνους που προκύπτουν από αυτά και καθιστά την Ευρωπαϊκή Ένωση τον πρώτο νομοθέτη σε παγκόσμιο επίπεδο που προσπαθεί να ρυθμίσει το ΑΙ.

Οπότε η ασφαλιστική εταιρεία θα πρέπει να συνεργάζεται στενά με την επιχείρηση-πελάτη, ώστε να τον ενημερώνει για όλες τις εξελίξεις και να φροντίζει για την τήρηση όλων των απαιτούμενων κανονιστικών ρυθμίσεων και όλων των διαδικασιών, προκειμένου να προστατεύονται επαρκώς τα δεδομένα και το δίκτυο της επιχείρησης.

Η Τεχνητή Νοημοσύνη είναι ένα νέο πεδίο δράσης για τους ασφαλιστές και μάλιστα ένα εξαιρετικά πολύπλοκο πεδίο, που απαιτεί γνώσεις και εξειδίκευση, ώστε σε πρώτη φάση να γίνει κατανοητό. Αν κάποιοι αποθαρρύνονται, θα πρέπει να σκεφτούν πως οι εξελίξεις είναι ραγδαίες και εντυπωσιακές, αλλά θα πρέπει να είναι και ασφαλείς και οι ασφαλιστικές εταιρείες, είναι οι μόνες που μπορούν να προσφέρουν αυτό το δίχτυ ασφαλείας σε όσους καινοτομούν και αναπτύσσονται αξιοποιώντας τις μαγικές δυνατότητες της δημιουργικής Τεχνητής Νοημοσύνης.