Kaspersky: Η επιδρομή των κλώνων – Πώς να αναγνωρίσετε ένα deepfake

Μάθετε πώς να εντοπίζετε αμέσως deepfakes σε φωτογραφίες, βίντεο, φωνητικά μηνύματα και βιντεοκλήσεις
Οι εφαρμογές για τη δημιουργία ψεύτικων βίντεο και φωνητικών μηνυμάτων είναι πλέον προσβάσιμες σε όλους και πολλοί απατεώνες έχουν τελειοποιήσει την κατασκευή deepfakes. Κανείς δεν μπορεί να παραμείνει ασφαλής από τη συγκεκριμένη απειλή – τα σύγχρονα τεχνητά νευρωνικά δίκτυα είναι ικανά να κλωνοποιούν μια ανθρώπινη φωνή έχοντας στη διάθεσή τους μόλις τρία έως πέντε δευτερόλεπτα ήχου, καθώς και να δημιουργούν πολύ πειστικά βίντεο από ελάχιστες φωτογραφίες.
Πώς δημιουργούνται τα deepfakes
Οι απατεώνες συλλέγουν υλικό για deepfakes από δημόσιες πηγές: διαδικτυακά σεμινάρια, δημόσια βίντεο σε κοινωνικά δίκτυα, κανάλια και online ομιλίες. Μερικές φορές καλούν τα πιθανά θύματα και τα κρατούν όσο περισσότερο μπορούν στη γραμμή για να συλλέξουν αρκετά δεδομένα και να πετύχουν την καλύτερη κλωνοποίηση της φωνής τους. Η παραβίαση του λογαριασμού κάποιου που στέλνει συχνά μηνύματα μέσω ηχητικών ή βίντεο είναι το «μεγάλο βραβείο» για τους απατεώνες. Με πρόσβαση σε τέτοια αρχεία μπορούν να δημιουργήσουν πολύ ρεαλιστικά ψεύτικα μηνύματα που το 95% των ανθρώπων δεν μπορεί να ξεχωρίσει από τα πραγματικά.
Πώς να αναγνωρίζετε τα deepfakes
Αν βλέπετε ένα γνώριμο πρόσωπο με την αντίστοιχη φωνή που σας είναι γνωστή αλλά σας κάνει περίεργες ή ασυνήθιστες ερωτήσεις, τότε υπάρχει πιθανότητα να πρόκειται για απάτη deepfake. Για καλή σας τύχη, υπάρχουν οπτικά, ακουστικά, αλλά και σημάδια στη συμπεριφορά των ατόμων που απεικονίζονται στα βίντεο, τα οποία μπορούν να σας βοηθήσουν να εντοπίσετε την απάτη.
Οπτικά σημάδια αναγνώρισης ενός deepfake
Προβλήματα στον φωτισμό και τις σκιές. Τα deepfakes συχνά αποτυπώνουν λάθος τη φυσική του φωτός. Η κατεύθυνση των σκιών μπορεί να μην ταιριάζει με το φως ή οι αντανακλάσεις στο δέρμα να φαίνονται αφύσικες. Για παράδειγμα, κάποιος μπορεί να είναι γυρισμένος προς το παράθυρο αλλά το πρόσωπό του να φωτίζεται σαν να βρίσκεται σε στούντιο. Η περίπτωση αυτή ίσως είναι γνώριμη για όσους συμμετέχουν σε τηλεδιασκέψεις, όπου οι εικόνες που τοποθετούνται ως background μπορεί να φαίνονται εξαιρετικά αφύσικες.
Θολά πρόσωπα ή χαρακτηριστικά που μετακινούνται. Δώστε προσοχή στη γραμμή των μαλλιών: τα deepfakes συχνά εμφανίζουν θόλωμα, τρεμόπαιγμα ή αφύσικες μεταβάσεις χρώματος σε αυτή την περιοχή. Αυτές οι παραμορφώσεις προκαλούνται από σφάλματα στον αλγόριθμο που τοποθετεί το κλωνοποιημένο πρόσωπο πάνω στο αρχικό.
Αφύσικο ανοιγοκλείσιμο των ματιών ή «νεκρό» βλέμμα. Ένας άνθρωπος ανοιγοκλείνει τα μάτια του κατά μέσο όρο 10 έως 20 φορές το λεπτό. Ορισμένα deepfakes το κάνουν πολύ σπάνια, ενώ άλλα υπερβολικά συχνά. Οι κινήσεις των βλεφάρων μπορεί να είναι πολύ απότομες και μερικές φορές το ανοιγοκλείσιμο δεν είναι συγχρονισμένο – το ένα μάτι μπορεί να μην ταιριάζει με το άλλο. Ένα «γυάλινο» ή «άδειο» βλέμμα είναι επίσης χαρακτηριστικό των deepfakes. Μερικές φορές η μια κόρη (συνήθως μόνο η μία) ενδέχεται να κινείται τυχαία λόγω σφάλματος του τεχνητού νευρωνικού δικτύου.
Όταν εξετάζετε μια στατική εικόνα, όπως μια φωτογραφία, είναι καλή ιδέα να κάνετε ζουμ στα μάτια και να συγκρίνετε τις αντανακλάσεις στις ίριδες – στις πραγματικές φωτογραφίες θα είναι ίδιες, ενώ στα deepfakes συχνά διαφέρουν.
Προβλήματα στον συγχρονισμό των χειλιών. Ακόμα και τα υψηλής ποιότητας deepfakes κάνουν λάθη στον συγχρονισμό της ομιλίας με τις κινήσεις των χειλιών. Μια καθυστέρηση μόλις 100 χιλιοστών του δευτερολέπτου είναι ορατή στον απλό θεατή. Συχνά μπορεί να εντοπίσετε και περίεργο σχήμα των χειλιών όταν προφέρονται τα γράμματα μ, φ ή τ. Όλα αυτά είναι ενδείξεις ότι το πρόσωπο που απεικονίζεται έχει δημιουργηθεί από τεχνητή νοημοσύνη.
Στατικό ή θολό φόντο. Στα βίντεο που έχουν δημιουργηθεί με τεχνητή νοημοσύνη, το φόντο συχνά φαίνεται μη ρεαλιστικό. Μπορεί να είναι υπερβολικά θολό, τα στοιχεία του να μην αλληλεπιδρούν με το πρόσωπο στην οθόνη ή να παραμένει ακίνητο ακόμη κι όταν κινείται η κάμερα.
Παράξενες εκφράσεις προσώπου. Τα deepfakes είναι δύσκολο να μιμηθούν συναισθήματα. Οι εκφράσεις μπορεί να μην αλλάζουν ανάλογα με τη συζήτηση, τα χαμόγελα να φαίνονται παγωμένα και οι μικρές ρυτίδες και πτυχώσεις που εμφανίζονται φυσικά στο πρόσωπο όταν εκφράζουμε συναισθήματα να απουσιάζουν – τα άτομα είναι σαν να έχουν κάνει botox.
Ακουστικά σημάδια αναγνώρισης ενός deepfake
Τα πρώτα συστήματα τεχνητής νοημοσύνης παρήγαγαν ομιλία από μικρούς, μονότονους ήχους φωνητικών μονάδων και όταν άλλαζε ο χρωματισμός της διατύπωσης υπήρχε εμφανής μεταβολή στον τόνο, κάτι που καθιστούσε εύκολο τον εντοπισμό μιας συνθετικής φωνής. Αν και η τεχνολογία έχει εξελιχθεί πολύ, εξακολουθούν να υπάρχουν σημάδια που προδίδουν τις τεχνητές φωνές.
Ξύλινος ή ηλεκτρονικός τόνος. Αν η φωνή ακούγεται ασυνήθιστα επίπεδη, χωρίς φυσικές αλλαγές στον τόνο ή έχει μια ελαφρώς ηλεκτρονική χροιά, υπάρχει μεγάλη πιθανότητα να πρόκειται για deepfake. Η πραγματική ανθρώπινη ομιλία έχει πολλές μικρές μεταβολές και φυσικές ατέλειες.
Απουσία ήχων αναπνοής. Οι άνθρωποι κάνουν μικρές παύσεις και αναπνέουν ανάμεσα στις φράσεις –ειδικά σε μεγάλες προτάσεις–, ενώ μπορεί να υπάρχουν και μικρά βηξίματα ή ρουθουνίσματα. Οι συνθετικές φωνές συχνά δεν έχουν αυτές τις λεπτομέρειες ή τις τοποθετούν αφύσικα.
Ρομποτική ομιλία ή ξαφνικές διακοπές. Η φωνή μπορεί να κόβεται απότομα, οι λέξεις να ακούγονται σαν να είναι «κολλημένες» μεταξύ τους και η έμφαση ή ο τόνος να μην ταιριάζουν με αυτό που έχετε συνηθίσει να ακούτε από τον φίλο ή συνάδελφό σας.
Έλλειψη χαρακτηριστικών εκφράσεων στην ομιλία. Δώστε προσοχή σε χαρακτηριστικά στοιχεία της ομιλίας ενός ατόμου, όπως η προφορά ή συγκεκριμένες εκφράσεις που χρησιμοποιεί συχνά. Τα deepfakes συνήθως δεν τα μιμούνται σωστά ή τα παραλείπουν εντελώς.
Για να αποκρύψουν τα οπτικά και ακουστικά λάθη, οι απατεώνες συχνά προσποιούνται ότι υπάρχει κακή σύνδεση στέλνοντας βίντεο ή ηχητικά μηνύματα με θόρυβο. Ένα χαμηλής ποιότητας βίντεο ή αρχείο ήχου είναι το πρώτο προειδοποιητικό σημάδι ότι πρέπει να ελέγξετε την ταυτότητα του ατόμου.
Ενδείξεις στη συμπεριφορά για να αναγνωρίσετε ένα deepfake
Η παρατήρηση των κινήσεων και της συμπεριφοράς του ατόμου με το οποίο συνομιλείτε είναι ίσως ο πιο αξιόπιστος τρόπος για να εντοπίσετε ένα deepfake σε πραγματικό χρόνο.
Δεν μπορούν να γυρίσουν το κεφάλι. Κατά τη διάρκεια μιας βιντεοκλήσης, ζητήστε από το άτομο να γυρίσει το κεφάλι του ώστε να κοιτάξει εντελώς στο πλάι. Τα περισσότερα deepfakes δημιουργούνται από φωτογραφίες ή βίντεο πορτρέτου, οπότε μια τέτοια κίνηση μπορεί να προκαλέσει παραμόρφωση ή «σπάσιμο» της εικόνας. Η AI startup Metaphysic.ai –δημιουργός των viral deepfakes του Tom Cruise– επιβεβαιώνει ότι η περιστροφή του κεφαλιού είναι προς το παρόν το πιο αξιόπιστο τεστ για τον εντοπισμό deepfake.
Αφύσικες κινήσεις: Ζητήστε από το άτομο στην οθόνη να κάνει μια αυθόρμητη ενέργεια, όπως να κουνήσει το χέρι του μπροστά από το πρόσωπό του, να ξύσει τη μύτη του, να πιει από ένα ποτήρι, να καλύψει τα μάτια του με τα χέρια του, ή να δείξει κάτι μέσα στο δωμάτιο. Τα deepfakes δυσκολεύονται να εκτελέσουν τέτοιες αυθόρμητες κινήσεις – τα χέρια μπορεί να περνούν «σαν φαντάσματα» μέσα από αντικείμενα ή το πρόσωπό τους, τα δάχτυλα τους να παραμορφώνονται ή να κινούνται αφύσικα.
Αν ζητήσετε από ένα deepfake να κουνήσει το χέρι του μπροστά από το πρόσωπό του τότε το χέρι μπορεί να εξαφανιστεί.
Κοινή χρήση οθόνης: Αν η συζήτηση αφορά την εργασία σας, ζητήστε από τον συνομιλητή σας να μοιραστεί την οθόνη του και να δείξει κάποιο σχετικό αρχείο ή έγγραφο. Χωρίς πρόσβαση στη συσκευή του πραγματικού ατόμου, αυτό είναι σχεδόν αδύνατο να παραποιηθεί.
Δεν μπορούν να απαντήσουν δύσκολες ερωτήσεις: Κάντε μια ερώτηση που μόνο το πραγματικό άτομο θα μπορούσε να γνωρίζει. Για παράδειγμα: «Τι συνάντηση έχουμε αύριο στη δουλειά;», «Γιατί έχω αυτό το σημάδι;» ή «Πού πήγαμε διακοπές πριν από δύο χρόνια;». Ένας απατεώνας δεν θα μπορέσει να απαντήσει αν οι πληροφορίες δεν υπάρχουν σε χακαρισμένες συνομιλίες ή δημόσιες πηγές.
Δεν γνωρίζουν τον μυστικό κωδικό. Συμφωνήστε με φίλους και συγγενείς σε μια μυστική λέξη ή φράση για επείγουσες καταστάσεις επιβεβαίωσης ταυτότητας. Αν ένας πανικόβλητος συγγενής ζητήσει επειγόντως χρήματα, ζητήστε του τον οικογενειακό κωδικό. Το πραγματικό άτομο θα τον πει αμέσως – ένας απατεώνας που χρησιμοποιεί deepfake όχι.
Τι να κάνετε αν εντοπίσετε ένα deepfake
Αν έχετε έστω και την παραμικρή υποψία ότι δεν μιλάτε με πραγματικό άνθρωπο αλλά με deepfake, ακολουθήστε τις παρακάτω οδηγίες:
- Τερματίστε τη συνομιλία και καλέστε ξανά. Η πιο σίγουρη κίνηση είναι να κλείσετε τη βιντεοκλήση και να επικοινωνήσετε με το άτομο με κάποιον άλλον τρόπο. Μπορείτε να τηλεφωνήσετε στον τηλεφωνικό του αριθμό ή να του στείλετε μήνυμα σε άλλη εφαρμογή. Αν ο συνομιλητής σας δυσανασχετήσει με αυτό, τότε μπορείτε απλώς να πείτε ότι χάθηκε η σύνδεση.
- Μην πιεστείτε να στείλετε χρήματα. Μια συνηθισμένη τακτική που χρησιμοποιείταιείναι η δημιουργία μιας ψεύτικης αίσθησης επείγοντος. Μηνύματα όπως: «Μαμά, χρειάζομαι χρήματα τώρα, είχα ατύχημα», «Δεν έχω χρόνο να εξηγήσω», «Αν δεν μου στείλεις χρήματα σε δέκα λεπτά, καταστράφηκα!», κλπ. Ένα αληθινό άτομο συνήθως δεν θα έχει πρόβλημα να περιμένετε λίγα λεπτά για να ελέγξετε την κατάσταση.
- Ενημερώστε φίλους ή συναδέλφους σας σε περίπτωση που έχουν χακαριστεί. Αν λάβετε κλήση ή μήνυμα από νέο αριθμό ή άγνωστο λογαριασμό, αυτό μπορεί να σημαίνει ότι κάποιος δημιούργησε ψεύτικο προφίλ ή χρησιμοποιεί προσωρινό αριθμό. Αν όμως η κλήση deepfake προέρχεται από λογαριασμό που ήδη έχετε στις επαφές σας, ενημερώστε το άτομο μέσω κάποιου άλλου τρόπου επικοινωνίας ότι ο λογαριασμός του ίσως έχει παραβιαστεί. Η ειδοποίηση αυτή θα το βοηθήσει να ανακτήσει την πρόσβαση και να περιορίσει πιθανούς κινδύνους για τις υπόλοιπες επαφές του, για παράδειγμα, κάνοντας δημόσια ανάρτηση, για το χακάρισμα. Δείτε τις αναλυτικές οδηγίες της Kaspersky για το Telegram και το WhatsApp.
Ακολουθήστε την ασφαλιστική αγορά στο Google News








