Γιατί το deepfake phishing είναι μια καταστροφή που περιμένει να συμβεί

Γιατί το deepfake phishing είναι μια καταστροφή που περιμένει να συμβεί

Dezember 10, 2022 0 Von admin

Δείτε όλες τις κατ‘ απαίτηση συνεδρίες από το Intelligent Security Summit εδώ.


Δεν είναι πάντα όλα όπως φαίνονται. Καθώς η τεχνολογία τεχνητής νοημοσύνης (AI) έχει προχωρήσει, τα άτομα την εκμεταλλεύονται για να διαστρεβλώσουν την πραγματικότητα. Έχουν δημιουργήσει συνθετικές εικόνες και βίντεο από όλους Κάποιος Κρουαζιέρα και Σημάδι Ζούκερμπεργκ προς την Πρόεδρος Ομπάμα. Ενώ πολλές από αυτές τις περιπτώσεις χρήσης είναι αβλαβείς, άλλες εφαρμογές, όπως το deepfake phishing, είναι πολύ πιο κακόβουλες.

Ένα κύμα παραγόντων απειλών εκμεταλλεύεται την τεχνητή νοημοσύνη για να δημιουργήσει συνθετικό περιεχόμενο ήχου, εικόνας και βίντεο που έχει σχεδιαστεί για να υποδύεται αξιόπιστα άτομα, όπως διευθύνοντες συμβούλους και άλλα στελέχη, για να ξεγελάσουν τους υπαλλήλους για να παραδώσουν πληροφορίες.

Ωστόσο, οι περισσότεροι οργανισμοί απλώς δεν είναι διατεθειμένοι να αντιμετωπίσουν τέτοιου είδους απειλές. Το 2021, ο αναλυτής της Gartner Darin Stewart έγραψε ένα ανάρτηση προειδοποιώντας ότι «ενώ οι εταιρείες προσπαθούν να αμυνθούν από επιθέσεις ransomware, δεν κάνουν τίποτα για να προετοιμαστούν για μια επικείμενη επίθεση συνθετικών μέσων».

Με την τεχνητή νοημοσύνη να προχωρά ταχέως και τους παρόχους όπως το OpenAI να εκδημοκρατίζουν την πρόσβαση στην τεχνητή νοημοσύνη και τη μηχανική μάθηση μέσω νέων εργαλείων όπως το ChatGPT, οι οργανισμοί δεν έχουν την πολυτέλεια να αγνοήσουν την απειλή της κοινωνικής μηχανικής που δημιουργείται από τα deepfakes. Εάν το κάνουν, θα αφήσουν τους εαυτούς τους ευάλωτους σε παραβιάσεις δεδομένων.

Εκδήλωση

Ευφυής Σύνοδος Κορυφής Ασφάλειας Κατ‘ Απαίτηση

Μάθετε τον κρίσιμο ρόλο του AI & ML στην ασφάλεια στον κυβερνοχώρο και τις ειδικές περιπτωσιολογικές μελέτες του κλάδου. Παρακολουθήστε τις συνεδρίες κατ‘ απαίτηση σήμερα.

Παρακολουθήστε εδώ

Η κατάσταση του deepfake phishing το 2022 και μετά

Ενώ η τεχνολογία deepfake παραμένει στα σπάργανά της, αυξάνεται σε δημοτικότητα. Οι κυβερνοεγκληματίες έχουν ήδη αρχίσει να πειραματίζονται με αυτό για να εξαπολύσουν επιθέσεις σε ανυποψίαστους χρήστες και οργανισμούς.

Σύμφωνα με το Παγκόσμιο Οικονομικό Φόρουμ (WEF), ο αριθμός των deepfake βίντεο στο διαδίκτυο αυξάνεται με ετήσιο ρυθμό 900%. Την ίδια στιγμή, VMware διαπιστώνει ότι δύο στους τρεις υπερασπιστές αναφέρουν ότι είδαν κακόβουλα deepfakes να χρησιμοποιούνται ως μέρος μιας επίθεσης, αύξηση 13% από πέρυσι.

Αυτές οι επιθέσεις μπορεί να είναι καταστροφικά αποτελεσματικές. Για παράδειγμα, το 2021, χρησιμοποίησαν κυβερνοεγκληματίες Όλα συμπεριλαμβάνονται κλωνοποίηση φωνής για να υποδυθεί τον διευθύνοντα σύμβουλο μιας μεγάλης εταιρείας και ξεγέλασε τον τραπεζικό διευθυντή του οργανισμού να μεταφέρει 35 εκατομμύρια δολάρια σε άλλο λογαριασμό για να ολοκληρώσει μια «εξαγορά».

Παρόμοιο περιστατικό συνέβη το 2019. Απατεώνας κάλεσε τον Διευθύνοντα Σύμβουλο της α Ηνωμένο Βασίλειο ενεργειακή εταιρεία χρησιμοποιώντας AI για να υποδυθεί τον διευθύνοντα σύμβουλο της γερμανικής μητρικής εταιρείας της εταιρείας. Ζήτησε επείγουσα μεταφορά 243.000 δολαρίων σε έναν Ούγγρο προμηθευτή.

Πολλοί αναλυτές προβλέπουν ότι η άνοδος στο deepfake phishing θα συνεχιστεί μόνο και ότι το ψευδές περιεχόμενο που παράγεται από τους φορείς απειλών θα γίνει μόνο πιο περίπλοκο και πειστικό.

«Καθώς η τεχνολογία deepfake ωριμάζει, [attacks using deepfakes] αναμένεται να γίνουν πιο κοινές και να επεκταθούν σε νεότερες απάτες», είπε KPMG αναλυτής Akhilesh Tuteja.

«Όλο και περισσότερο γίνονται δυσδιάκριτα από την πραγματικότητα. Ήταν εύκολο να πεις τα βαθιά ψεύτικα βίντεο πριν από δύο χρόνια, καθώς είχαν αδέξια [movement] ποιότητα και… το ψεύτικο άτομο δεν φαινόταν ποτέ να αναβοσβήνει. Αλλά γίνεται όλο και πιο δύσκολο να το ξεχωρίσεις τώρα», είπε ο Tuteja.

Η Tuteja προτείνει ότι οι ηγέτες ασφαλείας πρέπει να προετοιμαστούν για απατεώνες που χρησιμοποιούν συνθετικές εικόνες και βίντεο για να παρακάμψουν συστήματα ελέγχου ταυτότητας, όπως βιομετρικές συνδέσεις.

Πώς τα deepfakes μιμούνται άτομα και μπορούν να παρακάμψουν τον βιομετρικό έλεγχο ταυτότητας

Για να εκτελέσουν μια βαθιά ψευδή επίθεση phishing, οι χάκερ χρησιμοποιούν AI και μηχανική εκμάθηση για να επεξεργαστούν μια σειρά περιεχομένου, συμπεριλαμβανομένων εικόνων, βίντεο και κλιπ ήχου. Με αυτά τα δεδομένα δημιουργούν μια ψηφιακή μίμηση ενός ατόμου.

«Οι κακοί ηθοποιοί μπορούν εύκολα να φτιάξουν αυτόματα κωδικοποιητές – ένα είδος προηγμένου νευρωνικού δικτύου – για να παρακολουθούν βίντεο, να μελετούν εικόνες και να ακούν ηχογραφήσεις ατόμων για να μιμούνται τα φυσικά χαρακτηριστικά αυτού του ατόμου», δήλωσε ο David Mahdi, σύμβουλος CSO και CISO στο sectigo.

Ένα από τα καλύτερα παραδείγματα αυτής της προσέγγισης συνέβη νωρίτερα φέτος. Χάκερ δημιούργησαν ένα βαθύ ψεύτικο ολόγραμμα του Πάτρικ Χίλμαν, του επικεφαλής επικοινωνίας του Binanceπαίρνοντας περιεχόμενο από προηγούμενες συνεντεύξεις και εμφανίσεις στα μέσα ενημέρωσης.

Με αυτήν την προσέγγιση, οι φορείς απειλών μπορούν όχι μόνο να μιμηθούν τα φυσικά χαρακτηριστικά ενός ατόμου για να ξεγελάσουν τους χρήστες μέσω της κοινωνικής μηχανικής, αλλά μπορούν επίσης να παραβιάσουν λύσεις βιομετρικής επαλήθευσης ταυτότητας.

Γι ‚αυτό το λόγο, Gartner Ο αναλυτής Avivah Litan συνιστά στους οργανισμούς «να μην βασίζονται στη βιομετρική πιστοποίηση για εφαρμογές ελέγχου ταυτότητας χρηστών, εκτός και αν χρησιμοποιεί αποτελεσματική ανίχνευση ψεύτικο ψεύτικο που διασφαλίζει τη ζωτικότητα και τη νομιμότητα του χρήστη».

Ο Litan σημειώνει επίσης ότι ο εντοπισμός αυτών των τύπων επιθέσεων είναι πιθανό να γίνει πιο δύσκολος με την πάροδο του χρόνου, καθώς η τεχνητή νοημοσύνη που χρησιμοποιούν εξελίσσεται για να είναι σε θέση να δημιουργήσει πιο συναρπαστικές ακουστικές και οπτικές αναπαραστάσεις.

«Η ανίχνευση του Deepfake είναι μια χαμένη πρόταση, επειδή τα deepfake που δημιουργούνται από το δίκτυο παραγωγής αξιολογούνται από ένα διακριτικό δίκτυο», είπε ο Litan. Ο Litan εξηγεί ότι ο παράγοντας δημιουργίας στοχεύει να δημιουργήσει περιεχόμενο που ξεγελάει αυτόν που διακρίνει, ενώ ο χρήστης που διακρίνει βελτιώνεται συνεχώς για να ανιχνεύει τεχνητό περιεχόμενο.

Το πρόβλημα είναι ότι καθώς αυξάνεται η ακρίβεια του ατόμου που διακρίνει, οι εγκληματίες του κυβερνοχώρου μπορούν να εφαρμόσουν πληροφορίες από αυτό στη δημιουργία για να παράγουν περιεχόμενο που είναι πιο δύσκολο να εντοπιστεί.

Ο ρόλος της εκπαίδευσης ευαισθητοποίησης για την ασφάλεια

Ένας από τους απλούστερους τρόπους με τους οποίους οι οργανισμοί μπορούν να αντιμετωπίσουν το deepfake phishing είναι μέσω της χρήσης εκπαίδευσης ευαισθητοποίησης για την ασφάλεια. Αν και καμία εκπαίδευση δεν θα αποτρέψει ποτέ όλους τους υπαλλήλους από μια πολύ εξελιγμένη απόπειρα phishing, μπορεί να μειώσει την πιθανότητα περιστατικών ασφαλείας και παραβιάσεων.

«Ο καλύτερος τρόπος αντιμετώπισης του deepfake phishing είναι η ενσωμάτωση αυτής της απειλής στην εκπαίδευση ευαισθητοποίησης για την ασφάλεια. Όπως οι χρήστες διδάσκονται να αποφεύγουν να κάνουν κλικ σε συνδέσμους ιστού, θα πρέπει να λαμβάνουν παρόμοια εκπαίδευση σχετικά με το deepfake phishing», είπε. ESG Παγκόσμια αναλυτής John Oltsik.

Μέρος αυτής της εκπαίδευσης θα πρέπει να περιλαμβάνει μια διαδικασία αναφοράς προσπαθειών phishing στην ομάδα ασφαλείας.

Όσον αφορά το εκπαιδευτικό περιεχόμενο, το FBI υποδηλώνει ότι οι χρήστες μπορούν να μάθουν να εντοπίζουν επιθέσεις phishing και κοινωνικής μηχανικής, αναζητώντας οπτικούς δείκτες, όπως παραμόρφωση, παραμόρφωση ή ασυνέπειες σε εικόνες και βίντεο.

Η εκμάθηση των χρηστών πώς να αναγνωρίζουν κοινές κόκκινες σημαίες, όπως πολλές εικόνες με σταθερή απόσταση και τοποθέτηση των ματιών ή ο συγχρονισμός προβλημάτων μεταξύ της κίνησης των χειλιών και του ήχου, μπορεί να τους βοηθήσει να μην πέσουν θήραμα ενός έμπειρου εισβολέα.

Καταπολέμηση του αντιπάλου AI με αμυντικό AI

Οι οργανισμοί μπορούν επίσης να επιχειρήσουν να αντιμετωπίσουν το deepfake phishing χρησιμοποιώντας AI. Τα Generative Adversarial Networks (GANs), ένας τύπος μοντέλου βαθιάς μάθησης, μπορούν να παράγουν συνθετικά σύνολα δεδομένων και να δημιουργήσουν ψευδείς επιθέσεις κοινωνικής μηχανικής.

«Ένα ισχυρό CISO μπορεί να βασιστεί σε εργαλεία τεχνητής νοημοσύνης, για παράδειγμα, για τον εντοπισμό απομιμήσεων. Οι οργανισμοί μπορούν επίσης να χρησιμοποιήσουν τα GAN για να δημιουργήσουν πιθανούς τύπους κυβερνοεπιθέσεων που οι εγκληματίες δεν έχουν ακόμη αναπτύξει και να επινοήσουν τρόπους για να τους αντιμετωπίσουν πριν εκδηλωθούν», δήλωσε η Liz Grennan, ειδικός συνεργάτης στο McKinsey.

Ωστόσο, οι οργανισμοί που ακολουθούν αυτά τα μονοπάτια πρέπει να είναι προετοιμασμένοι να αφιερώσουν χρόνο, καθώς οι εγκληματίες του κυβερνοχώρου μπορούν επίσης να χρησιμοποιήσουν αυτές τις δυνατότητες για να καινοτομήσουν νέους τύπους επιθέσεων.

«Φυσικά, οι εγκληματίες μπορούν να χρησιμοποιήσουν GAN ​​για να δημιουργήσουν νέες επιθέσεις, επομένως εναπόκειται στις επιχειρήσεις να παραμείνουν ένα βήμα μπροστά», είπε ο Grennan.

Πάνω από όλα, οι επιχειρήσεις πρέπει να είναι προετοιμασμένες. Οι οργανισμοί που δεν παίρνουν στα σοβαρά την απειλή του deepfake phishing θα μείνουν ευάλωτοι σε έναν φορέα απειλής που έχει τη δυνατότητα να εκραγεί σε δημοτικότητα καθώς η τεχνητή νοημοσύνη εκδημοκρατίζεται και γίνεται πιο προσιτή σε κακόβουλες οντότητες.

Η αποστολή του VentureBeat πρόκειται να αποτελέσει μια ψηφιακή πλατεία της πόλης για τους τεχνικούς λήπτες αποφάσεων ώστε να αποκτήσουν γνώσεις σχετικά με τη μετασχηματιστική επιχειρηματική τεχνολογία και να πραγματοποιήσουν συναλλαγές. Ανακαλύψτε τις Ενημερώσεις μας.