18.4 C
Athens
Παρασκευή, 3 Μαΐου, 2024

Νέα μέθοδος επίθεσης παρακάμπτει κατά 99% τα συστήματα ασφαλείας φωνητικού ελέγχου ταυτότητας

Ειδήσεις Ελλάδα

Ερευνητές του Πανεπιστημίου του Waterloo ανακάλυψαν μια νέα μέθοδο επίθεσης που μπορεί να παρακάμψει επιτυχώς τα συστήματα ασφαλείας φωνητικού ελέγχου ταυτότητας με ποσοστό επιτυχίας έως και 99% μετά από μόλις έξι προσπάθειες.

Ο φωνητικός έλεγχος ταυτότητας – ο οποίος επιτρέπει στις εταιρείες να επαληθεύουν την ταυτότητα των πελατών τους μέσω ενός υποτιθέμενου μοναδικού “φωνητικού αποτυπώματος” – χρησιμοποιείται όλο και περισσότερο σε απομακρυσμένες τραπεζικές συναλλαγές, τηλεφωνικά κέντρα και άλλα κρίσιμα για την ασφάλεια σενάρια.

“Κατά την εγγραφή στον φωνητικό έλεγχο ταυτότητας, σας ζητείται να επαναλάβετε μια συγκεκριμένη φράση με τη δική σας φωνή. Στη συνέχεια, το σύστημα εξάγει μια μοναδική φωνητική υπογραφή (φωνητικό αποτύπωμα) από αυτή την φράση και την αποθηκεύει σε έναν server”, δήλωσε ο Andre Kassis, υποψήφιος διδάκτωρ Ασφάλειας Υπολογιστών και Προστασίας Προσωπικών Δεδομένων και επικεφαλής συγγραφέας της μελέτης που περιγράφει λεπτομερώς την έρευνα.

“Για μελλοντικές προσπάθειες πιστοποίησης, σας ζητείται να επαναλάβετε μια διαφορετική φράση και τα χαρακτηριστικά που εξάγονται από αυτήν συγκρίνονται με το φωνητικό αποτύπωμα που έχετε αποθηκεύσει στο σύστημα για να καθοριστεί αν θα πρέπει να χορηγηθεί πρόσβαση”.

Μετά την εισαγωγή της έννοιας των φωνητικών αποτυπωμάτων, οι κακόβουλοι φορείς συνειδητοποίησαν γρήγορα ότι μπορούσαν να χρησιμοποιήσουν λογισμικό “deepfake” με δυνατότητα μηχανικής μάθησης για να δημιουργήσουν πειστικά αντίγραφα της φωνής ενός θύματος χρησιμοποιώντας μόλις πέντε λεπτά ηχογραφημένου ήχου.

Στον αντίποδα, οι προγραμματιστές δημιούργησαν “αντίμετρα παραποίησης”, δηλαδή ελέγχους που θα μπορούσαν να εξετάσουν ένα δείγμα ομιλίας και να καθορίσουν αν δημιουργήθηκε από άνθρωπο ή μηχανή.

Οι ερευνητές του Waterloo ανέπτυξαν μια μέθοδο που παρακάμπτει τα αντίμετρα spoofing και μπορεί να ξεγελάσει τα περισσότερα συστήματα φωνητικού ελέγχου ταυτότητας μέσα σε έξι προσπάθειες. Εντόπισαν τα σημάδια στον ήχο deepfake που προδίδουν ότι έχει δημιουργηθεί από υπολογιστή και έγραψαν ένα πρόγραμμα που αφαιρεί αυτά τα σημάδια, καθιστώντας τον δυσδιάκριτο από τον αυθεντικό ήχο.

Σε μια πρόσφατη δοκιμή εναντίον του συστήματος φωνητικού ελέγχου ταυτότητας του Amazon Connect, πέτυχαν ποσοστό επιτυχίας 10% σε μια επίθεση τεσσάρων δευτερολέπτων, με το ποσοστό αυτό να αυξάνεται σε πάνω από 40% σε λιγότερο από τριάντα δευτερόλεπτα. Με ορισμένα από τα λιγότερο εξελιγμένα συστήματα φωνητικού ελέγχου ταυτότητας που έβαλαν στο στόχαστρο, πέτυχαν ποσοστό επιτυχίας 99 % μετά από έξι προσπάθειες.

Ο Kassis υποστηρίζει ότι ο φωνητικός έλεγχος ταυτότητας είναι προφανώς καλύτερος από την έλλειψη πρόσθετης ασφάλειας, όμως τα υφιστάμενα αντίμετρα για την παραποίηση είναι εξαιρετικά ελαττωματικά.

“Ο μόνος τρόπος για να δημιουργήσετε ένα ασφαλές σύστημα είναι να σκεφτείτε σαν επιτιθέμενος. Αν δεν το κάνεις, τότε απλά περιμένεις να σου επιτεθούν”, δήλωσε ο Kassis.

Ο επόπτης του Kassis, καθηγητής πληροφορικής Urs Hengartner, πρόσθεσε: “Αποδεικνύοντας την ανασφάλεια του φωνητικού ελέγχου ταυτότητας, ελπίζουμε ότι οι εταιρείες που βασίζονται στον φωνητικό έλεγχο ταυτότητας ως μοναδικό παράγοντα ελέγχου ταυτότητας θα εξετάσουν το ενδεχόμενο να αναπτύξουν πρόσθετα ή ισχυρότερα μέτρα ελέγχου ταυτότητας”.

*Ακολουθήστε το Techgear.gr στο Google News για να ενημερώνεστε άμεσα για όλα τα νέα άρθρα!

Ειδήσεις

ΠΗΓΗ

Σχετικά άρθρα

Θέσεις εργασίας - Βρείτε δουλειά & προσωπικό