Deep fake: Τεχνητή νοημοσύνη
Deep fake: Τεχνητή νοημοσύνη
Οι θεατές βλέπουν και ακούνε την παρουσιάστρια των ειδήσεων αλλα στην πραγματικότητα αυτή δεν είναι εκεί. Ειναι οφθαλμαπάτη. Εχει αντικατασταθεί από μια deepfake εκδοχή της. Ενα αντίγραφο δηλαδή που δημιουργήθηκε από υπολογιστή, το οποίο και στοχεύει να μιμηθεί τέλεια τη φωνή, τις χειρονομίες και τις εκφράσεις του προσώπου
Πριν από μερικούς μήνες εκατομμύρια τηλεθεατές στη Νότια Κορέα παρακολουθούσαν, όπως κάθε βραδυ, το κεντρικό δελτίο ειδήσεων στο κανάλι MBN. Η κεντρική παρουσιάστρια μετέδωσε τις σημαντικότερες ειδήσεις της ημέρας, που στην πλειονότητά τους αφορούσαν την πανδημία. Ωστόσο, το συγκεκριμένο δελτίο διέφερε. Επρόκειτο για οφθαλμαπάτη. Οι θεατές έβλεπαν και άκουγαν τη δημοφιλή δημοσιογράφο, αλλά στην πραγματικότητα αυτή δεν ήταν εκεί. Είχε αντικατασταθεί από μια deepfake εκδοχή της. Ενα αντίγραφο δηλαδή που δημιουργήθηκε από υπολογιστή, το οποίο και στοχεύει να μιμηθεί τέλεια τη φωνή, τις χειρονομίες και τις εκφράσεις του προσώπου κάποιου. Οι θεατές, πάντως, είχαν ενημερωθεί εκ των προτέρων.
Οι περισσότεροι σχολίασαν το πόσο ρεαλιστικό ήταν, ενώ κάποιοι εξέφρασαν την ανησυχία τους για το ότι η πραγματική παρουσιάστρια ενδεχομένως να χάσει και τη δουλειά της. Το τηλεοπτικό δίκτυο, πάντως, θα συνεχίσει να χρησιμοποιεί το deepfake για μερικές έκτακτες ειδήσεις, ενώ η εταιρεία πίσω από την τεχνολογία τεχνητής νοημοσύνης δήλωσε ότι βρίσκεται σε αναζήτηση επενδυτών από την Κίνα και τις ΗΠΑ.
Η συγκεκριμένη τεχνολογία έγινε ευρέως γνωστή όταν κυκλοφόρησαν στα social media τρία βίντεο με πρωταγωνιστή τον «Τομ Κρουζ», που είχαν την εμφάνιση του διάσημου ηθοποιού, τη φωνή του, τις εκφράσεις του, το γέλιο και τις χαρακτηριστικές κινήσεις του. Δεν ήταν, όμως, ο ίδιος. Ξεκαθαρίστηκε ότι πρόκειται για deepfake (μια σύνθετη λέξη που προέρχεται από τα «deep learning» και «fake»). Αυτό σημαίνει τροποποιημένα βίντεο, στα οποία ένα άτομο, σε υπάρχουσα φωτογραφία ή βίντεο, αντικαθίσταται από ένα άλλο. Τα deepfakes δημιουργήθηκαν το 2014 από τον Ιαν Γκουντφέλοου, πρώην διευθυντή του συστήματος μηχανικής μάθησης της ειδικής ομάδας Project της Apple. Το 2017, ένας χρήστης της πορνογραφικής ιστοσελίδας Reddit, με το ψευδώνυμο deepfake, ανάρτησε ένα πορνογραφικό βίντεο με «πρωταγωνίστρια» την Ισραηλινή ηθοποιό Γκαλ Γκαντότ.
Στην περίπτωση του Τομ Κρουζ η αληθοφάνεια των βίντεο επιβεβαίωσε το πόσο έχει εξελιχθεί η συγκεκριμένη τεχνολογία, εγείροντας ερωτήματα και ανησυχίες. Εξάλλου και μόνο ο όρος «deepfake», που περιλαμβάνει τη λέξη «ψεύτικο», κουβαλάει μια αρνητική χροιά. Ατομα που ειδικεύονται στην ασφάλεια του Διαδικτύου σημειώνουν ότι τα συγκεκριμένα βίντεο αποδεικνύουν ότι έχουμε φτάσει στο σημείο όπου δεν μπορεί να διακρίνει κάποιος τη διαφορά μεταξύ αληθινού και ψεύτικου. Εκτός από τη μάστιγα των fake news, τα deepfakes αναδεικνύονται σε νέο πονοκέφαλο, καθώς διαδίδονται πολύ εύκολα και λόγω του καθολικά προσβάσιμου λογισμικού.
Αξιολόγηση βιογραφικών από υπολογιστές
Πίσω από αυτό βρίσκεται η πρόοδος της τεχνητής νοημοσύνης. Αν έπρεπε να την ορίσει κανείς θα έλεγε ότι πρόκειται για την τεχνολογία όπου μηχανές σκέφτονται και δρουν σαν άνθρωποι, συχνά πολύ πιο αποτελεσματικά και γρήγορα. Εχει εισέλθει στη ζωή μας και αλληλεπιδρούμε μαζί της. Η εφαρμογή της είναι πιο έντονη στα μέσα κοινωνικής δικτύωσης. Οι αλληλεπιδράσεις που έχουμε με άλλους χρήστες διαμορφώνουν τον αλγόριθμο κατά τέτοιον τρόπο ώστε να καταλήγουμε να βλέπουμε πιο συχνά αυτά που μας ενδιαφέρουν ή που ο αλγόριθμος νομίζει ότι μας ενδιαφέρουν επειδή ανοίξαμε κάποιες σελίδες. Προσεχώς η τεχνητή νοημοσύνη αναμένεται να κυριαρχήσει. Θα έχει παρουσία σε όλους τους τομείς, συμβάλλοντας θετικά, από την Υγεία έως τη γεωργία και από την ασφάλεια έως τη μεταποίηση. Μεταξύ άλλων, δημιουργεί και οπτικό περιεχόμενο. Το σύστημα τεχνητής νοημοσύνης που ανέπτυξε η εταιρεία του Ελον Μάσκ δημιούργησε ένα θεατρικό έργο (ολόκληρο το κείμενο) μελετώντας χιλιάδες θεατρικά κείμενα.
Ενας αλγόριθμος τεχνητής νοημοσύνης στο Ισραήλ έχει εκπαιδευτεί, βλέποντας οπτικό υλικό όπως παλιά βίντεο και φωτογραφίες, να ζωντανεύει ανθρώπους που δεν υπάρχουν πλέον στη ζωή. Υπολογιστές δημιούργησαν νέα πορτρέτα, τα οποία ήταν έτσι σχεδιασμένα ώστε να είναι ελκυστικά, σε προσωπικό επίπεδο, σε αυτούς που τα έβλεπαν. Ερευνητές από τα Πανεπιστήμια του Ελσίνκι και της Κοπεγχάγης απέδειξαν ότι ένας υπολογιστής είναι σε θέση να βρει τα χαρακτηριστικά προσώπου που θεωρεί κάποιος ελκυστικά και, με βάση αυτά, να δημιουργήσει νέες εικόνες που ταιριάζουν στα κριτήριά του. Τεράστιες εταιρείες αφήνουν την αξιολόγηση βιογραφικών για θέσεις εργασίας στους υπολογιστές. Εχουν υπάρξει, μάλιστα, καταγγελίες ότι το σύστημα ταυτοποίησης της Uber, το οποίο βασίζεται στους υπολογιστές, είναι άκρως ρατσιστικό! Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει σκουρόχρωμα πρόσωπα, απορρίπτοντας τέτοιους υποψήφιους πελάτες.
Οπως κάθετι, όμως, χρειάζεται ένα αυστηρό πλαίσιο, βασικούς κανόνες και γενικές προδιαγραφές. Ακόμα και το πλαίσιο είναι δύσκολο να διαμορφωθεί. Σύμφωνα με έρευνες, παρατηρούνται σημαντικές διαφορές στον τρόπο με τον οποίο ο δημόσιος και ο ιδιωτικός τομέας αντιλαμβάνονται το μέλλον της Τεχνητής Νοημοσύνης όσον αφορά σε ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου. Και χωρίς αυτό τον διαχωρισμό, όμως, και πάλι εγείρονται σημαντικά ερωτήματα και ανησυχίες για τις πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Πόσο ασφαλείς είμαστε όταν οι υπολογιστές επιλύουν προβλήματα με αυτονομία, μιμούμενοι όχι μόνο την ανθρώπινη ικανότητα μάθησης, αλλά και τους ίδιους τους ανθρώπους; Οταν συλλέγουν στοιχεία, δημιουργούν τα άβατάρ τους, αφαιρώντας από την εξίσωση τη μεταβλητή του ανθρώπινου παράγοντα.
Είναι παραπάνω από σαφές ότι στα λάθος χέρια κάτι τέτοιο θα μπορούσε να είναι όχι απλά παραπλανητικό, αλλά καταστροφικό. Ακόμα και η κατάχρησή του σε ανυποψίαστους δέκτες είναι επιζήμια. Πρωτίστως τίθεται ζήτημα αξιοπιστίας. Μπορεί να κατευθύνει το κοινό που δεν διακρίνει το αληθινό από το κατασκευασμένο. Πλήττονται η ακεραιότητα και η αμεροληψία κάθε πληροφορίας, η οποία μπορεί να είναι κατασκευασμένη από τους διαχειριστές του συστήματος για ίδιον όφελος. Εχουν ήδη υπάρξει θύματα των deepfakes στα social media. Γυναίκες που, ερήμην τους, πρωταγωνίστησαν σε ερωτικά βίντεο. Αυτό σημαίνει ότι ένας εντυπωσιακός όγκος πληροφορίας για καθέναν από εμάς υπάρχει διαθέσιμος και μπορεί να στραφεί εναντίον μας με αυτόν τον τρόπο. Ενας αλγόριθμος, δηλαδή, στοχεύει έναν άνθρωπο. Μέσω των φωτογραφιών και των βίντεο (για να δημιουργηθεί ένα deepfake βίντεο απαιτούνται πολλές φωτογραφίες του προσώπου που θέλει κανείς να μιμηθεί) υποκλέπτει λήψεις από διαφορετικές γωνίες και μιμείται τη συμπεριφορά και τον τρόπο ομιλίας του. Υποκλέπτει, δηλαδή, την ταυτότητά του. Το 96% των deepfakes που κυκλοφορεί στο Διαδίκτυο είναι πορνογραφικής φύσης και αναμένεται η τάση αυτή να συνεχιστεί.
Τι θα συμβεί, όμως, στην περίπτωση που αναβαθμιστούν από εργαλείο ικανοποίησης ερωτικών φαντασιώσεων μερικών ανδρών σε παντοδύναμο πολιτικό εργαλείο; Δύο χρόνια νωρίτερα, το Διαδίκτυο γέμισε από πλαστά βίντεο με πρωταγωνιστή τον Μπαράκ Ομπάμα. Οργανισμοί δηλώνουν ανήσυχοι για το πώς πλαστά βίντεο μπορούν να χρησιμοποιηθούν προκειμένου να υπονομευτεί η ίδια η δημοκρατία. Υποθετικά μπορούν να δημιουργήσουν το απόλυτο χάος, σε παγκόσμιο επίπεδο. Ενα βίντεο, στο οποίο μια ηγετική προσωπικότητα ανακοινώνει μια ψεύτικη είδηση μπορεί να επιφέρει πλήγμα στην παγκόσμια οικονομία και να επηρεάσει εκατομμύρια ανθρώπους. Από τον Δεκέμβριο του 2018 ο αριθμός των deepfakes στο Διαδίκτυο διπλασιάζεται περίπου κάθε έξι μήνες. Η ραγδαία αυτή αύξηση δεν αναμένεται να σταματήσει. Οι ειδικοί παραδέχονται τον επικείμενο κίνδυνο. Υποστηρίζουν ότι οι ειδήμονες μπορεί να εντοπίσουν τα τεχνικά προβλήματα σε τέτοια βίντεο. Αυτό, όμως, δεν αλλάζει το γεγονός ότι ο απλός χρήστης δεν μπορεί.
Ειδήσεις σήμερα
200 χρόνια από το 1821: Αρχίζει η μεγάλη γιορτή - Οι εκδηλώσεις, οι καλεσμένοι, το πρόγραμμα
Γεραπετρίτης: Σοβαρή αναβάθμιση των ελληνοαμερικανικών σχέσεων
Αποφυλακίστηκε και λίγες ώρες μετά διέρρηξε αυτοκίνητο στο κέντρο της Αθήνας
Οι περισσότεροι σχολίασαν το πόσο ρεαλιστικό ήταν, ενώ κάποιοι εξέφρασαν την ανησυχία τους για το ότι η πραγματική παρουσιάστρια ενδεχομένως να χάσει και τη δουλειά της. Το τηλεοπτικό δίκτυο, πάντως, θα συνεχίσει να χρησιμοποιεί το deepfake για μερικές έκτακτες ειδήσεις, ενώ η εταιρεία πίσω από την τεχνολογία τεχνητής νοημοσύνης δήλωσε ότι βρίσκεται σε αναζήτηση επενδυτών από την Κίνα και τις ΗΠΑ.
Η συγκεκριμένη τεχνολογία έγινε ευρέως γνωστή όταν κυκλοφόρησαν στα social media τρία βίντεο με πρωταγωνιστή τον «Τομ Κρουζ», που είχαν την εμφάνιση του διάσημου ηθοποιού, τη φωνή του, τις εκφράσεις του, το γέλιο και τις χαρακτηριστικές κινήσεις του. Δεν ήταν, όμως, ο ίδιος. Ξεκαθαρίστηκε ότι πρόκειται για deepfake (μια σύνθετη λέξη που προέρχεται από τα «deep learning» και «fake»). Αυτό σημαίνει τροποποιημένα βίντεο, στα οποία ένα άτομο, σε υπάρχουσα φωτογραφία ή βίντεο, αντικαθίσταται από ένα άλλο. Τα deepfakes δημιουργήθηκαν το 2014 από τον Ιαν Γκουντφέλοου, πρώην διευθυντή του συστήματος μηχανικής μάθησης της ειδικής ομάδας Project της Apple. Το 2017, ένας χρήστης της πορνογραφικής ιστοσελίδας Reddit, με το ψευδώνυμο deepfake, ανάρτησε ένα πορνογραφικό βίντεο με «πρωταγωνίστρια» την Ισραηλινή ηθοποιό Γκαλ Γκαντότ.
Στην περίπτωση του Τομ Κρουζ η αληθοφάνεια των βίντεο επιβεβαίωσε το πόσο έχει εξελιχθεί η συγκεκριμένη τεχνολογία, εγείροντας ερωτήματα και ανησυχίες. Εξάλλου και μόνο ο όρος «deepfake», που περιλαμβάνει τη λέξη «ψεύτικο», κουβαλάει μια αρνητική χροιά. Ατομα που ειδικεύονται στην ασφάλεια του Διαδικτύου σημειώνουν ότι τα συγκεκριμένα βίντεο αποδεικνύουν ότι έχουμε φτάσει στο σημείο όπου δεν μπορεί να διακρίνει κάποιος τη διαφορά μεταξύ αληθινού και ψεύτικου. Εκτός από τη μάστιγα των fake news, τα deepfakes αναδεικνύονται σε νέο πονοκέφαλο, καθώς διαδίδονται πολύ εύκολα και λόγω του καθολικά προσβάσιμου λογισμικού.
Αξιολόγηση βιογραφικών από υπολογιστές
Πίσω από αυτό βρίσκεται η πρόοδος της τεχνητής νοημοσύνης. Αν έπρεπε να την ορίσει κανείς θα έλεγε ότι πρόκειται για την τεχνολογία όπου μηχανές σκέφτονται και δρουν σαν άνθρωποι, συχνά πολύ πιο αποτελεσματικά και γρήγορα. Εχει εισέλθει στη ζωή μας και αλληλεπιδρούμε μαζί της. Η εφαρμογή της είναι πιο έντονη στα μέσα κοινωνικής δικτύωσης. Οι αλληλεπιδράσεις που έχουμε με άλλους χρήστες διαμορφώνουν τον αλγόριθμο κατά τέτοιον τρόπο ώστε να καταλήγουμε να βλέπουμε πιο συχνά αυτά που μας ενδιαφέρουν ή που ο αλγόριθμος νομίζει ότι μας ενδιαφέρουν επειδή ανοίξαμε κάποιες σελίδες. Προσεχώς η τεχνητή νοημοσύνη αναμένεται να κυριαρχήσει. Θα έχει παρουσία σε όλους τους τομείς, συμβάλλοντας θετικά, από την Υγεία έως τη γεωργία και από την ασφάλεια έως τη μεταποίηση. Μεταξύ άλλων, δημιουργεί και οπτικό περιεχόμενο. Το σύστημα τεχνητής νοημοσύνης που ανέπτυξε η εταιρεία του Ελον Μάσκ δημιούργησε ένα θεατρικό έργο (ολόκληρο το κείμενο) μελετώντας χιλιάδες θεατρικά κείμενα.
Ενας αλγόριθμος τεχνητής νοημοσύνης στο Ισραήλ έχει εκπαιδευτεί, βλέποντας οπτικό υλικό όπως παλιά βίντεο και φωτογραφίες, να ζωντανεύει ανθρώπους που δεν υπάρχουν πλέον στη ζωή. Υπολογιστές δημιούργησαν νέα πορτρέτα, τα οποία ήταν έτσι σχεδιασμένα ώστε να είναι ελκυστικά, σε προσωπικό επίπεδο, σε αυτούς που τα έβλεπαν. Ερευνητές από τα Πανεπιστήμια του Ελσίνκι και της Κοπεγχάγης απέδειξαν ότι ένας υπολογιστής είναι σε θέση να βρει τα χαρακτηριστικά προσώπου που θεωρεί κάποιος ελκυστικά και, με βάση αυτά, να δημιουργήσει νέες εικόνες που ταιριάζουν στα κριτήριά του. Τεράστιες εταιρείες αφήνουν την αξιολόγηση βιογραφικών για θέσεις εργασίας στους υπολογιστές. Εχουν υπάρξει, μάλιστα, καταγγελίες ότι το σύστημα ταυτοποίησης της Uber, το οποίο βασίζεται στους υπολογιστές, είναι άκρως ρατσιστικό! Το λογισμικό αδυνατούσε να αναγνωρίσει και να επαληθεύσει σκουρόχρωμα πρόσωπα, απορρίπτοντας τέτοιους υποψήφιους πελάτες.
Οπως κάθετι, όμως, χρειάζεται ένα αυστηρό πλαίσιο, βασικούς κανόνες και γενικές προδιαγραφές. Ακόμα και το πλαίσιο είναι δύσκολο να διαμορφωθεί. Σύμφωνα με έρευνες, παρατηρούνται σημαντικές διαφορές στον τρόπο με τον οποίο ο δημόσιος και ο ιδιωτικός τομέας αντιλαμβάνονται το μέλλον της Τεχνητής Νοημοσύνης όσον αφορά σε ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου. Και χωρίς αυτό τον διαχωρισμό, όμως, και πάλι εγείρονται σημαντικά ερωτήματα και ανησυχίες για τις πολιτικές, κοινωνικές και ηθικές προεκτάσεις. Πόσο ασφαλείς είμαστε όταν οι υπολογιστές επιλύουν προβλήματα με αυτονομία, μιμούμενοι όχι μόνο την ανθρώπινη ικανότητα μάθησης, αλλά και τους ίδιους τους ανθρώπους; Οταν συλλέγουν στοιχεία, δημιουργούν τα άβατάρ τους, αφαιρώντας από την εξίσωση τη μεταβλητή του ανθρώπινου παράγοντα.
Είναι παραπάνω από σαφές ότι στα λάθος χέρια κάτι τέτοιο θα μπορούσε να είναι όχι απλά παραπλανητικό, αλλά καταστροφικό. Ακόμα και η κατάχρησή του σε ανυποψίαστους δέκτες είναι επιζήμια. Πρωτίστως τίθεται ζήτημα αξιοπιστίας. Μπορεί να κατευθύνει το κοινό που δεν διακρίνει το αληθινό από το κατασκευασμένο. Πλήττονται η ακεραιότητα και η αμεροληψία κάθε πληροφορίας, η οποία μπορεί να είναι κατασκευασμένη από τους διαχειριστές του συστήματος για ίδιον όφελος. Εχουν ήδη υπάρξει θύματα των deepfakes στα social media. Γυναίκες που, ερήμην τους, πρωταγωνίστησαν σε ερωτικά βίντεο. Αυτό σημαίνει ότι ένας εντυπωσιακός όγκος πληροφορίας για καθέναν από εμάς υπάρχει διαθέσιμος και μπορεί να στραφεί εναντίον μας με αυτόν τον τρόπο. Ενας αλγόριθμος, δηλαδή, στοχεύει έναν άνθρωπο. Μέσω των φωτογραφιών και των βίντεο (για να δημιουργηθεί ένα deepfake βίντεο απαιτούνται πολλές φωτογραφίες του προσώπου που θέλει κανείς να μιμηθεί) υποκλέπτει λήψεις από διαφορετικές γωνίες και μιμείται τη συμπεριφορά και τον τρόπο ομιλίας του. Υποκλέπτει, δηλαδή, την ταυτότητά του. Το 96% των deepfakes που κυκλοφορεί στο Διαδίκτυο είναι πορνογραφικής φύσης και αναμένεται η τάση αυτή να συνεχιστεί.
Τι θα συμβεί, όμως, στην περίπτωση που αναβαθμιστούν από εργαλείο ικανοποίησης ερωτικών φαντασιώσεων μερικών ανδρών σε παντοδύναμο πολιτικό εργαλείο; Δύο χρόνια νωρίτερα, το Διαδίκτυο γέμισε από πλαστά βίντεο με πρωταγωνιστή τον Μπαράκ Ομπάμα. Οργανισμοί δηλώνουν ανήσυχοι για το πώς πλαστά βίντεο μπορούν να χρησιμοποιηθούν προκειμένου να υπονομευτεί η ίδια η δημοκρατία. Υποθετικά μπορούν να δημιουργήσουν το απόλυτο χάος, σε παγκόσμιο επίπεδο. Ενα βίντεο, στο οποίο μια ηγετική προσωπικότητα ανακοινώνει μια ψεύτικη είδηση μπορεί να επιφέρει πλήγμα στην παγκόσμια οικονομία και να επηρεάσει εκατομμύρια ανθρώπους. Από τον Δεκέμβριο του 2018 ο αριθμός των deepfakes στο Διαδίκτυο διπλασιάζεται περίπου κάθε έξι μήνες. Η ραγδαία αυτή αύξηση δεν αναμένεται να σταματήσει. Οι ειδικοί παραδέχονται τον επικείμενο κίνδυνο. Υποστηρίζουν ότι οι ειδήμονες μπορεί να εντοπίσουν τα τεχνικά προβλήματα σε τέτοια βίντεο. Αυτό, όμως, δεν αλλάζει το γεγονός ότι ο απλός χρήστης δεν μπορεί.
Ειδήσεις σήμερα
200 χρόνια από το 1821: Αρχίζει η μεγάλη γιορτή - Οι εκδηλώσεις, οι καλεσμένοι, το πρόγραμμα
Γεραπετρίτης: Σοβαρή αναβάθμιση των ελληνοαμερικανικών σχέσεων
Αποφυλακίστηκε και λίγες ώρες μετά διέρρηξε αυτοκίνητο στο κέντρο της Αθήνας
Ακολουθήστε το protothema.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο Protothema.gr
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, τη στιγμή που συμβαίνουν, στο Protothema.gr
ΡΟΗ ΕΙΔΗΣΕΩΝ
Ειδήσεις
Δημοφιλή
Σχολιασμένα