Η Τεχνητή Νοημοσύνη θα διαδραματίσει αναμφισβήτητα καθοριστικό ρόλο ως τεχνολογία του μέλλοντος, ωστόσο εγείρεται ένα βασικό ερώτημα: Θα είναι χρήσιμη ή επιβλαβής για την ανθρωπότητα;

Σίγουρα στην περίπτωση των deepfakes, η Τεχνητή Νοημοσύνη ενέχει κακόβουλο χαρακτήρα. Τα deepfakes είναι η δημιουργία ψεύτικων φωτογραφιών ή βίντεο μέσω τεχνητής νοημοσύνης, τα οποία είναι σε αξιοθαύμαστο βαθμό τόσο πειστικά που ένα άπειρο μάτι δεν μπορεί να διακρίνει την πλαστότητα που υποκρύπτουν.

Τα deepfake βίντεο προέρχονται από τη λέξη «deep = βαθιά» από τη «βαθιά μάθηση» και «fake = ψεύτικο»». Η βαθιά μάθηση είναι μια προηγμένη μέθοδος Τεχνητής Νοημοσύνης (AI) που χρησιμοποιεί πολλαπλά επίπεδα αλγορίθμων μηχανικής εκμάθησης για την εξαγωγή δυνατοτήτων προοδευτικά υψηλότερου επιπέδου από μη δομημένα δεδομένα – όπως το ανθρώπινο πρόσωπο.

Ο έλεγχος για τον εντοπισμό και την ανίχνευση ενός deepfake και της πηγής του αποτελεί δύσκολη υπόθεση, ιδίως στα μέσα κοινωνικής δικτύωσης όπου μία φωτογραφία ή ένα βίντεο αναμεταδίδονται με ταχύτατο ρυθμό.

Ωστόσο, η Facebook υποστηρίζει ότι βρήκε τη λύση. Η εταιρεία σε συνεργασία με το Πανεπιστήμιο του Michigan ανέπτυξαν ένα είδος τεχνητής νοημοσύνης που αφενός ανιχνεύει deepfakes, αφετέρου ανακαλύπτει από πού προήλθε.

Σύμφωνα με τους ερευνητές: Αρχίζουμε με την εικόνα και στη συνέχεια εργαζόμαστε για την ανακάλυψη ιδιοτήτων του μοντέλου που χρησιμοποιήθηκε για τη δημιουργία της εικόνας.

Με την ανάλυση της απόδοσης της εικόνας για την αναγνώρισή της, μπορούμε να συμπεράνουμε περισσότερες πληροφορίες σχετικά με το γενετικό μοντέλο που χρησιμοποιήθηκε για τη δημιουργία ενός deepfake, αναγνωρίζοντας ό,τι ενδεχομένως δεν είχε αναγνωριστεί πρότερα

Αυτό δεν λειτουργεί μόνο σε ένα deepfake, αλλά μπορεί επίσης να συγκρίνει και να εντοπίσει ομοιότητες σε μια σειρά από deepfakes.

Συνεπώς, γίνεται αντιληπτό ότι αυτό το σύστημα θα μπορούσε να χρησιμοποιηθεί για τον εντοπισμό deepfakes πίσω από μία μόνο πηγή δημιουργίας, καθιστώντας δυνητικά ευκολότερη την παρακολούθηση συντονισμένων εκστρατειών παραπληροφόρησης.

Spread the love