Νέα στοιχεία που επιβεβαιώνουν ότι το Facebook είχε πλήρη επίγνωση του αρνητικού αντίκτυπου των πλατφορμών του, ήρθαν στο φως τη Δευτέρα, τόσο κατά την κατάθεση της Φράνσις Χάουγκεν ενώπιον του βρετανικού κοινοβουλίου, όσο και μέσω μιας σειράς εκθέσεων που βασίζονται σε εσωτερικά έγγραφα που διέρρευσε η μάρτυρας δημοσίου συμφέροντος, τα λεγόμενα «Facebook Papers».
Κατά τη διάρκεια της κατάθεσης που διήρκησε 2,5 ώρες, η Χάουγκεν δήλωσε επανειλημμένα ότι το Facebook βάζει «την ανάπτυξη πάνω από την ασφάλεια», ιδίως στις αναπτυσσόμενες περιοχές του κόσμου, όπου η εταιρεία δεν διαθέτει γλωσσική ή πολιτιστική τεχνογνωσία για να ρυθμίζει το περιεχόμενο χωρίς να ενισχύει τον διχασμό μεταξύ των χρηστών.
Ακολουθούν οι πιο εκρηκτικές αποκαλύψεις από την κατάθεση της Χάουγκεν στις 25 Οκτωβρίου και τα εσωτερικά έγγραφα.
Το Facebook δεν μετριάζει το επιβλαβές περιεχόμενο στις αναπτυσσόμενες χώρες
Τα έγγραφα, τα οποία επιβεβαιώθηκαν από πολλά ειδησεογραφικά πρακτορεία, αποκαλύπτουν ότι τα προβλήματα με τη ρητορική μίσους και την παραπληροφόρηση είναι δραματικά χειρότερα στον αναπτυσσόμενο κόσμο, όπου ο έλεγχος του περιεχομένου είναι συχνά ελλιπής. Στην Ινδία, το Facebook φέρεται να μην διέθετε αρκετούς πόρους ή τεχνογνωσία στις 22 επίσημα αναγνωρισμένες γλώσσες της χώρας, με αποτέλεσμα η εταιρεία να μην μπορεί να αντιμετωπίσει την αύξηση των ισλαμοφοβικών αναρτήσεων και των ψεύτικων λογαριασμών που συνδέονται με το κυβερνών κόμμα της χώρας και τα στελέχη της αντιπολίτευσης.
Σύμφωνα με ένα εσωτερικό έγγραφο, το 87% του ετήσιου παγκόσμιου προϋπολογισμού του Facebook που δαπανάται για την ταξινόμηση της παραπληροφόρησης πηγαίνει στις Ηνωμένες Πολιτείες, ενώ το 13% προορίζεται για τον υπόλοιπο κόσμο – παρά το γεγονός ότι οι χρήστες της Βόρειας Αμερικής αποτελούν μόλις το 10% των καθημερινών χρηστών του.
Οι μελέτες του Facebook αποκαλύπτουν ότι η εταιρεία εισέρχεται σε χώρες χωρίς να κατανοεί πλήρως τις πιθανές επιπτώσεις της στις τοπικές κοινότητες, ιδίως όσον αφορά τον πολιτισμό και την πολιτική, και στη συνέχεια δεν παρέχει επαρκείς πόρους για τον μετριασμό αυτών των επιπτώσεων.
Κατά τη διάρκεια της κατάθεσής της τη Δευτέρα, η Χάουγκεν δήλωσε ότι η στρατηγική του Facebook είναι να απομακρύνει το επιβλαβές περιεχόμενο μόνο αφού έχει «ξεσπάσει η κρίση», αντί να κάνει την πλατφόρμα ασφαλή εξαρχής.
Η τεχνητή νοημοσύνη του Facebook δεν εντοπίζει το επικίνδυνο περιεχόμενο σε μη αγγλόφωνες χώρες
Ο αλγόριθμος του Facebook απαγόρευσε λανθασμένα ένα hashtag που αναφερόταν στο τέμενος Αλ Άκσα στην Παλιά Πόλη της Ιερουσαλήμ, επειδή νόμιζε ότι αντιπροσώπευε τη μαχητική ομάδα Ταξιαρχία Μαρτύρων Αλ Άκσα, ένα ένοπλο παρακλάδι του κόμματος Φατάχ, σύμφωνα με εσωτερικά έγγραφα. Η εταιρεία ζήτησε αργότερα συγγνώμη, αλλά η τυχαία αφαίρεση του περιεχομένου χρησιμεύει ως λαμπρό παράδειγμα για το πώς οι αλγόριθμοι του γίγαντα των μέσων κοινωνικής δικτύωσης μπορούν να καταπνίξουν τον πολιτικό λόγο, εξαιτίας των γλωσσικών εμποδίων και της έλλειψης πόρων εκτός της Βόρειας Αμερικής.
«Το Facebook λέει ότι υποστηρίζει 50 γλώσσες, ενώ στην πραγματικότητα οι περισσότερες από αυτές, έχουν ένα μικρό κλάσμα των συστημάτων ασφάλειας που έχουν τα αγγλικά», δήλωσε η Χάουγκεν στους Βρετανούς νομοθέτες.
Η εταιρεία βασίζεται εδώ και καιρό σε συστήματα τεχνητής νοημοσύνης, σε συνδυασμό με τους ανθρώπινους ελέγχους, για να αφαιρούν δυνητικά επικίνδυνο περιεχόμενο από τις πλατφόρμες της.
Ένα έγγραφο έδειξε ότι το 2020, η εταιρεία δεν διέθετε αλγόριθμους ελέγχου για να εντοπίσει τυχόν παραπληροφόρηση στη Βιρμανική γλώσσα της Μιανμάρ, ή τη ρητορική μίσους στις αιθιοπικές γλώσσες Ορόμο ή Αμχαρικά.
Το Facebook χαρακτήρισε την προεκλογική παραπληροφόρηση ως «επιβλαβές, μη παραβατικό» περιεχόμενο
Εσωτερικά έγγραφα που επίσης επιβεβαιώθηκαν από πολλά ειδησεογραφικά πρακτορεία δείχνουν ότι οι υπάλληλοι του Facebook ανέφεραν επανειλημμένα το θέμα της παραπληροφόρησης και του εμπρηστικού περιεχόμενου στην εταιρεία κατά τη διάρκεια των προεδρικών εκλογών του 2020, αλλά οι ηγέτες της εταιρείας έκαναν ελάχιστα για να αντιμετωπίσουν το θέμα. Οι αναρτήσεις που υποστήριζαν εκλογική νοθεία χαρακτηρίστηκαν από την εταιρεία ως «επιβλαβές, μη παραβατικό» περιεχόμενο – μια προβληματική κατηγορία που περιλαμβάνει επίσης θεωρίες συνωμοσίας και αντιεμβολιαστικό περιεχόμενο.
Οι ψευδείς αφηγήσεις για την εκλογική νοθεία ανήκαν σε αυτή την κατηγορία περιεχομένου, η οποία σύμφωνα με τις πολιτικές του Facebook δεν παραβιάζει κανέναν κανόνα. Πρόκειται για μια γκρίζα ζώνη που επιτρέπει στους χρήστες να διαδίδουν ισχυρισμούς για κλεμμένες εκλογές, χωρίς να παραβιάζουν κανένα όρο που θα δικαιολογούσε την αφαίρεση του περιεχομένου.
Παρόλο που το Facebook απαγόρευσε την ομάδα Stop the Steal στις 5 Νοεμβρίου επειδή αμφισβήτησε τη νομιμότητα των εκλογών και υποκίνησε σε βία, η ομάδα είχε ήδη συγκεντρώσει περισσότερα από 360.000 μέλη – και νέες σχετικές ομάδες άρχισαν να εμφανίζονται καθημερινά στην πλατφόρμα.
Το Facebook γνώριζε ότι στην πλατφόρμα του πωλούνταν οικιακές βοηθοί
Εσωτερικά έγγραφα δείχνουν ότι το Facebook παραδέχτηκε ότι «δεν εντόπιζε επαρκώς τις επιβεβαιωμένες καταχρηστικές δραστηριότητες», καθώς δεν έλαβε μέτρα μετά την καταγγελία των Φιλιππινέζων οικιακών βοηθών για κακοποίηση και πώληση στην πλατφόρμα, σύμφωνα με το Associated Press.
«Κατά την έρευνά μας, οι οικιακές βοηθοί παραπονούνταν συχνά στα πρακτορεία με τα οποία συνεργάζονταν, ότι ήταν κλειδωμένες στα σπίτια τους, πεινούσαν, εξαναγκάζονταν να παρατείνουν τις συμβάσεις τους επ’ αόριστον, έμεναν απλήρωτες και πωλούνταν επανειλημμένα σε άλλους εργοδότες χωρίς τη συγκατάθεσή τους», αναφέρει ένα έγγραφο του Facebook. «Σε απάντηση, τα πρακτορεία συνήθως τους έλεγαν να είναι πιο ευχάριστες».
Η Apple απείλησε να αφαιρέσει το Facebook και το Instagram από τις εφαρμογές της, αλλά άλλαξε γνώμη αφού ο γίγαντας των μέσων κοινωνικής δικτύωσης αφαίρεσε 1.000 λογαριασμούς που συνδέονταν με την πώληση οικιακών βοηθών στην πλατφόρμα του. Παρόλο που το Facebook έχει έκτοτε πατάξει αυτή την παράνομη δραστηριότητα, ακτιβιστές ανθρώπινων δικαιωμάτων κατήγγειλαν ότι φωτογραφίες των οικιακών βοηθών μαζί με την ηλικία τους και την τιμή στην οποία πωλούνται, υπάρχουν ακόμη στην πλατφόρμα.
Το Facebook σκέφτηκε να καταργήσει το Like
Το 2019, το Facebook εξέτασε τον τρόπο με τον οποίο οι άνθρωποι θα αλληλεπιδρούσαν με το περιεχόμενο, εάν δεν υπήρχε η δυνατότητα του Like στο Instagram, γεγονός που υποδηλώνει ότι η εταιρεία γνώριζε ότι η λειτουργία αυτή θα μπορούσε να έχει αρνητικό αντίκτυπο στην ευημερία των χρηστών της.
Σύμφωνα με τα έγγραφα, το Like είχε μερικές φορές προκαλέσει στους νεότερους χρήστες της πλατφόρμας «άγχος και αγωνία», όταν οι αναρτήσεις δεν έπαιρναν πολλά likes από τους φίλους τους. Όταν το Like ήταν κρυμμένο, οι χρήστες αλληλεπιδρούσαν λιγότερο με τις αναρτήσεις και τις διαφημίσεις, ωστόσο δεν αισθάνθηκαν ότι ανακουφίστηκε το άγχος τους.
Όταν ρωτήθηκε γιατί το Facebook δεν έχει κάνει το Instagram ασφαλέστερο για τα παιδιά, η Χάουγκεν δήλωσε ότι η εταιρεία γνωρίζει ότι «οι νεαροί χρήστες είναι το μέλλον της πλατφόρμας και όσο νωρίτερα τους αποκτήσουν, τόσο πιο πιθανό είναι να εθιστούν».
ΠΗΓΗ: The Time
Κάνε like στη σελίδα μας στο Facebook
Ακολούθησε μας στο Twitter
Κάνε εγγραφή στο κανάλι μας στο Youtube
– Αναφέρεται ως πηγή το ertnews.gr στο σημείο όπου γίνεται η αναφορά.
– Στο τέλος του άρθρου ως Πηγή
– Σε ένα από τα δύο σημεία να υπάρχει ενεργός σύνδεσμος