Facebook a apporté des changements à sa plateforme au cours des derniers mois. Lors de sa conférence annuelle F8, l’entreprise a annoncé une refonte de l’application Facebook et un recentrage sur les questions de confidentialité, selon Social Media Today. Cependant, le changement le plus récent a un impact direct sur la liberté d’expression. Ce changement est une réponse au rôle joué par Facebook dans les fusillades de masse comme celle de Christchurch et, plus récemment, celle de la mosquée de Poway. Dans ces cas et dans d’autres, des groupes extrémistes ont utilisé Facebook comme une arme pour étendre leur influence, en prenant Facebook Live pour diffuser leur violence au monde entier. Afin d’empêcher cela, Facebook a annoncé une nouvelle réglementation connue sous le nom de « Individus et situations dangereux » qui interdira aux groupes extrémistes d’être présents sur Facebook.
Cette nouvelle réglementation supprimera les utilisateurs qui « proclament une mission violente ou sont engagés dans la violence », selon les normes communautaires de Facebook. Parmi les personnes impactées figurent le leader de la Nation de l’Islam, Louis Farrakhan, et Alex Jones, un commentateur de droite.
Ce changement peut sembler être un pas dans la bonne direction pour Facebook. Certains font l’éloge de l’entreprise qui met enfin en œuvre des politiques qui traitent de l’influence de Facebook sur les fusillades de masse et la propagation du terrorisme. Cependant, d’autres se demandent si ce changement vaut la peine de supprimer les principes de la liberté d’expression. De plus, qui peut dire si ce changement va réellement réduire le nombre de fusillades de masse. Si ces types de personnes ne sont plus en mesure d’utiliser Facebook, ne peuvent-ils pas simplement passer à une autre plateforme ?
Bien, pour répondre à ces questions, nous devons d’abord considérer le fait que Facebook et les autres plateformes de médias sociaux ne sont pas tenus de respecter les lois du premier amendement. Facebook est une entreprise privée et a tout à fait le droit de décider qui peut utiliser sa plateforme. Le Premier amendement interdit seulement au gouvernement de supprimer la parole.
Considérant cela, nous pourrions ne pas vouloir être trop préoccupés par la liberté d’expression sur Facebook, car pour que les protections du Premier amendement existent sur les médias sociaux, les médias sociaux devraient être sous le contrôle du gouvernement. Il s’agit donc de savoir si les gens veulent que de puissants PDG décident du contenu à censurer ou s’ils préfèrent que le gouvernement prenne ces décisions. Ce concept est l’un de ceux dont beaucoup ont débattu au fur et à mesure que les médias sociaux se sont développés au fil des ans.
En mars, le podcast Joe Rogan Experience (épisode #1258) a discuté de cette question avec le PDG de Twitter, Jack Dorsey, le responsable mondial de Twitter pour le juridique, la politique, la confiance et la sécurité, Vijaya Gadde, et Tim Pool, un journaliste indépendant. Dans le podcast, les quatre personnes ont discuté de la manière dont Twitter décide du type de contenu à supprimer et de ce sur quoi il faut se concentrer. Dorsey a mentionné qu’actuellement, Twitter est plus préoccupé par le type de contenu qui pourrait influencer les élections ou les fake news.
« Voulez-vous vraiment que les entreprises fassent la police de ce qui est vrai et de ce qui ne l’est pas ? » dit Gadde.
« Mais vous, vous le faites », dit Pool.
« Nous essayons de ne pas faire cela. Nous ne voulons pas le faire. Mais les endroits sur lesquels nous nous concentrons, c’est là où nous pensons que les gens vont être lésés par cela d’une manière directe et tangible que nous nous sentons la responsabilité de corriger », dit Gadde en réponse.
La conversation se poursuit en débattant de différents types de contenu que Twitter a supprimé dans le passé, comme le Deadnaming, le misgendering et les insultes raciales. Pool discute de ses préoccupations quant au fait que des entreprises comme Twitter pourraient censurer des contenus avec lesquels elles ne sont pas d’accord, comme des contenus politiques par exemple. Il a raison, mais en fin de compte, Twitter a le droit de le faire s’il le souhaite, mais cela ne veut pas dire qu’il le fait. Peu importe, c’est la décision d’une entreprise privée.
Pensez-vous que ceux qui dirigent des entreprises comme Facebook et Twitter devraient pouvoir faire la police et censurer le contenu ? Ou pensez-vous que le gouvernement devrait intervenir ? Faites-le nous savoir dans les commentaires.
Si vous êtes diffamé, cyberintimidé ou menacé sur les médias sociaux ou sur Internet en général, contactez les avocats spécialisés dans l’Internet de RM Warner Law. Nous pouvons vous guider sur le chemin de la justice. Contactez nous aujourd’hui.