La progression des plateformes sociales en Afrique francophone redéfinit les dynamiques de communication et d’engagement civique. Si ces plateformes constituent désormais des espaces centraux d’expression et de mobilisation, elles posent simultanément des défis majeurs liés à la désinformation, aux discours de haine et à la protection des données. L’enjeu réside dans l’élaboration de mécanismes de gouvernance capables de concilier régulation et respect des libertés fondamentales.
Par la PAFF
La montée en puissance des plateformes numériques en Afrique francophone transforme profondément les modes de communication, d’information et de participation citoyenne. Les réseaux sociaux et les autres espaces numériques sont devenus des vecteurs essentiels d’expression politique, culturelle et sociale, offrant aux citoyens des opportunités inédites de dialogue et de mobilisation. Cependant, cette expansion rapide s’accompagne de défis majeurs dont la désinformation, la propagation de discours de haine, le cyberharcèlement ou la manipulation de l’opinion publique.
Le rapport Datareportal 2025 classe Facebook, Tiktok, X, LinkedIn et Snapchat comme les réseaux sociaux les plus utilisés par les internautes basés en Afrique. Quand ce ne sont pas les États qui restreignent l’accès à ces plateformes lors de crises politiques, ce sont les algorithmes qui, conçus avec des biais culturels, sont source de violation de droit à la liberté d’expression.
L’autre défi, et non des moindres, est celui de la modération. L’Organisation internationale de la Francophonie (OIF), dans son Rapport 2024 sur l’état des pratiques de la démocratie, des droits et des libertés dans l’espace francophone souligne que la protection des données et le contrôle de la vie privée restent insuffisamment régulés dans plusieurs pays francophones.
Comment modérer et réguler les contenus sans porter atteinte aux libertés fondamentales ? La mise en place de mécanismes de gouvernance numérique adaptés au contexte africain devient désormais obligatoire. Elle suppose une articulation fine entre exigences démocratiques, sociologiques, impératifs sécuritaires et réalités techniques propres aux plateformes. C’est à cette question que tente de répondre la présente analyse, fondée sur des données récentes et des avis d’experts africains.
L’usage des plateformes numériques dans la diffusion de la désinformation et des discours de haine en Afrique francophone
L’Afrique, comme les autres continents, connaît depuis une décennie une véritable explosion de l’usage des plateformes numériques, portée par la démocratisation des smartphones et l’extension de la couverture internet mobile. Comme Datareportal, les données de Visibrain, une plateforme de suivi des réseaux sociaux et des médias, indiquent que Facebook, WhatsApp, YouTube, TikTok, Instagram et X figurent parmi les réseaux les plus utilisés sur le continent. Dans le détail, DataReportal offre une perspective plus large et plus précise de la pénétration des réseaux sociaux dans les pays africains. Cette dynamique s’inscrit dans un contexte où 67,5 % de la population mondiale utilise les réseaux sociaux qui ajoute qu’en Afrique francophone, environ 122 millions de personnes utilisent les réseaux sociaux, avec une forte croissance dans des pays comme la Côte d’Ivoire, le Sénégal, le Cameroun ou le Mali. D’ailleurs, l’économie numérique africaine devrait représenter près de 180 milliards de dollars en 2025, soit plus de 5 % du PIB continental selon un rapport de Google et de la Société financière internationale. Fintech, technologies médicales, médias et divertissement, commerce en ligne, mobilité électrique, logistique numérique, bref, les start-ups digitales africaines sont aux avant-postes de l’innovation dans des secteurs porteurs, contribuant ainsi à l’essor des activités liées à l’internet dans le PIB régional, rapporte le document.

On constate cependant que les réseaux sociaux ne sont plus seulement des espaces de divertissement ou de sociabilité. S’ils sont bien des carrefours de circulation de l’information, de mobilisation citoyenne et de débat public, ils portent en eux une fragilité structurelle qui est la viralité des contenus, elle-même amplifiée par les algorithmes. Cela favorise autant la diffusion d’informations utiles que la propagation de la désinformation et de discours haineux. « Bien que la désinformation ait toujours fait partie de l’écologie de l’information et de la communication en Afrique, la nature instantanée des réseaux sociaux a augmenté la fréquence de campagnes d’informations méticuleusement élaborées, intentionnellement fausses et trompeuses », soulignent les auteurs de l’étude Comprendre la désinformation en Afrique publiée en 2023 dans la revue Le Grand Continent.
En outre, comme l’indique l’Institut d’Études de Sécurité (ISS), les campagnes de désinformation numérique, très souvent opérées par des acteurs étrangers, ont pour conséquences immédiates l’érosion de la démocratie sur le continent. Dans les faits, les campagnes de désinformation visant à manipuler les systèmes d’information africains ont presque quadruplé entre 2022 et 2024 entraînant des conséquences déstabilisantes et antidémocratiques, d’après le Centre d’études stratégiques de l’Afrique. Ce n’est donc pas anodin si le Forum économique mondial a classé ce phénomène comme la principale menace mondiale pour les deux prochaines années.
Nature et ampleur des contenus nuisibles en ligne
Les contenus problématiques qui circulent sur ces plateformes prennent des formes diverses et souvent interconnectées. Les rumeurs politiques constituent un premier type, particulièrement visibles lors des périodes électorales, où elles servent à manipuler l’opinion publique ou à discréditer des candidats.
Les discours de haine représentent un autre volet, avec des incitations à la violence, des attaques contre des communautés ou des stigmatisations qui fragilisent la cohésion sociale déjà mise à mal par les conflits armés et politiques. Par exemple, en mai 2021 en Côte d’Ivoire, des violences ont éclaté dans plusieurs communes d’Abidjan entre jeunes ivoiriens et ressortissants nigériens, faisant un mort. Elles ont été provoquées par une vidéo virale censée montrer des Ivoiriens maltraités au Niger alors qu’elle a été tournée au Nigeria, montrant des malfrats appréhendés par des forces de l’ordre. Ce fut aussi le cas en République démocratique du Congo (RDC), lors de la campagne présidentielle de décembre 2023 marquée par une série de discours de haine, dans lesquels les partis politiques ont utilisé leur base ethnique comme fondement politique. Pour prévenir la diffusion de messages séparatistes, le CSAC, organe de régulation des médias en RDC, avait pris des mesures pendant la campagne électorale pour lutter contre les discours incitant à la haine et à la violence.
Un rapport intitulé « Médias sociaux et més/désinformation dans le contexte électoral en RDC », publié en mai 2024 par une équipe de chercheurs du Laboratoire de recherches en sciences de l’information et de la communication (LARSICOM) et l’ONG américaine Internews estime, par exemple, que la RDC constitue un environnement particulièrement vulnérable à la pollution informationnelle, en raison de la fragilité des médias, du faible niveau d’éducation aux médias, de la polarisation politique et de l’usage massif et incontrôlé des réseaux sociaux comme source d’information. L’analyse repose sur un corpus de 520 messages, collectés début décembre 2023 à Kinshasa et dans deux provinces du pays : le Haut-Katanga et le Nord-Kivu.
La désinformation en ligne touche aussi des domaines sensibles comme la santé, la sécurité et les institutions. Plusieurs sources confirment cette tendance, comme cette note de l’UNESCO (2025) qui insiste sur la nécessité de combattre la désinformation et les discours de haine pour protéger la liberté d’expression. Les acteurs se distinguent autant par leur diversité que par la variété de leurs mobiles. Un manuel publié conjointement en 2021 par l’International Republican Institute (IRI), le National Democratic Institute for International Affairs (NDI) et le Stanford Internet Observatory intitulé Guide sur la manipulation de l’information : un conseil pratique pour les élections et au-delà précise que « pour compliquer davantage les choses, si certains de ces acteurs agissent de manière indépendante, d’autres agissent en coordination, vont à contre-courant ou profitent du chaos général et du manque de confiance dans l’environnement informationnel ». Les formations politiques, les mouvements de campagne, les administrations étrangères, les autorités nationales, les groupes malveillants et radicaux, ainsi que les médias dépendants, y sont identifiés comme des acteurs majeurs contribuant au désordre informationnel.
Selon Pierre Nsana, professeur en journalisme à l’Université des sciences de l’information et de la Communication de Kinshasa en RDC, les narratifs désinformationnels autour des puissances étrangères en Afrique puisent leur carburant autant dans l’héritage historique de la guerre froide, que dans le rejet du néocolonialisme occidental, le contexte sécuritaire, la perception de l’Occident et l’exaltation d’un nationalisme africain. « La France, les États-Unis et l’Europe en général sont souvent perçus comme des acteurs du pillage des ressources congolaises et de la déstabilisation politique du pays. Le ressentiment envers les anciennes puissances coloniales alimente un discours qui présente la Russie comme une alternative aux influences occidentales jugées néfastes », argumente-t-il.
Au Mali, les tensions sociales visibles sur le web se cristallisent depuis le blocus imposé à Bamako par le Groupe de soutien à l’islam et aux musulmans (JNIM), affilié à Al-Qaïda. Mis en place au début de septembre 2025, ce blocus visait l’approvisionnement en carburant et a plongé la capitale malienne dans une pénurie sévère dont l’impact se faisait encore ressentir au moment de la mise en ligne de cet article. La situation a ouvert un vif débat entre religieux maliens sur les réseaux sociaux. Certaines figures religieuses, idéologiquement proches du JNIM, et justifiant la résistance armée, ont soutenu ce blocus le présentant comme une forme de « djihad économique » contre le régime militaire, accusé d’incapacité sécuritaire et d’illégitimité. D’autres figures plus modérées y voient une forme d’injustice qui frappe d’abord les populations les plus vulnérables et allant ainsi « à l’encontre des principes de miséricorde de l’islam ». Même si des appels à la paix se sont fait entendre, ceux-ci ont semblé noyés dans ces joutes verbales.
Au Mali, plusieurs crises récentes alimentées par des rumeurs et des fausses informations en ligne (1,2) montrent l’ampleur de la fracture sociale sur le web. Souvent relayés par des groupes WhatsApp ou des pages Facebook locales, ces messages bénéficient d’une amplification algorithmique liée aux partages, aux réactions et aux commentaires. Entre 2022 et 2024, de nombreuses opérations militaires ont été accompagnées de vagues de désinformation et de harcèlement ciblé. (1;2;3)
Le stand Meta à la Game Developers Conference, à San Francisco, le 22 mars 2023. Jeff Chiu / AP
Selon Legrand Bah Traoré, chercheur au Think tank Wathi, des contenus critiques envers les régimes en place sont parfois assimilés à des « atteintes à la sécurité nationale», entraînant suppressions et blocages coordonnés. La page Mali Jolies Dew en est un exemple : plusieurs fois signalée, elle a fini par être supprimée, contraignant son administrateur à en ouvrir de nouvelles.
À partir de ce constat, la question de la modération des contenus s’impose. En Afrique francophone, celle-ci est mal traitée. Pour Emmanuel Vitus Agbenonwossi, président d’Internet Society Togo, tout comme pour Qemal Affagnon, coordinateur régional d’Internet Sans Frontières, la modération fonctionne encore dans la confusion, la précipitation, « souvent sous la pression d’événements politiques ou sociaux » et sans vision commune. Et quand elle existe, regrette Agbenonwossi, elle s’opère en l’absence de transparence sur les critères, de sorte que l’« on signale du contenu sensible sans savoir quels critères sont utilisés ni quelles langues sont prises en compte ». De plus, les algorithmes ne saisissent ni l’ironie, ni les références religieuses, ni les nuances culturelles des contextes africains. Ils sont aussi incapables de détecter la subtilité du wolof, la poésie de l’éwé ou l’humour du lingala, renchérit Affagnon. Résultat : des suppressions de contenus injustifiées, et à l’inverse, des contenus dangereux qui passent entre les mailles du filet. Ces travers peuvent s’expliquer par le fait que la modération, telle qu’on la connaît, est née « au contact de la désinformation, du cyberharcèlement, des images ultra-violentes et de la pédopornographie ». C’est sur cette base que les plateformes ont bâti des outils pour leur détection, nuance-t-il.
Une industrie externalisée vers l’Afrique, mais sans garanties
Les deux spécialistes pointent aussi un paradoxe. L’Afrique est devenue un centre mondial de la main d’œuvre en matière de modération, recrutée la plupart du temps via des contrats de travail à distance, sans toutefois bénéficier d’un cadre légal digne. Remotasks, par exemple, filiale de Scale AI, forme ainsi « des milliers d’étiquetteurs » à travers des camps d’entraînement en Afrique. Hugo, sous-traitant de Meta et Google, gère des centres de modération au Nigeria, au Kenya ou encore en Afrique du Sud.
Cette main-d’œuvre est devenue essentielle au développement de l’intelligence artificielle. Mais elle reste invisible au point où Emmanuel Vitus parle d’une « économie de la souffrance ». Selon lui, ces modérateurs sont « des travailleurs de l’ombre », exposés chaque jour à des contenus traumatisants, pour des salaires dérisoires et sans soutien psychologique. Il cite notamment l’affaire Sama au Kenya comme exemple d’un système où l’« absence de contrat stable, les pressions psychologiques extrêmes et les procédures opaques » sont devenues la norme. Pourtant, un modérateur épuisé ne peut garantir une modération efficace.
En 2023, plusieurs anciens employés ont poursuivi Meta et Sama pour violations des droits du travail et dommages psychologiques. Ce scandale a révélé le coût humain d’une modération globalisée et externalisée.
Sama, ancien sous-traitant de Meta, était chargé de la modération de contenus violents et haineux sur des plateformes comme Facebook. Ce partenariat a pris fin lorsque le contrat de modération est arrivé à échéance et que l’entreprise a décidé d’abandonner cette activité pour se recentrer sur des projets liés à l’annotation de données et à l’intelligence artificielle. Meta, de son côté, poursuit désormais la modération de ses contenus en s’appuyant sur ses équipes internes et d’autres prestataires spécialisés.
Quand modération devient censure
L’autre danger provient, comme il a été mentionné plus haut, des États eux-mêmes, qui n’ont pas une bonne réputation en matière de régulation, rappelle Al Kags, expert kényan en communication et fondateur de l’Open Institute.
La plupart des pays d’Afrique francophone ont aussi institué des lois relatives à la cybercriminalité, à la désinformation ou à la haine en ligne (Sénégal, Côte d’Ivoire, Cameroun, Mali, Burkina Faso, Togo, RDC, RCA). Toutefois, ces lois sont souvent critiquées aussi bien pour le flou juridique qui les entoure que pour les risques de censure qu’elles comportent.
Au Mali, Cheick Oumar Konaré, avocat et spécialiste des délits de presse, relève que l’article 54 de la loi malienne sur la cybercriminalité stipule que les infractions de presse, commises par le biais des technologies de l’information et de la communication (TIC), à l’exception de celles commises par la presse sur Internet, sont punies par les peines de droit commun. Mais, « étant donné que la Loi sur la presse ne comporte pas de dispositions pour la presse en ligne, la distinction entre les délits de presse via les TIC et les délits de presse via internet n’est pas claire. En outre, il y a un manque de précision quant à déterminer si une infraction relève de la loi sur la cybercriminalité, du droit commun ou de la loi sur la presse », a ajouté l’avocat.
D’autres exemples récents recensés dans les travaux menés par l’Institut africain pour les politiques de développement (AFIDEP) et l’organisation Global Integrity révèlent que la plupart des gouvernements africains continuent de restreindre les libertés d’information et d’expression. En Éthiopie par exemple, lors du conflit du Tigré, où la désinformation en ligne a alimenté les tensions ethniques, les réseaux sociaux ont été accusés d’amplifier des discours haineux et de contribuer à des violations, comme l’a documenté Amnesty International. Un autre exemple marquant de censure gouvernementale sur les réseaux sociaux est celui de l’Ouganda en janvier 2021, où le gouvernement a bloqué l’accès à Facebook, X, WhatsApp et Instagram juste avant l’élection présidentielle. Officiellement motivée par la lutte contre la désinformation, cette mesure avait été dénoncée par Amnesty International et Human Rights Watch comme une atteinte directe à la liberté d’expression et au droit à l’information, rappelant que les réseaux sociaux étaient devenus un outil central de mobilisation citoyenne.

On le voit, ces dispositifs légaux de modération peuvent être détournés à des fins politiques. Selon Bréma Ely Dicko, enseignant chercheur à l’Université des Lettres et des Sciences Humaines (ULSH) de Bamako, la modération dans certains contextes de transition ou d’élections « a contribué au contrôle politique », avec des arrestations, des censures sélectives et des menaces informelles.
L’autre facteur qui épaissit le flou sur le sujet, est la fin annoncée du partenariat entre Meta et des vérificateurs indépendants, au profit des « notes communautaires », inspirées de X. Qemal Affagnon y voit un danger clair. « Les commentaires sur l’exactitude des posts sont laissés aux utilisateurs » dont le crédit ne peut être établi. Or, sans modérateurs humains formés, les outils automatiques produisent des décisions injustes et incohérentes.
De l’équilibre entre régulation et liberté d’expression
D’un côté, la modération est nécessaire pour limiter la propagation de la désinformation, des discours de haine et des contenus violents dont les conséquences sur la cohésion sociale et la démocratie ont été précédemment citées. D’un autre côté, elle comporte le risque de dérive vers la censure, notamment lorsque les États ou les plateformes utilisent la régulation comme prétexte pour restreindre les voix critiques ou museler l’opposition politique et la société civile. L’équilibre consisterait donc à protéger les citoyens sans étouffer le débat public. En fait, « la modération constitue intrinsèquement une forme de censure », rappelle Al Kags, et les cas cités rappellent que la modération doit être encadrée par des principes clairs et transparents.
Pour ce faire, une première piste consiste à renforcer la transparence des algorithmes. Les systèmes de recommandation et de filtrage jouent un rôle central dans la visibilité des contenus, mais leur fonctionnement reste largement opaque. En Europe, le Digital Services Act (DSA) impose aux grandes plateformes de publier des rapports détaillés sur la manière dont leurs algorithmes modèrent et hiérarchisent les contenus. Une telle exigence, adaptée au contexte africain, permettrait de limiter les suspicions de censure arbitraire et de donner aux utilisateurs les moyens de comprendre pourquoi certains contenus sont supprimés ou mis en avant.
Une deuxième piste consiste au recours à des instances indépendantes de régulation. Plutôt que de confier la modération exclusivement aux plateformes ou aux États, des organes mixtes, associant régulateurs, chercheurs, journalistes et représentants de la société civile, religieux, etc. pourraient être chargés de contrôler les décisions de suppression et de sanction, comme le pense Fabrice Makem, expert en Éducation aux Médias et à l’Information (EMI). Dans ce sens, l’expérience du Conseil de surveillance de Meta (Oversight Board), qui vise à améliorer la façon dont Meta traite les individus et les communautés connectées à travers le monde via ses propres plateformes (Facebook, Threads’ et Instagram), montre qu’il est possible de créer des mécanismes de recours indépendants. Les politiques en matière de numériques seront d’autant plus légitimes et efficaces qu’elles reflètent la diversité des acteurs et la réalité des besoins. Cette forme de mobilisation est possible, puisque, comme le rappelle Al Kags, « cette ingénierie sociale existe déjà dans nos communautés traditionnelles. Il suffit de l’adapter à internet, plutôt que d’adopter systématiquement les solutions technologiques proposées de l’extérieur ».Ce modèle africain impliquerait par exemple de déporter en ligne nos usages culturels de dialogue communautaires « comme l’arbre à palabre dans la gestion des conflits en ligne, et surtout, d’investir dans des datasets (données) locaux pour entraîner les IA à comprendre nos langues (Fon, Yoruba, Ewé, Swahili, etc.) », renchérit Edouard Assogba, expert en marketing digital.
| ENCADRÉ : Au Kenya, le projet Worldcoin, porté par Sam Altman, PDG d’Open AI, a convaincu plus de 350 000 personnes de se faire scanner l’iris en échange d’une vingtaine de jetons de cryptomonnaie, soit une quarantaine d’euros, suscitant un véritable engouement dans un contexte de vie chère et de chômage élevé. Face à cette nouvelle fièvre et aux longues files d’attente observées à Nairobi, le gouvernement a suspendu les opérations début août 2025, puis des députés ont recommandé l’arrêt définitif du projet, qu’ils ont qualifié de « menace contre l’État » et d’« espionnage ». Les autorités kényanes s’inquiètent à la fois du sort réservé aux données biométriques collectées (risques de stockage opaque et de revente illégale) et du danger que représenterait, pour le système financier national, l’essor d’une monnaie numérique décentralisée adossée à un dispositif d’identification biométrique présenté comme anonyme. |
L’autre levier incontournable est l’EMI. La modération technique ne peut prospérer si les citoyens ne disposent pas d’outils nécessaires pour exercer leur esprit critique. Et contrairement aux idées reçues, l’EMI n’est pas une option, mais un puissant levier de construction de la citoyenneté, défend Fabrice Makem, par ailleurs Secrétaire général d’EDUK-MEDIA, une association camerounaise d’éducation aux médias. Former les jeunes, les journalistes, les enseignants et les autres communautés à reconnaître les infox, à vérifier les sources et à comprendre les mécanismes de manipulation est une condition indispensable pour réduire la dépendance aux filtres imposés par les plateformes. L’EMI permet donc, souligne Makem, de donner à chaque citoyen des compétences nécessaires pour analyser, vérifier, comprendre les intentions derrière des contenus médiatiques et faire des choix éclairés et responsables en ligne.
Qu’il s’agisse d’un Digital Service Act, ou d’un AI Act africain, l’idée d’un African book qui serait la boussole des politiques publiques africaines en matière de technologie est soutenue par Al Kags. Aussi les États africains doivent-ils combler le gap des rapports de force qui existe entre eux et les géants mondiaux de la Big tech. Cela passe selon l’expert kényan par une intégration continentale renforcée et une mobilité accrue des talents dont disposent déjà le continent, mais dont la mise à profit reste entravée par le manque de coordination politique et d’investissements stratégiques.
Isolément, fait d’ailleurs constater Edouard Assogba, les États « pèsent peu face à Meta ou Google (…) Une législation harmonisée à l’échelle continentale nous donnerait un pouvoir de négociation réel pour exiger le respect de nos lois et de notre souveraineté numérique ». Mais surtout, cette émancipation vis-à-vis des plateformes doit s’opérer par le biais d’investissement dans des data centers sur le sol africain ainsi que la création de plateformes (réseaux sociaux et IA) authentiquement africaines.
Selon le burkinabè Harouna Simbo Drabo, chercheur en géopolitique du cyberespace, un Digital Service Act africain permettrait de reprendre la main, d’affirmer une souveraineté numérique et de garantir plus de transparence, plus de fiabilité dans l’information et une meilleure protection des utilisateurs. Pour Drabo, la mise en place d’un Digital Service Act africain doit s’appuyer sur un rôle moteur de l’Union africaine, en étroite collaboration avec la communauté de résilience informationnelle pour définir les règles et ouvrir un dialogue structuré avec les plateformes. « Ce cadre doit s’adosser sur les dynamiques contextuelles africaines dans le champs de la transparence des systèmes algorithmiques, la responsabilité des plateformes qui opèrent sur le continent, la coopération dans la lutte contre les contenus trompeurs ou illégaux et la mise en place de méthodes de modération adaptées aux contextes locaux. Le modèle européen peut servir d’inspiration, à condition que sa transposition soit repensée à travers une perspective pleinement africaine », souligne le chercheur.
Des initiatives comme GhanaWeb montrent la voie. Leur modèle alterne signalement communautaire et validation humaine. Pour Emmanuel Vitus, « cette approche hybride prouve qu’il est possible de créer une modération adaptée à nos réalités linguistiques et sociales ».
Pour conclure, la modération des contenus numériques en Afrique francophone s’impose aujourd’hui comme un enjeu majeur face à l’essor de la désinformation, des discours de haine et des manipulations en ligne. Si les cadres juridiques se sont progressivement étoffés dans plusieurs pays, ils demeurent largement marqués par une approche déséquilibrée, privilégiant la répression des contenus jugés « dangereux » au détriment d’un encadrement clair des plateformes et d’une protection effective des droits numériques. Sur le terrain, les limites sont manifestes. Les outils de modération automatisée peinent à interpréter les contenus diffusés en langues locales, faute de données et d’entraînements adaptés, tandis que des dispositifs techniques et organisationnels, largement conçus hors du continent, échouent à saisir les nuances culturelles, linguistiques et politiques propres aux sociétés africaines. Comme le souligne Yannick Boka, spécialiste en communication digitale, les systèmes actuels restent avant tout pensés pour les contextes européens et nord-américains, reléguant l’Afrique francophone au rang de zone sous-priorisée, malgré des risques élevés en matière de violence en ligne et manipulation de l’information.
Cette dynamique suppose enfin un rôle clarifié des États, appelés à agir comme arbitres et garants des droits plutôt que comme censeurs techniques. La co-régulation, associant plateformes, autorités publiques, journalistes, fact-checkeurs, société civile et chercheurs, apparaît comme une voie privilégiée pour concilier sécurité numérique, intégrité électorale et libertés publiques. Encore faut-il, comme le rappelle Boka, doter les régulateurs des compétences matérielles, territoriales, humaines et financières nécessaires à l’exercice effectif de ces nouvelles missions, notamment face aux évolutions technologiques rapides. Mais, qu’à cela ne tienne, il urge que cela se fasse « car les algorithmes ne sont plus que des programmeurs de code mais des éditeurs de mode de pensées de comportements », prévient Harouna Simbo Drabo.
| Cet article a été publié dans le cadre de notre collaboration éditoriale avec la Plateforme africaine des fact-checkers francophones (PAFF) qui est une initiative éditoriale regroupant plusieurs organisations médiatiques pionnières dans le domaine de la vérification des faits en Afrique dont Africa Check (Bureau Afrique francophone – Sénégal), Badona (Bénin), Balobaki Check (République démocratique du Congo), Benbere Verif (Mali), Centrafrique Check (Centrafrique), Congo Check (République démocratique du Congo), DataCheck (Cameroun), FasoCheck (Burkina Faso), Ivoire Check (Côte d’Ivoire) et TogoCheck (Togo). |