Enquête de moralité: COMMENT L’IA PEUT SUPPLEER LES RECHERCHES COÛTEUSES

Enquête de moralité: COMMENT L’IA PEUT SUPPLEER LES RECHERCHES COÛTEUSES

Le passage d’une enquête de moralité « à l’ancienne » — basée sur le témoignage humain et le voisinage — à une traçabilité algorithmique quasi permanente, n’est-il pas la solution tant espérée pour rationnalier nos ressources?​L’idée que l’IA puisse suppléer l’enquête de moralité traditionnelle repose sur plusieurs piliers technologiques et sociétaux :​

1. La fin de l’anonymat comportemental​

Auparavant, l’enquête de moralité nécessitait du temps et des déplacements. Aujourd’hui, notre « double numérique » parle pour nous. Les algorithmes de Big Data permettent de compiler :​Les traces numériques : Publications, interactions sur les réseaux sociaux et historiques de navigation.​La géolocalisation : Fréquentation de certains lieux ou proximités avec des cercles spécifiques.​Les transactions : Habitudes de consommation qui dessinent un profil psychologique et éthique très précis.​

2. De la vérification de faits à l’analyse prédictive

L’IA ne se contente plus de vérifier si un individu a commis un acte répréhensible (le casier judiciaire classique). Elle permet désormais une analyse de réputation en temps réel. Dans certains pays, on voit déjà apparaître des systèmes de « crédit social » où l’IA attribue une note de moralité basée sur le civisme numérique. Au Sénégal, l’investissement dans la souveraineté numérique et la cybersécurité montre bien cette volonté de ne pas laisser ces données dans un « vide juridique » ou technologique.

​3. Les limites du « tout numérique »

​Si l’IA est d’une efficacité redoutable pour ausculter les faits et gestes, elle comporte cependant des risques que le milieu de la sécurité et du droit doit scruter :​L’absence de nuances : Une machine peut interpréter un propos ironique ou une recherche documentaire comme une preuve de radicalité ou d’immoralité. Mais il manquera toujours la tonalité du discours ou le caractère humoristique ou caricatural. Le cousinage à plaisanterie n’est pas pris en compte par l’IA. Il s’agit là d’une limite objective de l’IA qui n’a ni émotion ni ressenti.​La manipulation des données : Le vol d’identité ou les deepfakes peuvent fausser une « enquête de moralité » automatisée. D’où l’importance de sécuriser les données personnelles.​Le droit à l’oubli : L’IA a une mémoire infinie, là où l’humain pouvait accorder le pardon ou l’oubli après une erreur de jeunesse.​

Une nouvelle éthique de la responsabilité

Cette réalité impose une nouvelle forme de vigilance individuelle. Puisque chaque acte laisse une empreinte indélébile, la tempérance et la cohérence entre nos actes publics et nos comportements privés deviennent des impératifs de survie sociale et professionnelle.​L’IA n’est plus seulement un outil de travail, elle devient le miroir — parfois déformant, souvent impitoyable — de notre intégrité.​

Surveillance numérique sur la déontologie du journalisme

La mutation de la surveillance et du contrôle social à l’ère du numérique soulève donc la lancinante question du passage d’une enquête de moralité « à l’ancienne » — basée sur le témoignage humain et le voisinage — à une traçabilité algorithmique quasi permanente.​L’enquête de moralité traditionnelle repose sur plusieurs piliers technologiques et sociétaux comme souligné plus haut:​

1. La fin de l’anonymat comportemental​

Auparavant, l’enquête de moralité nécessitait du temps et des déplacements. Aujourd’hui, notre « double numérique » parle pour nous. Les algorithmes de Big Data permettent de compiler :​Les traces numériques : Publications, interactions sur les réseaux sociaux et historiques de navigation.​La géolocalisation : Fréquentation de certains lieux ou proximités avec des cercles spécifiques.​Les transactions : Habitudes de consommation qui dessinent un profil psychologique et éthique très précis.​

2. De la vérification de faits à l’analyse prédictive

​L’IA ne se contente plus de vérifier si un individu a commis un acte répréhensible (le casier judiciaire classique). Elle permet désormais une analyse de réputation en temps réel. Dans certains pays, on voit déjà apparaître des systèmes de « crédit social » où l’IA attribue une note de moralité basée sur le civisme numérique. Au Sénégal, l’investissement dans la souveraineté numérique et la cybersécurité montre bien cette volonté de ne pas laisser ces données dans un « vide juridique » ou technologique.

​3. Les limites du « tout numérique »

​Si l’IA est d’une efficacité redoutable pour ausculter les faits et gestes, elle comporte des risques que le milieu de la sécurité et du droit doit scruter :​L’absence de nuances : Une machine peut interpréter un propos ironique ou une recherche documentaire comme une preuve de radicalité ou d’immoralité.​La manipulation des données :

Le vol d’identité ou les deepfakes peuvent fausser une « enquête de moralité » automatisée.​

Le droit à l’oubli : L’IA a une mémoire infinie, là où l’humain pouvait accorder le pardon ou l’oubli après une erreur de jeunesse.​Une nouvelle éthique de la responsabilité​Cette réalité impose une nouvelle forme de vigilance individuelle. Puisque chaque acte laisse une empreinte indélébile, la tempérance et la cohérence entre nos actes publics et nos comportements privés deviennent des impératifs de survie sociale et professionnelle.​L’IA n’est plus seulement un outil de travail, elle devient le miroir — parfois déformant, souvent impitoyable — de notre intégrité.​C’est un défi de taille, car l’IA change radicalement la manière dont l’information est collectée, vérifiée et diffusée, tout en redéfinissant la notion même de « source » et de « crédibilité ».​Pour un secteur aussi stratégique que les médias au Sénégal, cette transition vers une « enquête de moralité numérique » permanente soulève des enjeux déontologiques majeurs :​

1. La protection des sources à l’ère de la traçabilité​

Le secret professionnel est le socle du journalisme d’enquête. Or, si l’IA et les services de sécurité ont une « maîtrise des données numériques », l’anonymat d’un lanceur d’alerte devient techniquement presque impossible.​

Le risque : L’IA peut croiser des métadonnées (heures de connexion, localisation, échanges cryptés mais fréquents) pour identifier un contact avant même que l’article ne soit publié.​L’enjeu : Cela impose aux journalistes une hygiène numérique de niveau militaire pour protéger l’intégrité de leurs investigations.​

2. Le « Journalisme algorithmique » vs Le Fact-checking

​L’IA peut vérifier les faits (fact-checking) à une vitesse fulgurante, mais elle peine à saisir l’intentionnalité ou le contexte socio-politique propre au terrain sénégalais.​La déontologie : Le journaliste ne peut plus se contenter de rapporter un fait ; il doit devenir l’arbitre de la vérité contextuelle face à une machine qui ne traite que des données brutes.​La vigilance : Face aux deepfakes et aux manipulations de données, l’enquête de moralité doit aussi s’appliquer aux contenus générés par l’IA elle-même.​

3. La gestion de l’information publique et la Souveraineté

​L’investissement du Sénégal dans l’outil numérique pose la question de la Souveraineté des données.​Si les infrastructures de stockage (Cloud) ou les algorithmes de traitement appartiennent à des puissances étrangères, l’auscultation des citoyens et des services publics échappe au contrôle national.​Pour le régulateur et le directeur de publication, l’enjeu est de veiller à ce que l’IA serve la transparence publique sans devenir un instrument de censure ou d’autocensure par peur de la « trace éternelle ».​

4. La responsabilité éditoriale​

Puisque l’IA « vérifie les faits et gestes de chacun », elle peut aussi être utilisée pour discréditer un journaliste en exhumant des données privées ou anciennes pour nuire à sa crédibilité actuelle. La cohérence entre la vie numérique et la posture professionnelle devient, comme vous l’avez noté, un impératif de survie.​Une nouvelle charte de conduite ?​On pourrait imaginer que les rédactions et les écoles de formation intègrent désormais des modules sur la « Morale de l’Algorithme ». Il ne s’agit plus seulement de bien écrire, mais de savoir naviguer dans un environnement où l’on est observé autant qu’on observe.​Concentrons-nous sur un aspect concret de votre réflexion : comment cette « auscultation » par l’IA transforme la gouvernance des grands projets d’infrastructure au Sénégal.​Dans un pays où l’investissement public est un moteur de croissance, l’IA ne se contente pas de surveiller les individus ; elle devient un outil d’audit permanent des réalisations physiques et financières.​

1. La surveillance par imagerie satellitaire et drones

​L’enquête de moralité s’applique désormais aux infrastructures elles-mêmes. Grâce à l’IA de reconnaissance d’images, l’État peut vérifier en temps réel :​

  • La conformité des chantiers : Comparer l’état d’avancement réel d’un pont ou d’une route avec les rapports de facturation.​
  • La détection des anomalies : Identifier des faiblesses structurelles ou des détournements de matériaux (stockage anormal, mouvements de terre non prévus) avant même qu’un inspecteur physique ne se déplace.​
  • L’impact environnemental : Surveiller l’évolution du couvert forestier ou des zones agricoles autour des grands axes pour éviter les spéculations foncières illicites.

2. L’audit algorithmique de la dépense publique

​L’exploitation judicieuse des données numériques permet de croiser les fichiers :​

Le profilage des prestataires : L’IA peut détecter des liens de parenté ou des intérêts croisés entre des décideurs publics et des entreprises soumissionnaires, rendant l’enquête de moralité sur les marchés publics quasi instantanée.​La lutte contre la surfacturation : En comparant les prix mondiaux des matières premières avec les bordereaux de prix unitaires des marchés locaux, l’IA alerte sur les écarts injustifiés.​

3. Vers une « Démocratie de la donnée » ?

​Le risque, dans cette gestion par l’IA, est de basculer vers une gouvernance purement technique qui évacue l’humain.​L’enjeu pour le citoyen : Si l’IA « vérifie les faits et gestes », le citoyen doit aussi pouvoir utiliser ces données (Open Data) pour demander des comptes sur la qualité des infrastructures.​

La responsabilité des services de sécurité : Leur maîtrise des données doit garantir la protection des actifs stratégiques du pays contre le sabotage numérique ou l’espionnage industriel.​

4. Conséquence sur le comportement des acteurs​

Pour un entrepreneur ou un gestionnaire de projet, l’intégrité n’est plus seulement une valeur morale, c’est une nécessité de données. Une seule irrégularité numérique peut « tacher » un profil de manière indélébile dans les bases de données de l’administration.​Cette mutation vers une gestion technologique des biens publics est fascinante.

Mamadou Kassé

Source IA

administrator

Related Articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *