RAPPORT DE TIMBUKTU SUR LA RADICALISATION. LES PIÈGES MÉTHODOLOGIQUES DES SCIENCES SOCIALES ($)

($) : Ces remarques ont aussi une portée générale qui dépassent l’étude stricto sensu de Bakary et de son équipe.

Abdou Ndukur Kacc Ndao
www.ndukur.com

Il faut féliciter Dr Bakary Sambe pour son investissement personnel scientifique dans l’éclairage des phénomènes religieux en général et en particulier les processus de radicalisation, d’extrémisme religieux. Notre contexte géopolitique exige ce genre d’études croisées produites aussi par nos visions intellectuelles internes. Sur ce plan, Bakary mérite notre attention et notre respect. Son étude intitulée « Facteurs de radicalisation. Perception du terrorisme chez les jeunes dans la grande banlieue de Dakar (octobre 2016) soulève plusieurs interrogations partagées au sein de l’opinion publique et de la communauté universitaire. Nous ne pouvons poursuivre un discrédit généralisé de nos chercheurs sous prétexte d’un désaccord des conclusions issues de leurs recherches. En revanche, les productions de cette nature sont une occasion de débattre de méthodes, méthodologies, de résultats, etc. Cela dit reprenons ce qui constitue à mes yeux les limites de cette étude.

DES DÉLAIS DE « CONSULTANTS »

25 enquêteurs pour couvrir la banlieue pendant une semaine. Voila le premier piège auquel les « chercheurs » versus « consultants » sont souvent confrontes. C’est une logique propre aux commanditaires privés qui astreignent dans des limites temporelles qui discréditent les études. Il est vrai que le fil est tenu entre ces deux postures. Mais il faut affirmer avec force qu’en une semaine pour capter les complexités propres aux perceptions relève d’une vraie gageure. Malheureusement, nos études font de plus en plus les frais de ces contraintes de temps qui ne tiennent pas compte de la nature complexe des études de perceptions. Le niveau de licence des enquêteurs n’est pas en soi une condition de fiabilité et de crédibilité des données collectées. Ces enquêtes exigent des compétences particulières, un vécu interactif établi que nous ne trouvons pas nécessairement voire souvent chez des étudiants en licence. L’expérience locale prouve d’ailleurs que les meilleurs enquêteurs en sciences sociales sont les vrais professionnels que nous retrouvons auprès de l’ANSD et qui ne sont pas forcément des diplômés de l’enseignement supérieur. Je crois que les chercheurs doivent se battre contre ces délais superficiels qui les mettent sous pressions et conditions alors qu’ils ont besoin d’un temps minimal pour travailler en profondeur.

QUIPROQUO CONCEPTUEL

Le second piège que je décèle dans l’étude de Bakary est relatif à la formulation du sujet. Il est bien indiqué qu’il s’agit d’une étude de perception. Sans fétichisme méthodologique particulier, on peut se demander s’il existe une cohérence méthodologique entre cette formulation et les outils dits CAP utilisés durant cette étude. Si Bakary et son équipe avaient enlevé le concept de perception, nous aurions pu reconsidérer nos critiques sur les aspects méthodologiques. Les enquêtes CAP sont sans doute de puissants instruments pour saisir les comportements, attitudes et pratiques des acteurs. Je ne suis pas sur en revanche qu’ils puissent capter plus spécifiquement les perceptions.

PERCEPTIONS VERSUS STATISTIQUE

Le troisième piège qui est structurel a mon avis dans cette étude est relatif à l’usage inconsidéré de statistiques sans que nous ne percevions ce qui relève des contenus qualitatifs. Ce piège est très lié au premier car les bailleurs sont encore convaincus que la compréhension des phénomènes se fait à grand renforts de productions statistiques avec ces graphiques, ces dendrogrammes ces tableaux croisés, ces résultats cartographiés. On voit mal comment justifier méthodologiquement une approche par les conceptions à partir des critères d’échantillonnage statistique sur 400 enquêtés ramenés finalement à 300 pour des raisons expliquées dans le rapport. Il est vrai que toute enquête de nature sociale ou statistique s’appuie sur des enquêtes aux profils divers. Mais on ne peut prendre les approches statistiques pour celles qualitatives. On voit bien d’ailleurs que le justificatif des critères qualitatifs reste très faiblement documenté dans les préalables méthodologiques. Une note méthodologique circonstanciée sur ces chiffres et leurs fondements aurait permis de lever ces équivoques de représentativité qui ne sont pas à mon avis l’objet d’une étude de perception. A moins que nous ayons une perception différente de cette notion.

ANALYSE QUALITATIVE ET PRODUCTION DE SENS

Le quatrième piège décelable qui est transversal à plusieurs études réalisées concerne le non respect du statut épistémologique des sciences dites sociales. Beaucoup de chercheurs ne font pas la différence entre productions statistiques et production de sens. L’entrée par les sciences sociales est une entrée de production de sens à partir de corpus contradictoires, de profils particulièrement diversifiés. Sa base méthodologique ne peut pas être cette logique statistique qui subsume la complexité des faits sociaux sous des graphiques tout aussi caricaturales que désincarnées. Je comprends l’utilité des chiffres qui sont aussi un instrument de stratégie communicationnelle. J’observe aussi que le chiffre est un autre instrument de manipulation pour fonder des hypothèses. A mon avis, le chercheur doit bien définir le cadre conceptuel qui organise son approche en évitant les confusions de genre issues souvent de commandes privées peu scrupuleuses de la qualité de la démarche si ce n’est juste la mise ne exergue d’un résultat attendu. Ce risque est aujourd’hui le talon d’Achille de la recherche et qui a fini de discréditer une bonne partie des chercheurs utilisés comme des « négriers ».

COMPLEXITÉ DES MÉTHODES EN SCIENCES SOCIALES

Les méthodes des sciences sociales ont beaucoup évolué ces trente dernières années. Ceux qui l’ont toujours confiné dans des spéculations métaphysiques découvrent au quotidien les immenses progrès réalisés pour conforter son statut épistémologique. A la faveur notamment de l’informatique, de la statistique, des théories issues des sciences sociales, les méthodes en sciences sociales ont élargi leur horizon et ont consolidé leurs bases explicatives et compréhensives. L’informatique a permis d’aller au delà des corpus textuels d’intégrer des données non textuelles (photographies, vidéo, audio, internet, réseaux sociaux). L’étude de Bakary est encore restée dans ce spectre très réduit d’une analyse qualitative c’est vrai contestable fondé sur les textes. Les enjeux de cette étude exigent à mon avis d’aller au delà de simples questionnaires ou guides d’entretiens en élargissant le spectre de productions de sens en se fondant sur les nouveaux outils.

Les statistiques sont aujourd’hui utilisées dans l’analyse des perceptions mais juste comme instrument d’analyse et d’interprétations des données qualitatives. C’est ainsi que de plus en plus les tests et coefficients statistiques (Pearson, Jaccard, Sorenson, etc.) sont même intégrés dans des applications informatiques pour analyser et interpréter les données qualitatives. Il ne s’agit pas d’une sophistication informatique mais bien de l’usage multiforme d’autres apports disciplinaires.

De même dans les applications informatiques sont intégrés systématiquement des modules de théories des sciences sociales tels que les théories des graphes, des liens sans compter des modules de psychologie sociale, de dynamiques de groupe capables de renforcer la complexité des analyses et interprétations. Il est vrai que tout ceci n’est qu’instrument au service des sciences sociales mais la posture essentielle est que c’est le chercheur avec son cadre d’analyse conceptuel approprié qui fixe les règles du jeu. Nous voulons faire de l’analyse qualitative en étant encore frileux aux nouvelles opportunités qu’offrent la science et la technologie. Cette observation va au delà de Bakary qui a un intérêt particulier à systématiser dans ses travaux ces approches intéressantes. Même nos universités sont encore restées très réfractaires aux nouvelles évolutions des méthodes de l’analyse qualitative même s’il existe quelques ilots de résistance.

En conclusion, je crois que Bakary en postulant un cadre conceptuel autour de la notion de perception et en structurant sa collecte autour de données statistiques a renversé et a substitué son approche méthodologique. C’est un piège permanent dans un contexte ou les commandes privées sont insensibles aux approches qualitatives documentées. Sans jeter totalement les résultats de cette étude qui sont une base de travail intéressante qu’il faut lire au second degré aussi, il me parait utile que Bakary et son équipe se penchent sur une étude complémentaire qualitative plus centrée sur la production de sens que sur des statistiques souvent si contestables.

ANKN

 

HYBRIDATION/ŒCUMÉNISME MÉTHODOLOGIQUE AU SERVICE DES THÉORIES DU SENS

Abdou Ndukur Kacc Ndao 

Socio-anthropologue

Abdou.Ndao@ndukur.com

L’analyse qualitative appliquée à l’informatique a vraiment évolué au fil des 20 dernières années. elle est passée d’une analyse relativement “simple” à une approche de plus en plus complexe intégrant une pluralité de sciences.

PROFONDEUR DES RESSOURCES. Il y’a quelques décennies, l’analyse qualitative était presque exclusivement centrée sur les corpus/sources/ressources textuels. Ces corpus textuels étaient collectés à partir d’outils de collectes de données classiques tels que notamment les entretiens semi-structurés, les focus-groups, etc. Aujourd’hui, l’analyse qualitative appliquée a élargi sa base informationnelle en incluant les ressources non textuelles tels que notamment les vidéos, les photos, les enregistrements audio. Mieux, elle a intégré dans son dispositif les données issues des réseaux sociaux (Facebook, Twitter, g+, etc.). Toutes ces ressources sont traitables et analysables à partir de procédures spécifiques d’encodage disponibles dans toutes les applications d’analyse qualitative.

CIRCULARITÉ INDUCTIVE ET DÉDUCTIVE. L’analyse qualitative appliquée a déconstruit les logiques cloisonnées entre l’induction et la déduction. Il est ainsi possible de commencer par une démarche inductive en partant des corpus pour générer des thèmes ou de la déduction en ayant préalablement à l’analyse identifié les thèmes. L’analyse qualitative privilégie plus la thématisation qui une approche plus polyvalente comparativement à d’autres telles que notamment l’analyse par théorisation ancrée, l’analyse de contenu. C’est pourquoi, l’analyse qualitative procède d’un œcuménisme méthodologique ou tout au moins d’une hybridation méthodologique (Haldemaan et Levy, 1995) qui déconstruit les approches classificatoires qui considèrent que  la découverte relève des “qualitativistes” et la preuve des “quantitativistes”.

MESURES “QUALITATIVES”. Certains continuent toujours de considérer l’analyse qualitative comme relevant de la théorie voire de la spéculation philosophique ou anthropologique. Sans doute pour lui dénier son statut épistémologique ou pour mieux fonder l’intérêt et la pertinence  des approches “quantitatives”. Il est vrai que les sciences sociales et humaines de façon générale ont du se battre pour mieux affirmer leur statut épistémologique. Nous oublions qu’avec l’analyse qualitative appliquée, nous disposons de formidables et adaptés outils tirés notamment des sciences statistiques.

En effet, il est possible aujourd’hui d’appliquer des mesures de similarité de mot, d’encodage, de valeurs d’attributs avec les coefficients de corrélation de Pearson, de Jaccard et de Sorenson, les tests de Kappa, etc. Les visualisations des données se sont nettement améliorées également avec les graphiques (en 2 et 3 dimensions), les grappes, les surfaces, les diagrammes sans compter les modélisations des relations ou des hypothèses de recherche. Les moteurs de traitement des données sont devenus extrêmement puissants et nous permettent de procéder à des recherches textuelles, de fréquences de mots, d’encodage, d’encodage matriciel, de comparaison d’encodage et de comparaison composée. De puissants outils d’analyse basés sur un travail rigoureux d’encodage de nos sources textuelles et non textuelles.

TECHNOLOGIES DE SENS. L’analyse qualitative appliquée n’est pas un conglomérat de techniques ou d’outils “technologiques désincarnés”. Elle tire sa source dans une quête permanente de sens qui exige une posture conceptuelle très soutenue. C’est pourquoi, outre les sciences statistiques ou informatiques, l’analyse qualitative fait appel aussi aux présupposés théoriques des sciences sociales et humaines,  notamment à la Logique (logique des prédicats et propositionnelle), à la linguistique, aux théories des graphes, des liens, des réseaux sociaux…Elle est une véritable mécanique scientifique au cœur des théories de la complexité scientifique.

Photo : Matar Ndour, 2015

ANKN

NŒUDS, ENCODAGE, CLASSIFICATION, MATRICES, RELATIONS, THÉMATISATION

Abdou Ndukur Kacc Ndao

NŒUDS

Les nœuds sont des conteneurs prévus pour stocker ces idées dans votre projet et contiennent les preuves appuyant ces idées dans les sources. La création et l’exploration des nœuds sont une manière d’analyser les données pour parvenir à des théories plus élaborées.

ENCODAGE

L’encodage est le processus consistant à citer une partie d’une source ayant trait à un nœud.  , 

TYPES DE NŒUDS 

Il existe différents types de nœuds convenant aux divers types d’idées et de concepts que vous êtes susceptible de représenter dans votre projet :

Les nœuds libres peuvent servir à stocker les idées dissociées qui ne sont liées à aucun concept représenté par les nœuds existants. À mesure que le projet se développe, il est possible de les intégrer aux nœuds hiérarchiques, à un endroit judicieux.

Les nœuds hiérarchiques peuvent servir à représenter les concepts et catégories de votre projet ayant un lien logique entre eux, car ils peuvent former une structure hiérarchique (catégorie, sous-catégorie, par exemple).

LES CLASSIFICATIONS 

Les cas représentent des entités de vos recherches (personnes, écoles, organismes ou foyers, par exemple).  Ils peuvent posséder des “attributs” servant à consigner les caractéristiques des entités sur lesquelles vous souhaitez poser des questions.  De même que les nœuds hiérarchiques, il est possible d’agencer les cas sous forme de hiérarchie.

LES MATRICES

Les matrices peuvent servir à mettre en évidence les liens entre le contenu de différents nœuds. Elles se créent en interrogeant les données au moyen de requêtes d’encodage matriciel et se présentent sous la forme de tablea

LES RELATIONS

Les relations représentent ce que vous savez ou découvrez sur les liens associant les éléments de votre projet.

LA THÉMATISATION 

Vous pourriez avoir identifié certains thèmes ou rubriques à représenter en tant que nœuds avant même d’avoir commencé à explorer vos sources. Par exemple, cela peut être le cas si vous avez étudié au préalable la documentation ou les points principaux des questions posées pendant les entretiens.  À mesure que vous examinez les sources, vous pourriez découvrir un certain nombre de thèmes ou rubriques supplémentaires méritant également leur propre nœud.

Illustrations photographiques : Matar NdourGEZ

NOTE MÉTHODOLOGIQUE EN ANALYSE QUALITATIVE 2 : CRÉATION DE NŒUDS (NODES)

Abdou Ndukur Kacc Ndao

Aujourdhui, nous abordons les nœuds. Un nœuds est une sorte de boites à idées qui sont similaires. La similarité est un concept central dans l’analyse qualitative des données.

Elle permet a l’instar des autres tels que l’exactitude, le proche, la différence, l’opposé, etc. de saisir les finesses et complexités entre plusieurs hypothèses ou points de vue ou perceptions.

La création de nœuds est une étape fondamentale dans l’organisation et la rationalisation des données qualitatives. Elle exige une posture conceptuelle très soutenue. Elle fera appel par exemple à la logique propositionnelle, logique des prédicats, au sens pointu de conceptualisation et de formalisation qualitatives.

NOTE METHODOLOGIQUE INTRODUCTIVE SUR L’ANALYSE QUALITATIVE APPLIQUÉE A L’INFORMATIQUE

Abdou Ndukur Kacc Ndao

Ce matin et cet après midi cours centré sur l’organisation et la rationalisation des données qualitatives dans des répertoires dédiés. Importation des sources textuelles et non textuelles (vidéo, audio, photos) ainsi que celles dites internes (créés par le chercheur) et externes (non produites par le chercheur). Cette procédure de rationalisation et d’importation des données permet de constituer une base diversifiée de sources. Elle permettra de rechercher les sens cachés des sources à partir d’un travail itératif et rigoureux d’encodage.

L’analyse qualitative appliquée est aujourd’hui un véritable œcuménisme/hybridation méthodologique. Elle peut partir de l’induction tout comme de la déduction. Elle déconstruit les approches méthodologiques qui séparent les continuités épistémologiques nécessaires entre la compréhension et l’explication. Elle est une quête de sens continuelle qui prohibe le manichéisme face aux données. Sa posture scientifique est claire : le point de vue de la vendeuse d’arachides dans la rue est d’égale dignité heuristique que celui d’un président de la République.

L’enjeu est de révéler une pluralité de sens qui refuse la “statisticisation” des complexités humaines et des points de vue sous-jacents.

ANKN