Découvrez des millions d'e-books, de livres audio et bien plus encore avec un essai gratuit

Seulement $11.99/mois après la période d'essai. Annulez à tout moment.

Théories et modèles en sciences humaines: Le cas de la géographie
Théories et modèles en sciences humaines: Le cas de la géographie
Théories et modèles en sciences humaines: Le cas de la géographie
Livre électronique1 143 pages15 heures

Théories et modèles en sciences humaines: Le cas de la géographie

Évaluation : 0 sur 5 étoiles

()

Lire l'aperçu

À propos de ce livre électronique

Une épistémologie des méthodes scientifiques

Face à la diversité et à la complexification des modes de formalisation, une épistémologie des méthodes scientifiques doit confronter directement ses analyses à une pluralité d’études de cas comparatives. C’est l’objectif de cet ouvrage.
Aussi, dans une première partie, propose-t-il d’abord une classification large et raisonnée des différentes fonctions de connaissance des théories, des modèles et des simulations (de fait, cette partie constitue un panorama d’épistémologie générale particulièrement poussé). C’est ensuite à la lumière de cette classification que les deux parties centrales analysent et distinguent les assises conceptuelles et épistémologiques des principaux types de formalisation en géographie avant et après l’ordinateur (théories des localisations, modèles gravitaires, loi rang-taille). En employant toujours la même méthode analytique et comparative, la dernière partie se concentre sur l’explication épistémologique des trois révolutions computationnelles récentes : l’analyse des données, la présentation des données et enfin l’analyse par simulation computationnelle.
Au travers de cette enquête approfondie, la géographie apparaît non seulement comme une discipline carrefour, ayant pour cela donné des exemples de presque tous les types de modèles scientifiques, mais aussi comme une science innovante en termes épistémologiques. Car ce qui a d’abord été pour elle un frein à la formalisation – sa sensibilité au caractère multifactoriel comme à la dimension irréductiblement spatiale des phénomènes sociaux – et qui l’obligea longtemps à inféoder ses théories et modèles à des disciplines plus aisément formalisables comme la géomorphologie, l’économie, la sociologie, la démographie, ou bien encore la thermodynamique et la théorie des systèmes, devient aujourd’hui un atout dès lors que, parmi les sciences humaines et sociales, elle peut développer une épistémologie non seulement pluraliste mais aussi combinatoire et intégrative.

Découvrez cette analyse approfondie d'une discipline spécifique : la géographie

EXTRAIT

Berry et Garrison pensent dans un premier temps que le modèle théorique probabiliste, même considéré comme le meilleur du point de vue du canon néopositiviste, est insatisfaisant car il n’est pas réellement explicatif. L’essentiel lui échappe. On voit que, dans ce premier passage, Berry et Garrison l’interprètent comme une représentation négative – par défaut – de l’état de nos connaissances sur les liens causaux qui nous importent : nous ne représenterions pas une cause mais une agrégation non contrôlée de causes, causes en nombre possiblement infini et dont la constante présence ni la constance de la nature ne nous sont nullement assurées.

À PROPOS DE L'AUTEUR

Franck Varenne est maître de conférences en philosophie des sciences à l’Université de Rouen et chercheur au Gemass (UMR 8598 – CNRS/Paris Sorbonne). Ses recherches portent sur l’épistémologie des modèles et des simulations. Il a notamment publié Du modèle à la simulation informatique (Vrin, 2007), Qu’est-ce que l’informatique ? (Vrin, 2009), Formaliser le vivant : lois, théories, modèles ? (Hermann, 2010) et Modéliser le social (Dunod, 2011). Il a également publié dans de nombreuses revues, dont Simulation, Journal of Artificial Societies and Social Simulation, Natures Sciences Sociétés et la Revue d’Histoire des Sciences. Il codirige les collectifs Modéliser & simuler. Épistémologies et pratiques de la modélisation et de la simulation, tome 1 (en 2013) et tome 2 (en 2014) aux Editions Matériologiques.
LangueFrançais
Date de sortie29 mars 2018
ISBN9782373611557
Théories et modèles en sciences humaines: Le cas de la géographie

En savoir plus sur Franck Varenne

Auteurs associés

Lié à Théories et modèles en sciences humaines

Livres électroniques liés

Sciences et mathématiques pour vous

Voir plus

Articles associés

Catégories liées

Avis sur Théories et modèles en sciences humaines

Évaluation : 0 sur 5 étoiles
0 évaluation

0 notation0 avis

Qu'avez-vous pensé ?

Appuyer pour évaluer

L'avis doit comporter au moins 10 mots

    Aperçu du livre

    Théories et modèles en sciences humaines - Franck Varenne

    volume.

    Préface de Denise Pumain

    ¹

    Université Paris 1 Panthéon-Sorbonne

    Pourquoi choisir la géographie comme étude de cas dans un ouvrage sur la modélisation en sciences sociales ? Franck Varenne nous donne ses raisons pour avoir choisi ce cobaye dans son exploration épistémologique des pratiques de modélisation. Au risque de choquer le libre arbitre de l’auteur, je pense pour ma part que ce choix était pratiquement inévitable. La géographie est depuis quelques décennies en pointe de toutes les « révolutions », qu’elles aient été théoriques, quantitatives, ou computationnelles. La discipline s’est souvent trouvée prise à témoin de ces mouvements, par les institutions du financement de la recherche et de ses incitations. Et les « tournants » qui périodiquement réorientent les paradigmes de la recherche ne l’ont pas durablement détournée d’une pratique récurrente de la modélisation, sous une pluralité de formes. De jeunes géographes viennent même de publier un Dictionnaire passionnel de la modélisation urbaine ², dont l’un des grands mérites est aussi de sensibiliser aux multiples sources de doutes et de soucis qui accaparent l’esprit des modélisateurs, si souvent (trop) accusés de manquer de réflexion ! Alors, pourquoi une telle obstination ?

    Sans dévoiler d’emblée la très fine typologie des fonctions du modèle inventoriée avec brio par Franck Varenne, la motivation et la passion des géographes pour la modélisation peuvent sembler de prime abord paradoxales, puisqu’elle ne se satisfait pas de l’a priori d’une schématisation comportementale – l’homo geographicus n’existe pas au même titre que l’homo economicus – et conduit à des pratiques très éclectiques, pas toujours bien abritées par des parapluies théoriques très solides. Et pourtant en la matière, si nécessité fait loi, il faut comprendre pourquoi les géographes éprouvent ce besoin de résumer et de formaliser leurs connaissances dans des modèles, pour les résumer, pour en produire d’autres, et les accumuler.

    Une première explication possible pourrait être recherchée dans l’objet spécifique dont s’occupe la géographie. Une particularité de la géographie, parmi les sciences sociales, est d’être « science des lieux et non des hommes », pour reprendre la célèbre formule séminale de Paul Vidal de la Blache, fondant ainsi sa distinction d’avec la sociologie durkheimienne émergente. Plus que les autres sciences sociales, elle s’intéresse donc, non seulement au « fait social total », mais aussi à son insertion dans la totalité de l’interface terrestre accessible. Dans la mesure où elle garde de cette tradition d’intégration de la géographie physique et de la géographie humaine un intérêt pour les interactions des sociétés et de l’environnement, elle associe dans ses interprétations tout aussi bien la matérialité que l’idéalité des paysages, ou la spatialité et les conflictualités des configurations sociales et territoriales. En un mot, on pourrait prétendre que, de la même façon que les sciences sociales « ajoutent » un degré de complexité à celui des sciences biologiques et de la matière, en s’intéressant à des agents capables non seulement d’auto-organisation, mais aussi d’innovation, de conscience et de réflexivité dans leur historicité, l’objet de la géographie serait celui qui, parmi l’ensemble des sciences sociales, atteindrait un maximum de complexité !

    À grand défi, énergie plus importante mise en œuvre pour le relever ? Je ne crois guère à la fiction de la géographie comme science de carrefour ou de synthèse, entre sciences naturelles et sciences humaines, bien d’autres disciplines pouvant se définir de cette façon, lorsque les frontières qui ont permis de fortes constructions conceptuelles ont fait leur temps et font émerger de nouvelles disciplines à leurs interfaces. Il est vrai que les temporalités d’évolution des faits de « nature » et des faits sociaux, très disparates et souvent sans commune mesure, compliquent singulièrement la tâche des modélisateurs en géographie³. Mais il y a là peut-être plus de complication que de complexité. Ce qui identifie bien davantage la complexité du projet de la géographie, c’est la multiplicité de ses niveaux d’observation, improprement résumée sous la question de l’échelle, car les « lieux » dont elle s’occupe parcourent toutes les dimensions possibles, de l’individu à la Terre entière, pas seulement en nombre, mais aussi en superficie, en diversité de taille et de puissance et de processus d’organisation. Sans théorie unificatrice guidée par un comportement individuel typique, mais identifiant des régularités à divers niveaux de l’organisation des faits sociaux et spatiaux, tout au long de l’échelle des variations de milieux, de paysages et de territoires, la géographie invente nécessairement une grande variété de modèles pour traiter de ces multiples objets.

    Très révélatrice est ainsi la formule choisie par Waldo Tobler pour énoncer « la première loi de la géographie » : « Tout interagit avec tout, mais deux choses [thing] proches ont plus de chances d’interagir que deux choses éloignées. » En employant le mot « thing », Tobler sait préserver le caractère intrinsèquement multiscalaire des objets de la géographie dont les échanges, les interactions, relèvent d’une modélisation gravitaire. Le modèle ne traduit pas qu’un postulat psychologique de « loi du moindre effort », qui en serait le fondement individuel, il subsume aussi des quantités d’observations faites sur la configuration spatiale des échanges de personnes, de produits ou d’information, des flux qui passent entre des « lieux », ces « choses » d’étendue variable, quartiers ou villes, régions ou états du monde. Il attire ainsi l’attention sur la très forte probabilité des dynamiques centre-périphérie, à tous les niveaux d’observation de l’organisation spatiale des sociétés, du fait de leurs relations d’échange et d’interaction, en termes de proximité mais aussi de connexité.

    C’est en raison de leur conception de la complexité conduisant à la formation d’identités locales ou territoriales singulières, aux trajectoires irréversibles marquées d’enchaînement historique (ou « dépendance à la trajectoire ») que la plupart des géographes préfèrent considérer, non pas tant l’universalité de ce modèle gravitaire, mais sa trivialité, en faisant leur miel des résidus plutôt que du modèle lui-même, qui est alors employé comme filtre de ce qui reste à découvrir dans l’organisation des échanges, et qui est révélateur de ces idiosyncrasies locales, ou qui parfois fait apparaître de nouvelles régularités encore inconnues. Par exemple, c’est encore cette fonction de filtre dévolue à un autre modèle, cette fois dit des « lois d’échelle » (scaling laws), qui est retenue par Olivier Finance pour analyser les localisations des emplois créés par les firmes étrangères investissant en France, au niveau des établissements⁴. La modélisation lui permet d’identifier et de spécifier des facteurs d’attraction des territoires inattendus et de montrer que les effets de la mondialisation ne se limitent pas aux métropoles mais influencent de façon différenciée les trajectoires urbaines, selon la taille des villes, leur région d’appartenance et la nature de leurs activités. L’usage du modèle évite d’être hypnotisé par une prétendue « universalité » de ces « lois » qui permettraient de « résoudre la ville⁵ » comme certains modélisateurs américains se sont plu à le laisser entendre à des journalistes...

    Il faut invoquer en effet aussi une autre incitation à modéliser en géographie : la « demande sociale », abondante, pour les cartes, s’est vue renforcée et amplifiée dans les années 1990 par l’invention des systèmes d’information géographique, qui permettent de gérer et de croiser des informations de sources très différentes dans un même territoire. Peu à peu généralisés dans les collectivités territoriales et les entreprises, ces outils de gestion des informations localisées, d’abord utilisés surtout pour produire des cartes, sont devenus des instruments de modélisation, couplés à des automates cellulaires ou à des modèles de simulation⁶. L’accroissement de la puissance des matériels informatiques, la programmation d’algorithmes évolutionnaires et la distribution des calculs sur grille ont démultiplié la capacité des modèles à valider la représentation de scénarios et à mesurer leur probabilité. La plateforme OpenMOLE⁷ a ainsi permis de valider des hypothèses de la théorie évolutive des villes, et a donné l’occasion à des géographes de proposer une nouvelle méthode de construction progressive d’une série de modèles traitant du même problème, des plus simples aux plus riches en termes de mécanismes intégrés et de représentation de l’environnement⁸. Fort justement, Franck Varenne souligne l’intérêt des géographes à fouiller le simulat, terme qu’il propose d’adopter pour le résultat des calculs effectués, afin de hiérarchiser les mécanismes du modèle en fonction de l’évaluation de la qualité du calibrage.

    Si cet ouvrage passionnera les géographes c’est que son auteur ne s’est pas contenté d’instrumentaliser la géographie pour simplement tester ses propres modèles de classification de modèles, ou de processus d’histoire des sciences. Il témoigne d’un intérêt certain, voire d’une profonde empathie pour la discipline, qui l’a conduit entre autres à mener une enquête originale, particulièrement détaillée et instructive, sur la démarche empruntée par le géographe suédois Torsten Hägerstrand et sa réflexion épistémologique accompagnant sa création théorique autour de la diffusion spatiale des innovations. Franck Varenne réussit là un morceau d’anthologie dans la finesse de restitution d’un processus intellectuel d’observation et de modélisation conduisant à une théorisation.

    Certes, parler des théories et des modèles d’une discipline ne relève pas de la même intention, s’il s’agit de traiter de la curiosité pour l’objet, de l’intérieur, comme le ferait un géographe qui met en pratique des modèles et des théories pour répondre à cette forme de questions qui au fil du temps s’est appelée géographie, ou s’il s’agit de rendre compte de ce que font les géographes, de l’extérieur, comme peut le faire un philosophe ou un épistémologue. Les étiquettes d’ailleurs importent ici assez peu, puisqu’un géographe aussi peut être amené à interroger des pratiques de théorie et de modélisation, ou les siennes propres⁹.

    Franck Varenne tend aux géographes un miroir aux multiples facettes dans lequel ils ne se reconnaîtront peut-être pas toujours, tant est spécifique le langage de l’épistémologie contemporaine : ainsi me laisse un peu perplexe une catégorisation de mes premiers travaux sur la hiérarchie urbaine comme étant « la synthèse du positivisme et d’une épistémologie conceptualiste réformée sous la forme applicative d’une modélisation intégrative à analogie thermodynamique » ! Mais, en épistémologie comme dans la vie, l’histoire donne souvent raison au proverbe paradoxal « Le pire témoin est celui qui était là ». Pourtant, il est normal de faire quelquefois mentir le proverbe et ce n’est pas une critique que de relever une petite inexactitude dans la restitution de l’histoire proposée par cet ouvrage quant à la reconnaissance « tardive » de l’importance des travaux de Hägerstrand, dont les modèles furent pourtant enseignés aux étudiants de 2e année de l’Institut de géographie dans l’Université Paris 1 dans un cours construit par Denise Pumain dès... 1972 ! La connaissance de ces travaux m’avait été transmise, après quelques aperçus bibliographiques à l’Université de Montréal dès 1970, par les enseignements d’une géographe américaine, Wanda Herzog, invitée par Philippe Pinchemel à l’Université Paris 1 pendant l’année universitaire 1971-1972, dans un séminaire passionnant mais hélas peu fréquenté, auquel assistait également Marie-Claire Robic. Mon cours-TD de l’année suivante, dont il subsiste quelques traces, comportait déjà un exercice en forme de jeu de simulation d’une diffusion en tache d’huile, avec construction d’un champ moyen d’information et tirage aléatoire de nombres sur une grille de localisations. Par la suite, Thérèse Saint-Julien fut associée à ce cours, et elle apporta une application très originale de la théorie de Hägerstrand pour résumer la politique de décentralisation industrielle française comme processus de diffusion spatiale, dans l’ouest de la France notamment, différencié selon la nature des activités et la réceptivité des lieux. Il ne s’agit pas ici de chicaner Franck Varenne, dont il faut au contraire saluer la vigilance à l’égard des sources historiques, qui ne se laisse guère prendre en défaut dans l’ensemble de l’ouvrage, mais de profiter avec lui d’une occasion d’attirer l’attention sur un auteur que, par exemple, Antony Giddens (dans son ouvrage sur la structuration de la société) n’a pas hésité à intégrer à sa construction théorique en sociologie, autour du concept de « régionalisation ».

    Cette anecdote (dont on me pardonnera, je l’espère, le risque de donner dans la suffisance et l’autosatisfaction) nous parle aussi d’un temps où le souci de laisser des traces n’était pas aussi aigu qu’aujourd’hui, où l’importance d’être novateur n’était pas nécessairement chevillée au déclaratif des réponses aux programmes de recherche, dans cette course éperdue à l’innovation du publish or perish, devenue avec Internet le be visible or vanish, où les États-Unis avaient déjà bien des longueurs d’avance sur la vieille Europe. Cette manière de construire la science, parfois par trop destructive de ses mémoires, sera peut-être modifiée par l’innovation technologique, dont la modélisation numérique ne nous a pas encore livré toutes les conséquences épistémologiques. Les idées de science ouverte, d’expérience reproductible, de science partagée font peu à peu leur chemin devant le gaspillage d’énergie que représentent tellement de portes ouvertes enfoncées, de fausses nouveautés et d’oublis ravageurs – sans parler des déserts de bibliothèques emplis des ossements de modèles abandonnés, souvent jamais expérimentés ! Dans cette ouverture, les géographes se retrouvent encore en première ligne, car les nouvelles données des big data ont pratiquement toutes la propriété d’être « géolocalisées », et impliquent donc dans leur traitement l’emploi de modèles géographiques. Les simulations passent désormais par des « applications ». L’importance pratique et sociale de la « première loi de la géographie » n’est plus à démontrer, quand on la retrouve dans les « applis » de tous les « smartphones », dans les poches de milliards de personnes sur la planète qui se trouvent donc disposer en temps réel, au sens de Hägerstrand, d’un champ moyen d’information ainsi individualisé...

    Lisez l’ouvrage de Franck Varenne, qui nous aide à montrer comment la réflexion de cette science de la modélisation géographique s’est construite et à en tracer une mémoire organisée.

    Paris, le 19 octobre 2017.

    [1] Professeur à l’Université Paris 1 Panthéon-Sorbonne, ancien recteur de l’académie de Grenoble, cofondatrice du laboratoire Géographie-cités du CNRS, créatrice de la revue Cybergeo, European Journal of Geography, coordinatrice des ouvrages : Hierarchy in natural and social sciences (Springer, 2006), Complexity perspectives on innovation and social change (ISCOM, Springer, 2009), avec David Lane, Sander van der Leeuw et Geoffrey West et Urban Dynamics and Simulation Models (Springer, 2017), avec Romain Reuillon.

    [2] Céline Bonhomme, Hadrien Commenges, José-Frédéric Deroubaix (dir.), éd. L’Œil d’or, 2017.

    [3] François Durand-Dastès, « Le temps, la géographie et ses modèles », Bulletin de la Société géographique de Liège 40(1), 2001, p. 5-13. Hélène Mathian et Lena Sanders, Objets géographiques et processus de changement. Approches spatio-temporelles, ISTE Éditions, 2014.

    [4] Olivier Finance, Les Lois d’échelle comme filtre : intégration différenciée des villes dans les réseaux des firmes étrangères après filtrage du facteur taille, thèse de doctorat, Université Paris 1, 2016.

    [5] Johann Lehrer, A physicist solves the city, The New York Times Magazine, December 17th, 2010.

    [6] Michael F. Goodchild, GIS in the Era of Big Data, Cybergeo : European Journal of Geography, 25 avril 2016, http://cybergeo.revues.org/27647.

    [7] Romain Reuillon, Mathieu Leclaire, Sébastien Rey-Coyrehourcq, OpenMOLE, a workflow engine specifically tailored for the distributed exploration of simulation models, Future Generation Computer Systems 29(8), 2013, p. 1981-1990.

    [8] Clémentine Cottineau, Paul Chapron, Romain Reuillon, Growing models from the bottom up. An evaluation-based incremental modelling method (EBIMM) applied to the simulation of systems of cities, Journal of Artificial Societies and Social Simulation (JASSS) 18(4), 2015.

    [9] Voir Sébastien Rey-Coyrehourcq, Une plateforme intégrée pour la construction et l’évaluation de modèles de simulation en géographie, thèse de doctorat, Université Paris 1, 2015.

    Introduction

    Une épistémologie analytique, comparative et appliquée

    Cet ouvrage se présente en quatre grandes parties. La première est de philosophie des sciences au sens large. Elle introduit une classification des différents types de théories, de lois, de modèles et de simulations dans les sciences humaines en général, et en géographie en particulier. Cette première partie a vocation à servir pour d’autres sciences et dans d’autres contextes. Elle pourra intéresser tous les lecteurs versés dans les sciences humaines, mais aussi tous ceux qui se retrouvent autour d’un intérêt commun pour l’épistémologie et la philosophie des sciences contemporaines. Les trois autres parties sont plus spécifiques. Elles exposent et analysent le cas de la géographie avec une perspective d’histoire conceptuelle, épistémologique et comparative.

    L’histoire comparative des théories et des modèles engéographie n’est pas proposée ici par hasard. Elle l’est à la fois pour elle-même, nous y reviendrons, mais aussi comme terrain de mise à l’épreuve directe des concepts développés dans la première partie. Nous voulions que cette mise à l’épreuve se fasse très directement et, pour cela, dans le même ouvrage. Ce qui n’est pas commun. Nous voulions qu’on y trouve d’abord de la philosophie des sciences puis, immédiatement après, de l’histoire épistémologique mobilisant et sollicitant cette même philosophie des sciences. L’objectif principal de cet ouvrage est en effet de proposer la mise en œuvre,réellement en acte, d’une philosophie appliquée des sciences. C’est pourquoi il fait le pari de la mise à l’épreuve directe d’analyses conceptuelles préalables, ces analyses étant elle-même le fruit d’une synthèse de travaux empiriques, théoriques et classificatoires antérieurs effectués aussi bien par nous-même que par d’autres auteurs. Cet ouvrage entend par là expliciter et confirmer le constat partagé d’une grande diversité des pratiques de théorisation et de modélisation, tout en montrant qu’il est possible de les classer précisément et d’y trouver de grands principes unificateurs. Il entend aussi apporter la preuve que ces principes permettent en retour le déploiement d’une histoire conceptuelle à la fois approfondie et éclairante.

    Sur le cas de la géographie et de son recours contemporain à des théories et des modèles, cet ouvrage propose donc aussi bien une approche hypothético-analytique qu’empirico-conceptuelle. Au cours de son écriture, des allers et retours tantôt rectificatifs tantôt applicatifs entre la partie définitionnelle et les parties historiques ont été fréquents. Deux hypothèses sous-tendent cette approche unitaire inédite. La première fait remarquer que nous disposons déjà d’un grand nombre de travaux rendant compte, mais souvent de façon disparate, de la multiplicité des techniques et des pratiques de théorisation et de modélisation. La seconde fait observer que cette sensibilité à la diversité des types de formalismes et des types de fonctions épistémologiques qu’on leur assigne n’a pas encore véritablement pénétré le monde de l’histoire contemporaine des sciences, faute de travaux qui mobilisent d’une manière suffisamment unifiée des concepts épistémologiques suffisamment affinés et discriminants. Il est temps de s’y essayer, au risque bien sûr de ne pas y réussir parfaitement d’entrée de jeu. Mais il y a urgence pour de tels travaux à l’ère de la multiplication des types de modèles et de simulations. Cette ère, la nôtre, a quelque chose de désespérant tant elle innove rapidement dans ses instruments de formalisation, en particulier sous l’effet des tournants computationnels successifs : la tendance à l’amalgame conceptuel ou à la métaphore interprétative est plutôt la règle. Cette tendance guette toute analyste de la situation épistémologique contemporaine. Ainsi, c’est d’abord pour le développement même et la mise au point d’une philosophie réaliste – et si possible actualisée – des sciences qu’une philosophie doublement appliquée des sciences est demandée. Cette philosophie nécessite d’être appliquée à la fois sur le terrain méthodologique actuel – un pan de nos travaux de recherche en attestedéjà – et sur le terrain des études historiques et interprétatives, ce que nous proposons justement de faire ici.

    Par ailleurs, nous l’avons dit, nous n’avons pas choisi la géographie par hasard parmi les sciences humaines. Son cas se révèle instructif à deux titres au moins : pour la forme qu’elle prend d’abord, pour l’objet qui est le sien ensuite. Dans sa forme d’abord, la géographie décontenance et décourage souvent le philosophe des sciences de par l’aspect disparate de ses méthodes¹. Or, ce que d’aucuns considèrent comme un défaut, nous avons trouvé que c’était une qualité pour l’objectif même qui était le nôtre. Considérée par beaucoup de géographes eux-mêmes comme une science carrefour, la géographie a constamment été à l’affût des méthodes. Elle a su emprunter à divers domaines, tant des sciences humaines que des sciences de la nature. Notre choix méthodologique a donc reposé sur cette considération : s’il devait exister un domaine scientifique suffisamment unifié dans ses problématiques mais suffisamment divers – voire le plus divers possible – dans ses méthodes, cela pour qu’il soit à même de tester notre thèse d’une grande diversité des techniques de modélisation en même temps que notre capacité à les classer malgré cela de manière compréhensive, c’est ce domaine que nous devions choisir. La géographie était a priori la science candidate la plus apte à satisfaire ce critère.

    Nous avons choisi enfin la géographie pour son objet. Nous reviendrons sur les débats qui portent sur la nature exacte de l’objet ou des objets de la géographie. Mais il est un fait que la dimension spatiale des phénomènes étudiés en est un aspect important. Or, parmi les hypothèses historiques que nous voulons également tester, il y a celle selon laquelle l’étude du développement et de l’évolution des techniques de modélisation en géographie montrera peut-être aussi l’importance croissante des simulations, au détriment des modèles mathématiques, du fait qu’elles se révéleraient en géographie, comme ce fut le cas des modèles de morphogenèse de plantes que nous avons étudiés, beaucoup plus aptes à prendre en compte les phénomènes complexes de dynamiques spatialisées.

    Il est certes périlleux de vouloir contribuer à l’épistémologie de la géographie sans être soi-même géographe, tant il est vrai que tout géographe se révèle souvent aussi un excellent historien et épistémologue de sa propre discipline. Dans ces conditions, comment un épistémologue, qui plus est un non-praticien de la géographie, peut-il espérer faire œuvre pertinente voire originale et quelque peu utile en ce domaine ? Sauf à supposer que sa problématique se définisse moins au regard d’une seule discipline, en l’occurrence la géographie, qu’au regard d’un ensemble de méthodes et de pratiques qui se trouvent particulièrement à l’œuvre dans cette discipline mais qui se trouvent aussi par ailleurs outrepasser les cadres disciplinaires traditionnels. C’est effectivement le cas de notre approche ici. Prolongeant notre enquête comparative sur les différentes significations de l’évolution des pratiques de théorisation, de modélisation et de simulation dans les sciences depuis l’émergence du « computeur »², nous quittons donc ici l’horizon d’étude des sciences de la nature qui fut d’abord le nôtre dans la première décennie des années 2000, avec le cas des modèles et des simulations de plantes en biologie, botanique et agronomie³, pour étudier un cas d’évolution, également contrastée, des théorisations, des modèles et des simulations d’objets dont l’étude appartient, cette fois-ci nettement, au champ des sciences humaines et sociales, plus particulièrement à la géographie humaine.

    Les raisons d’un tel changement d’objet sont donc assez claires : il s’agit de prolonger notre analyse sur un cas riche mais délibérément très éloigné de celui qui nous préoccupa d’abord, ceci d’une part afin de nous livrer à des comparaisons plus larges et plus discriminantes encore, mais aussi de manière à tester plus finement et dans un tout autre contexte certaines hypothèses et certains diagnostics plus généraux auxquels nous ont déjà mené nos premières analyses comparatives, notamment au sujet des conséquences épistémologiques de l’informatisation des pratiques de formalisation d’objets et de systèmes reconnus, de part et d’autre, comme complexes.

    1] Le cas des plantes : historicité, spatialité et pluriformalisation des modèles

    Nos travaux d’histoire comparative des pratiques de formalisation des plantes avaient montré la part croissante de la prise en compte explicite de l’espace mais aussi, conjointement, d’une certaine forme d’historicité dans la formalisation des formes vivantes en croissance au cours des quatre dernières décennies. De ce point de vue, dès lors qu’elles étaient issues de mathématiques essentiellement développées pour la physique, la plupart des axiomatiques traditionnelles atteignaient en effet leurs limites. Dans les années 1970, il fallut donc passer du modèle mathématique à la simulation informatique, seule technique de formalisation et de représentation exploratoire ou prédictive alors capable d’intégrer une pluralité distribuée dans l’espace et le temps d’aspects, de mécanismes et de lois locales pour la modélisation d’un même organisme. La forme des plantes végétatives supérieures, comme celle des arbres par exemple, résulte d’un ensemble d’interactions entre les déterminants génétiques de la plante, son architecture actuelle, son métabolisme et son environnement proche. Elle manifeste par conséquent une très forte dépendance au chemin et, à ce titre, une forme d’historicité, au moins en un sens faible, i.e. avec présence de bifurcations dont l’issue est déterminée par des événements locaux externes et ponctuels (ensoleillement, ombrage, sécheresse, etc.). Même pour deux clones d’une même essence, l’architecture finale ne sera pas exactement la même : eu égard à toutes ces interactions qui ont lieu au cours de la vie de la plante, le phénotype n’y est en réalité déterminé que de manière statistique. Il n’appartient qu’àune enveloppe statistique d’architectures possibles : on parle de phénotype statistique. Davantage, on peut considérer que la forme d’une plante est le résultat du comportement de pousse, de dormance ou de ramification d’une population d’individus, à savoir celle des bourgeons. Le fait que la forme d’une plante ne pouvait clairement pas faire l’objet d’une monoformalisation, i. e. d’une formalisation en un langage mathématique unique, expliquait l’échec des nombreuses tentatives antérieures de théorisation mathématique de la morphogenèse végétale. Il fallait reconnaître au contraire la nécessité de ce que nous avons proposé d’appeler une modélisation fragmentée – procédant aspect par aspect – doublée d’une simulation à base de systèmes de modèles pluriformalisés.

    Cette focalisation sur l’individu-bourgeon et sur l’hétérogénéité irréductible des différentes lois de développement à l’œuvre dans un seul et même organisme montrait une parenté certaine entre cette évolution des pratiques de modélisation et celle, contemporaine, en modélisation pour l’écologie. Plus encore même que pour les modèles d’écologie, centrés eux aussi de plus en plus sur les individus et sur leurs interactions à partir des années 1970, les modèles de genèse dynamique de formes de plantes affirmaient l’importance de la représentation explicite et expressive de l’espace. C’est peut-être un point commun méthodologique avec les formalisations adaptées à la géographie. Toutefois, il est évident que l’analogie s’arrête en réalité très tôt. Il n’y a là nulle pseudo-analogie inspiratrice, signe d’une supposée unité sous-jacente à toutes choses ou à tout processus morphogénétique censé les affecter. Pour couper court à toute ambition théorico-spéculative concernant les processus morphogénétiques en général ou bien à toute velléité réductionniste et naïve en ce sens, on peut d’entrée de jeu objecter que les plantes n’ont le choix qu’entre vingt-quatre modèles architecturaux pour leur croissance. Ce sont les modèles recensés par les botanistes Francis Hallé et Roelof O. Oldeman. Et cela tient justement au caractère relativement stable entre générations – anhistorique en ce sens – de leurs déterminants génétiques. Ce qui n’est nullement le cas des systèmes sociaux et spatiaux complexes comme une ville par exemple. Les villes n’ont pas l’équivalent d’un génome. Pour prédire la forme d’une ville en croissance, on ne peut pas a priori s’appuyer sur un nombre restreint, définitivement fixé et connu d’« espèces » de villes, ni donc sur l’invocation d’une enveloppe architecturale statistique spécifique pour telle ou telle ville. Les objets sociaux sont des objets historiques dont le développement même dépend étroitement du système technique disponible, chaque fois différent à telle ou telle époque : non seulement les mécanismes de croissance sont hétérogènes dans le temps et l’espace, mais ils évoluent dans le temps long, dans l’histoire, et ils sont différents dans des contextes socio-économiques différents, alors qu’une plante tropicale importée poussera peut-être moins rapidement en pays tempéré mais rejoindra tout de même l’enveloppe statistique de son architecture finale qu’on lui connaissait dans son pays d’origine. Ainsi, sauf pour les cas manifestes de planification autoritaire, les systèmes sociaux ne sont nullement contraints par une forme statistique globale dont la réalisation finale serait attendue et préprogrammée dans les individus qui y contribuent, à leur échelle, fût-ce de manière même seulement statistique.

    2] Qu’en est-il de la géographie ?

    Dans les sciences humaines et, en particulier en géographie, on peut certes s’attendre à des parentés de questionnement. Dans les deux cas, en effet, on cherche souvent à modéliser des phénomènes hétérogènes, spatialisés et où les interactions individuelles ont un poids fort. Ainsi, le cas des modèles de géographie pourra servir effectivement à tester plus largement l’interprétation qui fut la nôtre de l’un des apports récents et décisifs de la simulation sur computeur : la prise en compte renouvelée et plus efficace de l’espace, des interactions spatiales et des phénomènes spatialisés par les formalismes. Mais on ne doit jamais oublier que l’analogie n’a pas valeur de preuve en elle-même, car elle ne fournit aucunement ni systématiquement les schémas causaux plausibles⁴: une ville, nous l’avons dit, ne possède pas quelque chose comme un déterminisme génétique strict qui puisse être comparé à celui des plantes. À ce titre, même si elle prend elle aussi la forme d’un phénomène spatial aux causalités multiples, hétérogènes et déclenchés diversement au cours de son histoire individuelle, une plante constitue un système spatial complexe probablement plus simple, parce que plus invariablement contraint, qu’une ville. Et, a posteriori, on peut même le dire : c’est sans doute essentiellement pour cette raison toute pragmatique, du point de vue de l’instrumentation et de la détermination stabilisée des modèles de données, qu’il a été historiquement plus facile de calibrer un modèle de simulation pluriformalisé de croissance de plantes que ce n’est le cas encore aujourd’hui pour un modèle de croissance de villes. D’où peut se comprendre l’avance relative des modèles de simulation de plantes.

    Un des fils rouges de notre enquête prendra ici la forme de la question suivante et de ses déclinaisons :comment, à quelles conditions, avec quels nouveaux outils, avec quelles modifications des pratiques cognitives et des usages des instruments tant matériels (capteurs, dispositifs de relevé, de sondage, de cartographie, de computation, etc.) que symboliques (notations, formalismes, lois, modèles, etc.) s’effectue la prise en compte de plus en plus fine et de moins en moins grossière du rôle de l’espace dans lesactions et interactions humaines ? Jadis Ilya Prigogine et Isabelle Stengers avaient annoncé une Nouvelle Alliance, celle qui verrait la prise en compte véritable du temps dans les systèmes complexes, à savoir de l’historicité, au moins sous la forme de l’irréversibilité. Sommes-nous en situation de pouvoir annoncer une « nouvelle » Nouvelle Alliance, celle qui verrait enfin une meilleure prise en compte de l’espace ? Sans céder à la grandiloquence en la matière, qui confinerait en fait à l’insignifiance du fait de cette simple symétrie d’annonce, mais sans dévoiler non plus ici tous les résultats de notre enquête, on peut déjà noter deux points essentiels. D’une part, avec l’avènement du computeur et de certaines nouvelles techniques associées de symbolisation et de simulation des systèmes, la formalisation n’est plus systématiquement à opposer à la finesse de la représentation géographique ou à sa fidélité. D’autre part, opérabilité (calculabilité pratique) et fidélité de la formalisation peuvent aller de plus en plus de pair : pour qu’un modèle soit utilisable, opérable, il n’est pas nécessaire de le maintenir exclusivement dans l’espace aseptisé d’une mathématique généralisante où l’on chercherait avant tout des théorèmes abréviateurs et résolutoires.

    Mais tout d’abord, qu’est-ce que la géographie ? La définition de la géographie ne rencontre pas l’unanimité. Les épistémologues et historiens s’accordent cependant àdire que la géographie contemporaine reconnaît ses ancêtres dans les pratiques de mesure de la terre, comme son étymologie l’atteste, puis dans les pratiques d’exploration du globe terrestre⁵. Lorsque cette exploration se concentre sur les phénomènes humains, on peut y voir l’ancêtre de la géographie humaine. Lorsqu’elle se concentre sur les phénomènes physiques (géologiques, hydrologiques), on y voit l’ancêtre de la géographie physique. Mais selon Hartshorne, par exemple, la géographie doit toujours joindre les deux. Dans son ouvrage de 1990, Haggett reprend à son compte cette demande. Il reformule et s’approprie en ces termes la caractérisation d’Hartshorne : « [La géographie] s’attache à fournir une description et une interprétation précises, ordonnées et rationnelles des caractères variables de la surface de la Terre⁶. » Plus brièvement, pour Haggett, elle est « l’étude de la surface de la Terre comme espace dans lequel la population humaine vit⁷ ». Chez certains autres auteurs, la présence de l’homme est considérée de manière encore moins dérivée par rapport à l’objet « espace » : chez eux, la géographie est souvent définie comme « science de l’organisation de l’espace et des pratiques spatiales humaines⁸ », façon d’indiquer que la population humaine participe toujours déjà de la définition même des espaces et de la spatialité dont il doit être question en géographie. Dans les deux membres de cette définition, on reconnaît cependant encore ce qui concerne plutôt, d’une part, la géographie physique et, d’autre part, la géographie humaine.

    Après la Seconde Guerre mondiale, dans son versant de « géographie humaine », la géographie se reconnaît de plus en plus comme une science sociale à part entière, aux côtés de l’économie, de la sociologie et de la démographie. Quand elle cherche principalement à mettre au jour des théories formalisées, des lois ou des modèles, qu’elle soit physique ou humaine, on peut qualifier la géographie de « géographie quantitative et théorique ». C’est évidemment cette approche quantitative et théorique de la géographie humaine qui nous concernera de manière privilégiée ici. Nous y reviendrons.

    Mais il nous faut rappeler qu’avant même d’être confrontée à son tournant quantitativiste et théorique, qui interviendra quant à lui à partir des années 1950, la géographie humaine a été et reste traversée d’interrogations fondamentales qui contribuent à questionner périodiquement sa nature et son objet, cela essentiellement dans ses liens avec la géographie physique et, notamment à travers elle, mais pas seulement, dans ses rapports plus larges avec les sciences de la nature que l’on dit parfois « dures ». Même si ces questions récurrentes appartiennent à la longue durée et relèvent davantage de la métaphysique des sciences (expression récemment introduite par les philosophes pour désigner le versant ontologique de la traditionnelle philosophie de la nature), nous les rencontrerons çà et là comme arguments ponctuels dans les débats au sujet de la légitimité de telle ou telle méthode de conceptualisation ou de modélisation en géographie humaine. Dans les discours d’épistémologie appliquée que produisent les chercheurs en géographie eux-mêmes, la méthode d’approche est en effet souvent légitimée au nom de la connaissance supposée préalable que l’on aurait de la nature de l’objet. Aujourd’hui encore, aux yeux de beaucoup, la métaphysique des sciences continue à faire fond sur cette hypothèse traditionnelle (que nous croyons fausse en grande partie, ainsi que nous le verrons) que son étude doit venir avant celle de la méthodologie et de l’épistémologie appliquée et qu’elle doit donc les déterminer. C’est la raison pour laquelle ces types de questions et d’arguments – d’apparence préliminaire mais en fait souvent circulaires – sur la nature des objets interviennent très souvent dans les travaux de terrain eux-mêmes, ici donc en géographie. Il nous faut pouvoir les repérer. En réalité, comme l’a rappelé David Harvey dans ce même contexte d’épistémologie de la géographie, la méthodologie n’est jamais logiquement ni strictement ni uniformément imposée par une conception philosophique ou ontologique de l’objet que l’on étudie. Ainsi, par exemple, la conception déterministe de Laplace ne l’a nullement déterminé à refuser le développement de modèles probabilistes⁹. Nous tombons d’accord avec Harvey sur le fait qu’il y a matière à nettement distinguer d’une part les déterminants de l’ontologie d’une science et, d’autre part, les déterminants de la méthodologie de cette science. Or, notre ouvrage propose une analyse historique et comparative des méthodes de terrain comme des développements méthodologiques réflexifs produits par les scientifiques eux-mêmes en matière de théories, de lois, de modèles et de simulation. Cette analyse comparative peut à bon droit entrer dans le domaine non de la métaphysique des sciences, mais d’une épistémologie appliquée et comparative des méthodes des sciences.

    Nous croyons ici en l’existence possible, en la vertu comme en la certaine autonomie d’une épistémologie des méthodes par rapport à ce qui se présenterait comme une métaphysique des sciences, dès lors que, précisément, avec l’avènement et l’expansion tous azimuts des méthodes des modèles au XXe siècle, aucun profil ontologique n’impose plus systématiquement ni univoquement un profil épistémologique ou méthodologique, contrairement à ce que supposaient encore les belles analyses de Bachelard, par exemple, mais bien d’autres aussi avant et après les siennes¹⁰. L’inverse est également vrai : aucune méthode à elle seule ne dicte ni n’impose avec évidence ce que l’on doit penser de l’ontologie des objets ou des systèmes à l’étude. L’autonomie entre métaphysique et méthode s’est donc accentuée avec l’essor des modèles, même si l’invocation d’une ontologie préférée dans tel ou tel contexte, pour telle ou telle raison, continue souvent de servir à la légitimation de certaines méthodes. Ainsi, quand nous lirons les textes, nous reconnaîtrons bien sûr encore la présence forte de cette forme argumentative de légitimation de la méthode et de l’épistémologie par l’ontologie mais en lui refusant toute nécessité de fait, tout pouvoir absolu de détermination effective et en apprenant chaque fois – au contraire – à en discerner la portée limitée, en son lieu.

    Certes, nous savons bien que la croyance excessive en une telle autonomie est pour certains justement la marque d’une idéologie naïve car platement positiviste. Elle restera d’ailleurs vivement contestée chez les géographes marxistes (dont plus tard Harvey lui-même), ou chez les géographes humanistes qui, pour cela, rejetteront parfois en bloc les approches modélistiques. Nos analyses n’oublieront pas cet enjeu qui, on le voit donc dès maintenant, est lui-même philosophique s’il n’est certes pas directement métaphysique : une analyse fine des méthodes et de leurs justifications (fussent-elles, elles-mêmes, parfois métaphysiques) produit donc non pas seulement de la méthodologie comparée, comme le croit en revanche trop exclusivement Harvey en 1969, mais aussi de la philosophie des sciences au plein sens du terme, qui n’est donc ni de la méthodologie ni de la métaphysique, mais de celle qu’on ne peut écrire à l’avance ni anticiper, de celle qui ne peut être constituée qu’au cours d’une analyse et d’une conceptualisation du terrain historique et évolutif des pratiques, de leurs interactions et de leurs légitimations. Nous revendiquons par là le droit à la constitution d’une pratique de philosophie des sciences qui prendrait la forme d’une épistémologie active : une épistémologie ni seulement théorique – c’est-à-dire qui serait inféodée aux seules définitions conceptuelles préalables puis à la recherche de légitimations ponctuelles et a posteriori, sélectionnées pour les besoins de l’argument dans l’immense éventail des productions scientifiques –, ni seulement appliquée et pragmatique – c’est-à-dire qui serait motivée par une exposition seulement descriptive des méthodes n’ayant qu’une visée utilitaire dans les sciences.

    Pour l’heure, et simplement donc afin de disposer de critères de reconnaissance pour ce genre de débats que l’on a déjà dit biaisés car liés souvent à des rationalisations de circonstance, brossons ici à gros traits un tableau des trois alternatives métaphysiques majeures et récurrentes au sujet du fondement de la géographie humaine. En effet, ces alternatives classiques serviront souvent à mettre en place des points de repère ou au contraire des repoussoirs lorsqu’il s’agira, pour les géographes, de développer ou soutenir un instrument, une technique ou une pratique nouvelle de théorisation de modélisation ou de simulation. Il nous faut donc savoir les repérer et les interpréter dans leurs grandes lignes¹¹.

    3] Déterminisme ou possibilisme

    La première alternative consiste à catégoriser le géographe selon qu’il semble être un tenant du déterminisme environnemental ou, au contraire, du volontarisme culturel et social. Le déterminisme naturaliste – ou déterminisme environnemental selon l’expression anglo-saxonne¹² – propre aux conceptions géographiques de Alexander von Humboldt, Karl Ritter¹³ ou Friedrich Ratzel (1844-1904) par exemple a une de ses origines principales dans les philosophies de la nature post-kantiennes. Elle reçoit un écho renouvelé aux États-Unis notamment du fait de sa certaine parenté avec l’environnementalisme nord-américain dont on trouve la trace chez des penseurs et poètes comme Walt Whitman¹⁴. D’après l’historien de la géographie Johnston, il faut aussi y voir une conséquence de la diffusion du darwinisme dans la mesure où l’Origine des espèces (1859) de Darwin illustre cette hypothèse forte de l’influence – ne serait-ce qu’indirecte car opérant par sélection ex post – de l’environnement sur les formes de vie et donc aussi probablement sur les sociétés¹⁵. En géographie, ce déterminisme naturaliste considère les productions humaines et sociales comme étant fortement ou majoritairement déterminées, et cela de manière essentiellement unidirectionnelle¹⁶, par les conditions naturelles du lieu dans lesquelles elles apparaissent (climat, topographie, type de sol, hydrologie, etc.).

    Dès lors, dans cette perspective, et même s’il nous faudrait fortement nuancer selon les auteurs, notamment pour Ratzel, tout exposé géographique commence le plus souvent par un exposé de géographie physique qui, par là, circonscrit les déterminismes et les contraintes qui pèsent sur l’aire ou la région étudiée¹⁷. Selon ses opposants ou critiques, un tel déterminisme se reconnaîtrait à ce qu’il néglige les interactions et les effets de rétroaction des choix humains et sociaux sur l’environnement physique¹⁸. Au contraire, le volontarisme culturel considère que les formes culturelles et les phénomènes sociaux associés sont largement indépendants des lieux dans lesquels ils apparaissent et s’épanouissent : dans cette perspective, il y a donc une priorité ontologique et une autonomie fortes qui sont données aux formes sociales et aux volontés humaines qu’elles manifestent. Une troisième voie¹⁹, représentée par certains textes de Vidal de la Blache, et nommée plus tard « possibilisme » par Lucien Febvre, considère que les caractéristiques physiques d’un lieu géographique donnent seulement un cadre, des contraintes limitatives qui ne font que rendre possibles mais nullement nécessaires certains phénomènes sociaux spatialisés. Il y a donc une marge de manœuvre, une place pour une initiative, une inventivité ou un calcul proprement humain ou social. Il est significatif que Peter Haggett et David Harvey²⁰ considèrent, quant à eux, que le possibilisme français constitue non pas une troisième voie mais bien le pendant extrême du déterminisme naturaliste germanique puis anglo-saxon, comme l’équivalent même de ce que nous avons appelé provisoirement le volontarisme culturel et social²¹.

    Pour leur part, Haggett et Harvey, suivis bientôt par Stoddart²², considèrent que, du point de vue de la question des déterminations réciproques, c’est plutôt à la conception écologique « homme-environnement » qu’il faut attribuer le statut de troisième voie, dès lors qu’elle conçoit l’homme à l’image d’un animal dans son milieu, milieu dont il dépend, qu’il utilise mais aussi qu’il transforme et modèle parfois à sa guise. Dans cette perspective, la géographie aurait pour objet « l’écosystème humain » et, en tant que discipline, on pourrait la qualifier d’« écologie humaine²³ ».

    4] Science idiographique ou science nomothétique

    La deuxième alternative majeure et récurrente, lorsqu’on débat sur la nature de la géographie humaine, est celle qui voit l’opposition entre une conception idiographique et une conception nomothétique des faits géographiques. La conception idiographique (idios signifiant singulier en grec) est celle qui commande à la géographie de se focaliser sur les aspects singuliers²⁴ des phénomènes géographiques. La région devient alors le lieu privilégié dans lequel un croisement unique de traits ou d’aspects typiques forme une singularité. Le géographe se mue en connaisseur érudit des régions d’un territoire. Lorsqu’on évoque des formes contemporaines d’écriture géographique apparentées à ce style, on parle encore souvent de « géographie régionale ». Cette approche, sensible à la « différenciation spatiale » est notamment consacrée par Richard Hartshorne aux États-Unis qui avait adapté lui-même en partie les vues méthodologiques principales du géographe allemand Alfred Hettner sur la question, mais on la trouve déjà aussi dans l’épistémologie française de la géographie s’inscrivant dans la lignée des approches par les « pays » de Vidal de la Blache et de ceux qui l’ont suivi. Le géographe y pratique la description au niveau local plutôt que la recherche de lois²⁵. Sa méthode ne semble pas pouvoir se distinguer de sa personne ni de son vécu propre. Car il porte un savoir approprié, personnel, difficile à transmettre : ce savoir est celui qui, acquis à force de pérégrinations et d’imprégnations, permet de lire à travers leurs manifestations les singularités de ces régions. La production scientifique est alors narrative et même volontiers littéraire²⁶. Elle ne laisse pas la place à la recherche de lois générales et s’oppose à l’approche nomothétique (nomos signifiant loi en grec). Cette dernière se propose, quant à elle, de rechercher des lois géographiques transcendant les particularismes régionaux.

    Par l’effet d’un glissement sémantique, l’approche idiographique est également appelée « exceptionnalisme » en référence à l’article influent et souvent cité de Fred K. Schaefer sur cette question²⁷. Quand on le lit cependant, on s’aperçoit que Schaefer entend par « exceptionnalisme » cette thèse selon laquelle la géographie ferait exceptionau sens où elle ne serait pas une science comme les autres dans le paysage des autres sciences²⁸. Sa méthode différerait de celles des autres sciences. Et il est vrai que le caractère majoritaire à l’époque²⁹ de l’approche idiographique participe de la différence spécifique que les exceptionnalistes veulent voir entre la géographie et les autres sciences. Par proximité et confusion sémantiques, on a parfois assimilé directement exceptionnalisme et approche idiographique car on a pu considérer que l’approche idiographique était l’étude de ce qui se présentait toujours comme une forme exceptionnelle, parce que singulière, et qu’elle récusait par là d’entrée de jeu toute recherche de loi en géographie humaine³⁰. Un certain nombre de concepts seront forgés pour échapper à ce qui peut apparaître comme une alternative réductrice. Denise Pumain et Thérèse Saint-Julien rappellent ainsi combien ce débat installe une fausse alternative dont le caractère erroné n’apparaît jamais mieux que lorsque l’on refuse de confondre position géographique et situation géographique :

    La situation géographique, c’est l’ensemble des propriétés qui caractérisent à un moment donné la position d’un territoire, dans sa dimension et dans ses relations aux entités territoriales qui fonctionnent à la même échelle, c’est-à-dire au même niveau territorial d’organisation : les communautés de voisinage, les régions, les États fonctionnent à des échelles différentes. [...] L’exploitation d’une situation géographique par les sociétés tend à perpétuer les avantages, à les maintenir ou à les renforcer. C’est en ce sens que l’on peut parler pour la France d’une « rente de situation » faite de l’accumulation sur le temps long des effets de plusieurs éléments de situation successivement avantageux. Mais une situation géographique n’est jamais donnée une fois pour toutes, que cette situation soit évaluée en termes de milieu physique, de position ou de dimension. Le milieu physique est lié à la situation en latitude et en longitude et aux grandes unités du relief et de l’hydrographie. On pourrait le croire immuable : les mers et les montagnes, les plaines et les grands fleuves sont pratiquement fixes depuis le début de l’histoire des sociétés politiquement organisées. Mais ces éléments fixes n’ont pas de valeur dans l’absolu. Dans leur compétition pour l’appropriation et la mise en valeur des ressources, et selon le contexte technique et économique du moment, les sociétés révisent constamment leur évaluation des avantages de chaque territoire³¹.

    Alors qu’une position géographique – parfois appelée site – est absolue, une situation relève d’une double relativité : relativité en quelque sorte « interne », car interne au système technique et économique du moment pour une société qui occupe une position, mais aussi relativité « externe » car liée aux systèmes d’interactions (interactions elles-mêmes plus ou moins fortes ou faibles) entre les sociétés³². C’est un concept relationnel qui a d’ailleurs pris son essor dans le contexte de l’analyse spatiale, c’est-à-dire dans le contexte de cette approche de la géographie qui la conçoit avant tout comme la « science des interactions spatiales³³ ». Avec cette perspective conceptuelle assouplie, la singularité comme la généricité sont le produit d’interactions comme d’opportunités historiques variables. La singularité d’un territoire peut prendre une valeur générique. Ou bien, au contraire, un espace aux propriétés physiques communes et répandues peut devenir le théâtre singulier de ruptures économiques et sociales majeures. Par ailleurs, être sensible aux caractères de « situation » des aires géographiques, c’est éventuellement aussi faire sa place aux représentations des acteurs sociaux et à leur variabilité, tant temporelle que spatiale, pour l’explicitation même de certains moteurs des dynamiques spatiales.

    5] Science spécifique ou science de synthèse

    La troisième alternative majeure et récurrente porte sur la question de savoir si la géographie possède un objet d’étude qui lui est spécifique ou bien si la géographie doit se penser comme une science intégrative, comme une science de synthèse, c’est-à-dire ayant pour objectif de synthétiser des savoirs acquis ailleurs dans d’autres sciences : physique, géologie, histoire, économie, sociologie, etc. Une sous-question, dépendant elle-même de cette alternative principale, porte sur la nature de son éventuel objet particulier : la géographie étudie-t-elle des phénomènes sociaux ou des phénomènes naturels ? Est-elle une science sociale ou une science de la nature ? Si l’on veut d’abord répondre à cette première sous-question, on peut imaginer que la géographie physique se range plutôt du côté des sciences de la nature, éventuellement même dans les sciences partiellement descriptives et historiques de la nature, alors que la géographie humaine se rangerait clairement du côté des sciences sociales. Mais certaines conceptions néo-environnementalistes peuvent aujourd’hui continuer à niveler cette fracture en concevant la géographie humaine elle-même à l’image d’une écologie humaine. Comme nous le verrons, certaines approches de théorisation ou de modélisation analogiques peuvent sembler aller précisément dans ce sens.

    Si l’on revient maintenant à la question principale (science de synthèse versus science à objet spécifique), le moins que l’on puisse dire est que le débat a été nourri, notamment en France³⁴. Dans son article de 1953, Fred K. Schaefer niait pour sa part que la géographie soit davantage une science intégrative que les autres sciences sociales comme l’économie ou la sociologie par exemple³⁵. C’était d’ailleurs surtout dans ce sens direct qu’il fallait comprendre sa critique de ce qu’il baptisait l’« exceptionnalisme » : la géographie humaine n’a pas à mettre en œuvre une méthode exceptionnelle, qui lui serait propre, au motif qu’elle serait la seule science intégrative des sciences sociales. Car ce n’est pas le cas selon Schaefer. En France, les successeurs de la géographie vidalienne ont pourtant souvent considéré qu’« il fallait sauvegarder l’unité de la géographie³⁶ » et cela au prix du maintien ou du renouvellement de l’idée selon laquelle la géographie serait une science de synthèse. Ainsi de Philippe Pinchemel, ou encore de Jacqueline Beaujeu-Garnier qui écrit :

    Ce qui fait la particularité du géographe, c’est que le fait qui lui sert de départ n’est à peu près jamais simple. [...] Il est le spécialiste de l’ensemble, du complexe. La géographie est la recherche des rapports entre des phénomènes de natures différentes, le cadre naturel et les sociétés établies. [...] La géographie est l’étude de leurs interrelations, de leurs combinaisons associant inéluctablement phénomènes physiques – donc sciences de la Terre – et faits humains – donc sciences sociales et économiques. Elle se trouve être une discipline carrefour³⁷.

    Comme les phénomènes étudiés sont de natures différentes, il faut tour à tour utiliser les savoirs acquis dans d’autres sciences. C’est en cela au minimum que consisterait la « synthèse » : avec l’image du carrefour, elle prend la forme d’une rencontre, plus exactement d’une intersection entre savoirs constitués complets sur des phénomènes différents mais reliés en situation géographique. Lorsque Jacques Scheibling invoquera plus tard lui aussi cette idée d’une science de synthèse, ce sera en précisant qu’il s’agit d’une synthèse spatiale à partir d’analyses multiples issues elles-mêmes de l’intérieur de la géographie. Il ne s’agirait donc pas tant de superpositions que de réelles compositions :

    La géographie est le seul savoir scientifique susceptible de réaliser une synthèse spatiale à partir d’analyses multiples. Autant, nous l’avons dit et répété, la synthèse entre géographie physique et géographie humaine n’a pas de sens, autant on peut admettre que l’espace social étant par définition composite, la science qui s’en préoccupe est forcément, elle-même, composite. [...] La synthèse est la capacité de la géographie d’utiliser toutes les approches de la géographie et si besoin est, de toutes les sciences connexes, de leurs résultats et, parfois de leurs démarches propres pour rendre compte d’un espace [...] Si les causes des phénomènes spatiaux ne sont pas toutes linéaires, les interactions ne sont pas toutes en boucle. Il y a bien une hiérarchie des causes et c’est peut-être la grande question de la géographie, non pour prouver la cause première ou la « dernière instance » mais pour comprendre quelles sont les caractéristiques essentielles des structures et du fonctionnement ou des dysfonctionnements de l’espace ou du territoire³⁸.

    Dans cette perspective, c’est l’objet que se donne à étudier la géographie qui est lui-même composite. Et c’est prioritairement dans l’analyse de sa dimension spatiale que se reconnaît l’unité de la méthode géographique. Venus d’autres perspectives, d’autres chercheurs en appellent également aujourd’hui à la reconnaissance de ce caractère composite de l’objet géographique, dès lors que, pour un même système à l’étude, ce caractère composite ne manifeste justement pas une frontière bien nette ni toujours la même entre les aspects de géographie physique, humaine, économique, sociale, culturelle ou encore environnementale, ce qui semble constituer un point d’achoppement majeur pour les méthodes de modélisation. Haggett – et Hartshorne avant lui – ont bien fait remarquer que les associations de facteurs causaux typiques en géographie n’étaient pas elles-mêmes typiques : chaque région présente donc non pas tant des facteurs singuliers qu’une forme singulière d’association de facteurs³⁹. Ce qui en rend l’étude difficile. La systématicité est de nouveau battue en brèche à ce niveau-là. Comme le suggère Nicole Mathieu, par exemple, il faut donc peut-être développer des clés médiatrices distinctes entre systèmes naturels et systèmes sociaux, clés fonctionnant diversement, à l’aide de concepts ad hoc plus ou moins applicables dans différentes situations mais toutefois rigoureusement classés et éprouvés à partir du terrain (comme le concept de mode d’habiter ou le couple de concepts représentation/pratique)⁴⁰.

    Comme on a déjà pu en prendre la mesure avec le rappel de ces trois grandes alternatives épistémologiques, la géographie reste encore traversée de questions fondamentales tournant autour de ses objets, de ses méthodes et de sa portée propre. En brossant ce rapide tableau, notre objectif était seulement d’outiller conceptuellement notre lecture historique et comparative qui, pour sa part, se focalisera non sur ces débats eux-mêmes mais, comme nous l’avons annoncé, sur quelques-unes des principales pratiques de théorisation, de modélisation et de simulation en géographie humaine avant et depuis l’émergence de l’ordinateur.

    Pour prévenir tout jugement prématuré en la matière, on peut déjà signaler par avance quelques résultatsdéroutants de notre enquête historique et méthodologique : à l’analyse, on observe que l’adoption du computeur et l’évolution corrélative des formalismes usuels en géographie de théorisation et de modélisation n’impliquent pas systématiquement que leurs tenants tranchent par le fait même en faveur du déterminisme naturaliste. L’essor et la diversification des techniques de modélisation n’imposent pas non plus toujours que les chercheurs concernés perçoivent la géographie comme une science principalement nomothétique. Davantage, ces nouvelles techniques permettent de poser à nouveaux frais, et avec une vision parfois enrichie, la question du caractère synthétique ou composite de la géographie. Mais, elles ne proposent pas par là non plus de réponse toute faite ou valable universellement à ce sujet. Le tableau que l’on peut aujourd’hui dresser des premiers effets de l’informatisation en géographie de modélisation se révélerait donc plus surprenant et contre-intuitif qu’on ne peut l’imaginer à partir des idées que l’on se fait communément au sujet de ce qu’est ou fait un computeur ou de ce que sont les mathématiques. C’est justement l’objectif de cette étude de donner l’idée de cette complexité, de fournir des concepts opératoires afin de la penser précisément et d’en analyser les raisons, les facteurs comme aussi la dynamique historique propre.

    Dès lors qu’il se concentre sur les méthodes de formalisation et sur leur évolution comparative, cet ouvrage ne traitera pas frontalement ni essentiellement les objets d’étude qui font en revanche l’ordinaire de ce qu’il est donc convenu d’appeler aujourd’hui la métaphysique de la science. On ne trouvera pas ici un règlement supposé définitif de la question de l’existence ou non de causes, de fonctions, de lois ou de mécanismes sociaux, ni non plus celle de la question de leur réduction à d’autres causes, lois ou mécanismes. En revanche, l’évolution des pratiques de formalisation, qui quant à elles ont une historicité réellement tirée par l’évolution des instruments matériels ou formels et des techniques, rencontre périodiquement ces questions comme elles rencontrent aussi bien sûr, et plus fréquemment encore, les trois grandes alternatives présentées plus haut et auxquelles on réduit d’ailleurs souvent à l’excès l’épistémologie de la géographie. Notre hypothèse ici est que ces questions ontologiques ne sont pas de poids négligeable mais qu’elles font simplement partie, à côté d’autres, des instruments de rationalisation et de légitimation produits ou reproduits de façon circonstancielle et souvent après coup, et que c’est plutôt l’évolution des techniques et des instrumentalités tant matérielles que symboliques qui les entraîne dans son sillage et en renouvelle chaque fois la portée ou la signification. Si on admet que c’est principalement la science qui impose une rectification de l’épistémologie, il faut bien que cette rectification lui soit imposée par une certaine avance des instruments et des méthodes scientifiques – plutôt que des seules théories – sur l’épistémologie d’origine philosophique qui essaie sinon de les penser, mais toujours avec retard donc.

    6] Méthode et choix du corpus

    Eu égard aux termes mêmes de notre problématique, le traitement que nous avons choisi suit un plan dont les têtes de chapitres ne sont pas prioritairement centrées sur des objets géographiques (tels que : migrations, diffusion, transport, croissance urbaine, etc.), mais plutôt sur des types de formalisation et de construits symboliques appliqués eux-mêmes chaque fois à des types d’objets géographiques qui peuvent être soit similaires, soit distincts. Ce plan se concentre en effet sur des catégories de lois, de théories, de modèles et de simulations qu’il distingue en s’appuyant sur des analyses de textes méthodologiques comme sur des analyses d’exemples. En elles-mêmes, les parties II à IV, plus proprement historiques, proposent une première confirmation des classifications raisonnées exposées dans la première partie. Leur séquence ne présente cependant pas une simple juxtaposition. Car elle est aussi pour l’essentiel – quoique pas toujours strictement du fait de la naissance simultanée de diverses techniques de modélisation⁴¹ – chronologique, dès lors qu’elle part du principe qu’on ne peut utiliser une instrumentalité matérielle ou symbolique servant à la formalisation – et servant ensuite par là sur le terrain à rectifier ou déplacer éventuellement les ontologies ou les épistémologies consacrées – avant qu’elle soit à disposition et qu’elle soit diffusée dans la communauté.

    En présentant ce qui a rendu possible le développement de tel type de formalisation dans le contexte particulier de la géographie, d’ailleurs souvent hostile, en analysant chaque fois l’origine éventuellement extra-disciplinaire, mais pas toujours, de cette formalisation (on pense bien sûr à la physique, à l’économie, mais aussi à la biologie et à la théorie des systèmes), en exposant les innovations techniques et technologiques qui ont permis ce développement (essentiellement, pour ces cinquante dernières années l’émergence du computeur et de l’ensemble des caractéristiques qu’il possède, et ce dans des dimensions toujours plus importantes : mémoire, sorties graphiques, expressivité croissante et plus souple des langages de programmation), enfin en explicitant les motivations méthodologiques et épistémologiques des chercheurs qui ont particulièrement permis ce développement à un moment donné plutôt qu’à un autre, elle montre au total que cette séquence a un certain sens et une certaine logique : à tout le moins, elle peut se comprendre.

    Dans les grandes lignes, par exemple, elle montre que, à la faveur de l’évolution des formalismes simplement disponibles sur le papier ou devenant effectivement traitables, la recherche de lois ou de théories, qui fut la première forme visible que prit la « révolution » quantitative en géographie, a progressivement laissé la place à la recherche de modèles mathématiques, puis celle de modèles mathématiques à celle de modèles de simulation plus complexes, à support informatique. Elle montre par là que, même si elle est finalement loin d’avoir réussi à échafauder des théories universelles ou incontestées comme elle a d’abord cru qu’elle devait le faire (mais le doit-elle finalement ?), la géographie de formalisation tend à parvenir toujours mieux, en tous les cas toujours moins mal, à prendre en compte le rôle de l’espace dans les actions et interactions humaines spatiales, y compris – et c’est peut-être ce qui surprendra le plus – lorsqu’il lui faut prendre en compte la relativité même de ce que les hommes s’accordent, dans une culture donnée, à percevoir, à reconnaître ou encore à construire comme un « espace » ou une « dimension spatiale ».

    Le travail érudit d’Olivier Orain⁴² a bien mis en évidence cette structurante tension et le basculement récent – en particulier dans la géographie française – entre réalisme et constructivisme concernant la dimension spatiale des phénomènes sociaux. En un sens, notre travail peut être également vu comme une enquête parallèle en même temps que comme une ramification vers un questionnement proche, quoique distinct car centré sur les construits de facto que sont

    Vous aimez cet aperçu ?
    Page 1 sur 1