Découvrez des millions d'e-books, de livres audio et bien plus encore avec un essai gratuit

Seulement $11.99/mois après la période d'essai. Annulez à tout moment.

Le zéro et le un: Histoire de la notion d'information au XXe siècle, Vol. 2
Le zéro et le un: Histoire de la notion d'information au XXe siècle, Vol. 2
Le zéro et le un: Histoire de la notion d'information au XXe siècle, Vol. 2
Livre électronique821 pages10 heures

Le zéro et le un: Histoire de la notion d'information au XXe siècle, Vol. 2

Évaluation : 0 sur 5 étoiles

()

Lire l'aperçu

À propos de ce livre électronique

Etude approfondie de la notion scientifique d'information.

La notion d’information est particulièrement polymorphe, luxuriante même. Ses définitions prolifèrent, son domaine lexical est si vaste que la probabilité que deux spécialistes de l’information (sans plus de précision) évoquant cette notion ne parlent en fait pas de la même chose est très élevée. Nous avons tous une idée vague et courante de que ce terme veut dire, nous utilisons tous ce vocable aux multiples acceptions propres à notre quotidien, tandis que les physiciens et les mathématiciens, entre tentatives de formalisation rigoureuses et multiplications des domaines d’application de l’information, développent sans cesse leur compréhension de ce que certains voient comme une nouvelle catégorie du réel. Les sciences humaines, via notamment les sciences de l’information et de la communication, et la linguistique, ont également contribué à l’inflation conceptuelle et lexicale des usages et significations de ce terme. Quant à la biologie, il est patent qu’elle a incorporé l’information à son socle théorique de manière massive. Cette discipline est sans doute celle où cette notion est des plus discutées, notamment parce que la biologie peut dialoguer avec la physique, l’informatique et les mathématiques via la notion d’information, et parce que le programme génétique, Deus ex machina du fonctionnement cellulaire pendant ces cinquante dernières années, est redevable de fortes critiques issues de théories très stimulantes. Le chapitre 7, véritable essai de 110 pages sur «  l’information et le vivant  : aléas de la métaphore informationnelle  », offre une vision panoramique de cette histoire dense et complexe.

Le livre de Jérôme Segal permet de comprendre les racines historiques et épistémologiques de cette profusion et des confusions qui continuent encore trop souvent à perturber notre perception de la notion scientifique d’information. Il s’interroge également sur l’unité du savoir que certains théoriciens de l’information ont cru fonder sur cette instance du réel qui a véritablement révolutionné le XXe siècle et qui sera sans nul doute un objet scientifique crucial durant le siècle en cours.

A travers ce second volet, replongez-vous dans les racines historiques et épistémologiques de la profusion et des confusions qui sont aujourd'hui caractéristiques de la notion d'information.

EXTRAIT

S’il est un domaine où la notion d’information a connu une multitude d’applications et de réappropriations, c’est sans conteste dans l’étude du vivant. L’ambiguïté essentielle liée au fait que cette notion scientifique est désignée par un mot du langage courant donnera lieu à une impressionnante série de contresens, d’abus, pour ne pas parler parfois de simples impostures. À côté de ces applications relevant souvent plus de l’effet de mode, il ne demeure pas moins que les théories mathématiques et physiques de l’information, qu’il s’agisse des écrits de Shannon ou de Brillouin, ont eu un réel pouvoir heuristique.

À PROPOS DE L'AUTEUR

Jérôme Segal est maître de conférences en histoire à l’université Paris IV (ESPE Paris). Il est également chercheur associé à l’UMR SIRICE (Sorbonne-Identités, relations internationales et civilisations de l’Europe) à Paris ainsi qu'à l'Institut Ludwig Boltzmann d'histoire sociale à Vienne.
LangueFrançais
Date de sortie29 mars 2018
ISBN9782373610475
Le zéro et le un: Histoire de la notion d'information au XXe siècle, Vol. 2

Auteurs associés

Lié à Le zéro et le un

Livres électroniques liés

Sciences et mathématiques pour vous

Voir plus

Articles associés

Catégories liées

Avis sur Le zéro et le un

Évaluation : 0 sur 5 étoiles
0 évaluation

0 notation0 avis

Qu'avez-vous pensé ?

Appuyer pour évaluer

L'avis doit comporter au moins 10 mots

    Aperçu du livre

    Le zéro et le un - Jérôme Segal

    Couverture de l'epub

    Jérôme Segal

    Le zéro et le un

    Histoire de la notion d'information au XXe siècle. Volume 2

    2011 Logo de l'éditeur EDMAT

    Copyright

    © Editions Matériologiques, Paris, 2016

    ISBN numérique : 9782373610475

    ISBN papier : 9782919694433

    Cette œuvre est protégée par le droit d’auteur et strictement réservée à l’usage privé du client. Toute reproduction ou diffusion au profit de tiers, à titre gratuit ou onéreux, de tout ou partie de cette œuvre est strictement interdite et constitue une contrefaçon prévue par les articles L 335-2 et suivants du Code de la propriété intellectuelle. L’éditeur se réserve le droit de poursuivre toute atteinte à ses droits de propriété intellectuelle devant les juridictions civiles ou pénales.

    Logo CNL Logo Editions Matériologiques

    Présentation

    La notion d’information est particulièrement polymorphe, luxuriante même. Ses définitions prolifèrent, son domaine lexical est si vaste que la probabilité que deux spécialistes de l’information (sans plus de précision) évoquant cette notion ne parlent en fait pas de la même chose est très élevée. Nous avons tous une idée vague et courante de que ce terme veut dire, nous utilisons tous ce vocable aux multiples acceptions propres à notre quotidien, tandis que les physiciens et les mathématiciens, entre tentatives de formalisation rigoureuses et multiplications des domaines d’application de l’information, développent sans cesse leur compréhension de ce que certains voient comme une nouvelle catégorie du réel. Les sciences humaines, via notamment les sciences de l’information et de la communication, et la linguistique, ont également contribué à l’inflation conceptuelle et lexicale des usages et significations de ce terme. Quant à la biologie, il est patent qu’elle a incorporé l’information à son socle théorique de manière massive. Cette discipline est sans doute celle où cette notion est des plus discutées, notamment parce que la biologie peut dialoguer avec la physique, l’informatique et les mathématiques via la notion d’information, et parce que le programme génétique, Deus ex machina du fonctionnement cellulaire pendant ces cinquante dernières années, est redevable de fortes critiques issues de théories très stimulantes. Le chapitre 7, véritable essai de 110 pages sur « l’information et le vivant : aléas de la métaphore informationnelle », offre une vision panoramique de cette histoire dense et complexe. Le livre de Jérôme Segal permet de comprendre les racines historiques et épistémologiques de cette profusion et des confusions qui continuent encore trop souvent à perturber notre perception de la notion scientifique d’information. Il s’interroge également sur l’unité du savoir que certains théoriciens de l’information ont cru fonder sur cette instance du réel qui a véritablement révolutionné le XXe siècle et qui sera sans nul doute un objet scientifique crucial durant le siècle en cours.

    L'auteur

    Jérôme Segal

    Jérôme Segal est maître de conférences en histoire des sciences et épistémologie à l’université Paris IV. Diplômé de l’École centrale de Lyon, il a poursuivi ses études avec une thèse en histoire des sciences à l’université de Lyon suivie de recherches postdoctorales à l’Institut Max Planck d’histoire des sciences de Berlin. Depuis 2004, il vit à Vienne, en Autriche, où il a d’abord occupé les fonctions d’attaché de coopération universitaire et scientifique à l’ambassade de France, avant d’enseigner la philosophie à l’université de Vienne, puis de travailler sur un projet européen autour des festivals de cinéma. Ses publications sont disponibles sur son site : http://jerome-segal.de.

    Table des matières

    Deuxième partie. Un développement multidisciplinaire

    Chapitre 7. L’information et le vivant : aléas de la métaphore informationnelle

    1 - Aspects singuliers de la genèse de la théorie de l’information

    2 - L’information génétique

    3 - L’organisation biologique et la théorie de l’information

    4 - L’information en biologie aujourd’hui, son rôle dans quelques controverses actuelles de la biologie

    5 - Premières conclusions

    Chapitre 8. Des progrès techniques résultant de la théorie de l’information

    1 - Codage, stockage et transmission d’information

    2 - L’informatique comme « science du traitement de l’information »

    3 - Le rôle de la théorie de l’information dans l’établissement des réseaux informatiques

    Chapitre 9. La théorie de l’information comme théorie mathématique

    1 - Information, statistiques et probabilités

    2 - Où l’on retrouve les machines de Turing et le démon de Maxwell…

    3 - Applications théoriques et pratiques

    Conclusion de la deuxième partie. « Le concept d’information dans la science contemporaine »

    1 - Le colloque de Royaumont

    2 - Les institutions et les manuels

    3 - Ouvertures

    Troisième partie. Le rôle de la théorie de l’information dans ce développement

    Chapitre 10. L’introduction de la cybernétique en RDA : entre science bourgeoise et panacée

    1 - La cybernétique à l’Est dans les années 1950

    2 - Controverses en RDA sur la cybernétique ? (1961-1962)

    3 - Enthousiasme, « perversion » et « normalisation » (1963-1969)  

    4 - Conclusions et ouvertures

    Chapitre 11. La notion d’information dans l’émergence de l’unité du savoir

    1 - L’exemple de l’énergétique au tournant du siècle

    2 - La théorie de l’information dans l’histoire de l’unité des sciences

    3 - La dimension sémantique de l’information : un obstacle à l’unification ?

    4 - Représentations graphiques et design comme traces de cette tentative d’unité

    4.2 - Des applications sur mesures

    Chapitre 12. Typologie des applications de la théorie de l’information

    1 - L’axiomatisation et ses conséquences épistémologiques

    2 - Analogies, métaphores et modèles dans le développement de la théorie de l’information

    Conclusion

    1 - La nature de la notion d’information

    2 - Un premier bilan ?

    3 - Un champ ouvert, dans le domaine scientifique aussi bien qu’historique

    Un démon entre en scène (Antoine Danchin)

    Bibliographie et sources diverses

    Deuxième partie. Un développement multidisciplinaire

    Chapitre 7. L’information et le vivant : aléas de la métaphore informationnelle

    S’il est un domaine où la notion d’information a connu une multitude d’applications et de réappropriations, c’est sans conteste dans l’étude du vivant. L’ambiguïté essentielle liée au fait que cette notion scientifique est désignée par un mot du langage courant donnera lieu à une impressionnante série de contresens, d’abus, pour ne pas parler parfois de simples impostures. À côté de ces applications relevant souvent plus de l’effet de mode, il ne demeure pas moins que les théories mathématiques et physiques de l’information, qu’il s’agisse des écrits de Shannon ou de Brillouin, ont eu un réel pouvoir heuristique.

    Dans bien des cas, nous verrons que le formalisme de la théorie mathématique de la communication n’est qu’à peine utilisé et n’est en aucun cas constitutif des résultats annoncés. Si jusqu’aux années 1970 la théorie de l’information, toujours considérée comme point de ralliement des travaux relevant directement des théories de la communication ou de la cybernétique, a fait l’objet d’un enthousiasme rarement démenti, bien des scientifiques estiment aujourd’hui décevantes les applications faites de cette théorie. Nous nous proposons alors de montrer qu’à côté d’une simple évaluation scientifique des travaux en question, il convient de porter un regard attentif aux enjeux institutionnels, à la constitution de réseaux ou encore au poids des idéologies et présupposés philosophiques qui président à l’orientation desdits travaux.

    Comme dans tous les chapitres de cette deuxième partie, il ne peut être question de donner un compte rendu fidèle de toutes les applications de la notion scientifique d’information. Si nous avions le devoir de viser à l’exhaustivité dans l’exposé de la naissance de la théorie mathématique de la communication ou de la cybernétique (les trois premiers chapitres), une telle prétention serait pour le moins déplacée pour l’analyse de ce qui touche aux différentes utilisations qui sont faites de la théorie de l’information. Il nous a donc fallu là encore faire des choix.

    Le lecteur passionné par les techniques de chromatographie utilisées en biochimie sera peut-être déçu de constater que les applications correspondantes de la théorie de l’information sont ici passées sous silence, alors même qu’elles représentent un quart des publications recensées dans le SCI pour l’année 1993 [1] . De même la pédologie, la géologie [2]  ou même l’écologie et l’entomologie ne font l’objet d’aucune analyse, pas plus que les disciplines biomédicales comme l’endocrinologie ou la cardiologie. Dans chacun de ces domaines, la théorie de l’information a pourtant été appliquée, et la seule lecture des quelques références données ci-dessous témoigne de la diversité du type d’application. La théorie de l’information est tantôt considérée comme un simple outil statistique apportant une quantification de résultats théoriques, tantôt au contraire comme une partie essentielle des fondements de toute une discipline. En cela, elle nous amène à nous interroger tout simplement sur le rôle des mathématiques en biologie.

    Au milieu des années 1960, Edward F. Moore consacre un article sur ce thème. C’est selon lui la complexité des systèmes biologiques qui fait obstacle à une description mathématique et il estime qu’une « analyse abstraite de l’autoreproduction » permettrait de surmonter cet état de fait [3] . Abordant en quelques lignes les grands travaux de Descartes, Darwin et Fisher, il en vient dès la première page de sa publication à l’œuvre du mathématicien du MIT et ancien ingénieur des Bell Labs que nous connaissons bien : C.E. Shannon. Moore se rapporte en l’occurrence aux travaux réalisés par Shannon en collaboration avec John McCarthy, sur les automates autoreproducteurs, mais la seule évocation des travaux de Pitts et McCulloch, Turing, von Neumann nous montre, si besoin était, que l’optique dans laquelle il se place est celle plus large de la théorie de l’information. Il termine d’ailleurs son article en caractérisant la complexité par une mesure en « bits » d’information (se référant aux travaux de Jacobson) et affirme la nécessité dans l’étude de tout système biologique d’avoir recours au logarithme du nombre d’états possibles [4] .

    S’il peut être tentant pour nous d’insister sur le rôle joué par des théories comme celle des automates, alors à la frontière des mathématiques, de la physique et de la biologie, l’extraordinaire diversité des applications de la notion d’information nous invite à veiller à ne pas nous cantonner à une seule approche sans pour autant tomber dans l’écueil que constituerait la rédaction d’un catalogue de ces mêmes applications, catalogue qui serait de plus nécessairement incomplet.

    Aussi préférons-nous revenir dans un premier temps sur les liens qui concernent la biologie et la genèse même de la théorie de l’information, nous rendant compte que, comme dans le cas de la linguistique abordée au chapitre précédent, les influences sont bien réciproques. Nous montrerons que ce sont alors également les premières applications de la thermodynamique à la biologie qui doivent être étudiées et, dans une large mesure, remises en cause par une perspective historique. Les travaux de Brillouin abordés au chapitre 5 nous serviront alors de référent pour apprécier l’usage qu’a pu faire la physique de la notion d’information pour investir le champ de la biologie. Comme le notait Gunther Stent en 1972, ne serait-ce qu’au niveau cellulaire, la communication est omniprésente : « Les types de communication qui font l’objet de communication cellulaire peuvent être groupés en trois classes : génétiques, métaboliques et nerveuses [5] . »

    C’est sur la première de ces classes que nous avons d’abord choisi de faire porter notre analyse, les applications de la notion d’information au problème du métabolisme n’étant pas des plus originales et l’étude des communications nerveuses étant déjà évoquée dans les premiers développements de la cybernétique aux chapitres 3 et 4. Science carrefour au sein de la biologie depuis ses origines, l’étude de l’hérédité nécessitait que nous y consacrions une analyse et c’est bien entendu la notion d’information génétique qui fera l’objet de notre enquête. Sans avoir à revenir systématiquement sur toute l’histoire de la biologie moléculaire (ce qui a été fait comme nous l’indiquerons par des historiens et des scientifiques plus compétents), nous montrerons que si les applications de cette notion d’information génétique ne reposent pas toujours, d’un point de vue scientifique, sur la théorie mathématique de la communication ou la cybernétique, elles participent d’un mouvement historique au sens large dont nous n’avons pas fini de mesurer les conséquences.

    Soucieux enfin de ne pas limiter notre étude au seul cas de la biologie moléculaire, nous avons fait le choix d’aborder suivant une démarche analogue les théories de l’auto-organisation avant de conclure ce chapitre, dans une quatrième et dernière section, par un exposé de quelques controverses actuelles pour lesquelles l’histoire de la notion d’information peut apporter un éclairage à nos yeux novateur.

    Enfin, pour clore ici cette remarque préliminaire d’ordre méthodologique, précisons que devant la somme extraordinaire d’écrits relatifs à ce sujet, de quoi lire pendant quelques années, même si nous l’avons déjà fortement circonscrit, nous avons préféré mettre en valeur les opinions hétérodoxes rencontrées lors de lectures ou d’entretiens ainsi que les sources de langue allemande [6] .

    1 - Aspects singuliers de la genèse de la théorie de l’information

    Au cours des années 1920, la notion d’information devient sous la plume de scientifiques aussi différents que Hartley, Lewis ou Fisher un véritable concept scientifique. En ce qui concerne le statisticien britannique, il est clair que des disciplines comme l’agronomie ou la génétique conditionnent à divers degrés ses théories statistiques. Toutefois, si à partir de la fin des années 1940, une bonne partie des chercheurs impliqués dans le développement de la théorie de l’information s’intéressent à la biologie, cela s’explique davantage à la fois par la constitution du réseau de scientifiques lié au développement de cette théorie (voir le Groupe cybernétique auquel se réfère Heims [7]  et la dernière section de notre chapitre 3) et par quelques livres ou articles aux échos importants. Le livre de Schrödinger publié en 1944, Qu’est-ce que la vie ?, compte incontestablement parmi ce type d’ouvrages, même s’il ne participe pas à la genèse de la théorie de l’information.

    Ce livre, sous-titré pour l’édition française De la physique à la biologie, participe implicitement au mouvement épistémologique qui caractérise l’introduction de la théorie de l’information dans toute une série de champs du savoir : l’unification des sciences. Il en est explicitement question dès la préface rédigée par Schrödinger :

    Nous avons hérité de nos ancêtres une invincible prédilection pour des connaissances unifiées et universelles. Le nom même donné aux institutions les plus éminentes du savoir nous rappelle que, dès l’antiquité et au travers de nombreux siècles, l’aspect universel a été le seul auquel on ait accordé un plein crédit. […] Nous sentons nettement que ce n’est que depuis peu que nous commençons à acquérir des données sûres pour fondre en un seul bloc la somme totale de tout ce qui nous est connu.

    On remarque là l’influence directe du Cercle de Vienne dont le « mouvement pour l’unité de la science » avait déjà été appliqué à la biologie [8] . Au sujet du rôle éventuel de la théorie de l’information dans ce mouvement, celle-ci étant bien sûr postérieure à ces écrits de Schrödinger, le fait que cette unification se fasse de façon souvent implicite et que ce soit surtout a posteriori que cette tendance se démarque n’est pas sans poser quelques difficultés. Il serait par exemple tentant de mettre en valeur la thèse de Shannon consacrée à la génétique et de supposer qu’il est bien question pour lui, de façon explicite et volontaire, d’aborder dans une même démarche plusieurs disciplines. Ce serait toutefois faire abstraction des contextes de production du savoir scientifique et même tout simplement de la diffusion des différentes théories puisque nous avons déjà signalé que sa thèse, « An Algebra for theoretical Genetics », n’a connu qu’une diffusion marginale n’amenant à notre connaissance aucune application.

    Nous nous proposons donc de revenir d’abord sur ce livre de Schrödinger avant de montrer quelles ont pu être au cours du développement de la théorie de l’information les premiers travaux concernant les applications à la biologie, les actes du colloque organisé par Quastler en 1952 offrant alors un moyen efficace pour faire le point sur les différentes controverses de l’époque.

    1.1 - Retour sur le livre de Schrödinger Qu’est-ce que la vie ?

    En février 1943, alors que beaucoup de scientifiques cherchent à mettre leurs compétences au service des forces armées, un physicien des plus connus parmi ceux qui ont participé à l’essor de la physique quantique, Erwin Schrödinger (1887-1961), commence dans son exil en Irlande à se tourner de façon plus exclusive vers l’étude du vivant, même s’il avait déjà discuté en 1935 des possibilités d’établir une thermodynamique du vivant [9] . Les conférences qu’il commence alors à donner au Trinity College de Dublin lui donneront la matière essentielle de ce livre aujourd’hui si connu, What is Life ?, auquel plusieurs livres ou articles sont aujourd’hui consacrés [10] . En 1993, un congrès s’est d’ailleurs tenu à Dublin pour commémorer le cinquantième anniversaire de la série de conférences et des scientifiques de renom comme Stephen Jay Gould, Manfred Eigen ou Roger Penrose se sont livrés à un exercice analogue à celui de Schrödinger, établissant de fait un programme de recherche pour les cinquante années à venir [11] .

    Sur le fond, Schrödinger reprend et commente pour l’essentiel les travaux de Delbrück, ce physicien berlinois qui s’était déjà définitivement orienté vers la biologie, en 1935, lorsqu’il cherchait une explication moléculaire de l’hérédité [12] . Avec sa théorie de la mutagenèse, il montrait par exemple que des radiations pouvaient provoquer des mutations ce qui permettait sur le plan théorique d’introduire en génétique l’idée d’événement unique. La référence à Delbrück, presque omniprésente dans le livre de Schrödinger, se retrouve lorsqu’il intitule la trentième section « Première loi – la mutation est un événement unique ». Il affirme que dans ce cas la mutation n’est pas le fait d’une accumulation de radiation, mais qu’on est bien en présence d’un phénomène discontinu par essence. Au sujet de l’éventualité selon laquelle on pourrait parvenir à une explication de la génétique reposant sur les conceptions quantiques, Schrödinger va jusqu’à écrire à propos du modèle de Delbrück : « Si le modèle venait à échouer, nous n’aurions plus qu’à abandonner d’autres tentatives [13] . »

    C’est dans ce cadre que le physicien viennois s’intéresse à la mémoire de l’hérédité. Alors même que Hermann Joseph Muller (1890-1967) avait montré que les gènes étaient rangés linéairement le long des chromosomes, l’hypothèse de l’époque était que les protéines constituaient le support de l’hérédité. Afin de rendre compte de la transmission conforme des caractères héréditaires, Schrödinger est amené à s’intéresser à la façon selon laquelle un ensemble de molécules décrites au niveau microscopique parvient à la création d’un ordre macroscopique. Sa formation de physicien l’invite naturellement à choisir le modèle d’un cristal apériodique [14]  qui s’accorde tout à fait avec les limitations dues aux fluctuations thermiques et au mouvement brownien, deux aspects d’un phénomène qu’il prend d’abord soin d’étudier.

    Schrödinger développe alors son exposé selon deux voies différentes. Il réfléchit d’un côté aux notions de fonction et de spécificité. Même s’il ne mentionne pas le fait que Haldane avait déjà émis l’hypothèse en 1937 selon laquelle à un gène pouvait correspondre un enzyme, c’est bien implicitement sous ce type de conception qu’il se place, privilégiant une étude fonctionnelle qui ne repose plus sur la spécificité stéréochimique [15]  de Pauling (1940) ni même sur une analyse énergétique. Cet aspect de ses travaux marque profondément l’orientation de la biologie vers des modèles non plus chimiques mais physiques.

    D’un autre côté, le problème de la transmission de l’hérédité l’amène à introduire l’idée de code, introduction rendue possible par ce modèle de cristal apériodique, contrairement au cas des théories de Delbrück. De cette façon, il conserve une approche déterministe de l’hérédité qui lui permet cependant de soutenir ses conceptions antivitalistes. On retrouve ici encore une évocation du démon de Laplace [16]  :

    En donnant à la structure des fibres chromosomiques le nom de code, nous entendons signifier que l’esprit omniscient conçu un jour par Laplace, et à qui tout rapport causal serait immédiatement connu, pourrait immédiatement déduire de cette structure si l’œuf, placé dans des conditions convenables, se développerait en coq noir ou en poule tachetée, en mouche ou plante de maïs, rhododendron, scarabée, souris ou femme [17] .

    Il semblerait, d’après S. Sarkar, que ce soit là la première mention de l’idée d’un code génétique, en dehors d’une lettre de J. Miescher datée de 1897 et restée sans suite [18] . L’introduction du code par Schrödinger n’est pas anecdotique puisqu’il va jusqu’à comparer la richesse combinatoire de ce code à un autre code bien connu, le code Morse. De plus, dans le cas de la reproduction des êtres vivants, ce « code complexe [19]  » intervient à deux niveaux différents puisqu’il spécifie symboliquement le développement futur et assure aussi sa réalisation. Schrödinger écrit à propos des chromosomes : « Ils sont le code de loi et le pouvoir exécutif », ce qu’on traduirait aujourd’hui sous l’emprise d’une autre métaphore, informatique cette fois-ci, par « il sont à la fois programme et instruction ».

    La réflexion sur la notion de code initiée par Schrödinger joue un rôle historique important pour au moins deux raisons. La première concerne l’analogie implicite qu’il suppose avec les techniques de télécommunication. Cette analogie facilitera bien sûr l’application de tous les concepts gravitant autour de la notion d’information, que ce soient ceux de redondance, de reproduction ou même d’erreur de transmission. C’est la raison pour laquelle nous avons choisi d’aborder ici le contenu de ce livre. La seconde enfin repose sur l’importance peut-être démesurée accordée par Schrödinger à l’étude du gène. Le formidable impact [20]  qu’a eu ce livre dans le milieu des biologistes, mais aussi plus largement sur la communauté scientifique dans son ensemble, est à l’origine d’un courant encore dominant marqué par le « tout-génétique ». L’impérialisme de la génétique moléculaire dans le champ de la biologie, tel qu’il se manifeste à partir des années 1950, repose comme nous le verrons dans une large part sur cette idée selon laquelle le gène « détermine » l’individu de façon quasi exclusive.

    Enfin, il est encore un dernier aspect du livre de Schrödinger sur lequel il convient de revenir, sa conception des liens entre ordre, désordre et entropie. C’est la partie qui fut la plus lue à l’époque, celle où Schrödinger annonce la découverte à venir de nouvelles lois et c’est, comme nous l’avons vu, une des motivations de Brillouin dans l’élaboration de son principe de néguentropie. Ajoutons que Schrödinger distingue « deux méthodes de production d’ordre » (titre de sa 65e section), d’un côté l’ordre à partir de l’ordre qui découle de son analyse de la reproduction des êtres vivants et, de l’autre côté, l’ordre à partir du désordre qui demeure sous-jacent dans toute étude statistique.

    D’une certaine façon nous allons étudier avec la notion d’information génétique le fonctionnement de cette première méthode (cf. section 2) et l’histoire des théories de l’auto-organisation peut être considérée comme fondée sur l’idée de création d’ordre à partir du désordre. En effet, comme l’écrit Schrödinger, au niveau chromosomique, « un seul groupe d’atomes n’existant qu’en un seul exemplaire produit des événements ordonnés et merveilleusement harmonisés l’un avec l’autre, ainsi qu’avec le milieu environnant, et cela grâce à des lois extrêmement subtiles [21]  ».

    Ceci s’explique pour lui par cette métaphore d’ordre politique : « Sachant quelle puissance ces minuscules bureaux centraux exercent dans les cellules isolées, ne font-elles pas penser à des sièges de gouvernement local, répartis au travers du corps et communiquant aisément l’un avec l’autre, grâce au code qui leur est commun à tous ? [22]  »

    La notion d’information génétique est précisément définie dans cette optique, exprimée selon ce code avec une double fonction, assurer la transmission du patrimoine génétique d’une espèce en même temps que les caractéristiques individuelles. De même nous verrons combien l’expérience des cubes aimantés de von Foerster, paradigme pourrait-on dire de la théorie de l’ordre par le bruit, repose sur la seconde méthode de production d’ordre énoncée par Schrödinger.

    Concernant l’interprétation que propose Schrödinger de la deuxième loi de la thermodynamique (présentée d’ailleurs plus comme une extension qu’une simple interprétation), celle-ci se trouve être à l’origine de tant de confusions qu’il convient de l’évoquer brièvement [23] . Schrödinger explique que le monde se dégrade et s’oriente vers le désordre selon une « tendance naturelle des choses à se rapprocher de l’état de chaos ». Ceci repose sur le fait qu’il assimile l’entropie au désordre, généralisant ainsi le modèle statistique de Boltzmann alors même que celui-ci ne s’applique que pour le modèle d’un gaz parfait et surtout pour un système isolé et en équilibre statistique. Cette primauté du modèle statistique se comprend pour un physicien qui était entré à l’université de Vienne quelques mois après le suicide de Boltzmann (1906), mais s’explique mieux encore si l’on considère (avec Antoine Danchin) que Schrödinger écrit en 1943-1944 à une époque où l’issue de la guerre était encore bien incertaine et où la notion de chaos avait un sens politique évident. Il est d’ailleurs question dans Qu’est-ce que la vie ? de « l’espace vital des molécules » (Lebensraum) ce qui témoigne là encore d’une approche pour le moins anthropocentrique, pour ne pas dire idéologique [24] .

    Relevant ces propos de Schrödinger, Danchin note tout d’abord que le désordre n’a pas de sens physique alors que les connotations humaines du terme sont évidentes (qu’elles soient morales, éthiques ou esthétiques). L’entropie, c’est avant tout le pouvoir d’exploration d’un système physique et cette grandeur dépend de la description du système physique. En revanche, la notion d’ordre ou de désordre suppose par définition un observateur.

    Cette mise au point permettra de comprendre la diversité des voies suivies par les biologistes et le fait que la notion d’information se retrouve dans de très nombreux domaines de la biologie parfois très éloignés. Il y a en réalité deux analogies ou équivalences qui demeurent aujourd’hui pour le moins contestables (et d’ailleurs contestées), d’une part celle entre information et entropie, étudiée au chapitre traitant de la notion d’information en physique au regard de l’œuvre de Brillouin, et, d’autre part, l’équivalence que nous venons de critiquer entre entropie et désordre. Beaucoup de biologistes ou philosophes se lanceront dans des transitions parfois hasardeuses en posant comme acquise la richesse de l’analogie entre information et ordre. De plus, la lecture qui a pu être faite du livre de Schrödinger, dans le cas par exemple de la biologie moléculaire, s’est souvent faite à travers une grille de lecture « cybernétique » ou « informationnelle », en raison bien sûr du formidable écho qu’a rencontré la théorie de l’information dès ses débuts [25] .

    1.2 - Les études sur la reproduction et autres applications biologiques constitutives de la cybernétique

    Dès leur genèse, la cybernétique et la théorie mathématique de la communication ont été mêlées à des discussions liées à des problèmes d’ordre biologique. Les biographies des principaux instigateurs (Shannon, Wiener, MacKay ou à un degré moindre Fisher et Weaver) portent des traces évidentes de ces premiers échanges. On sait par exemple combien la rencontre de Wiener avec le physiologiste Rosenblueth a pu être déterminante dans l’élaboration de cette théorie de la commande et la communication qu’est la cybernétique [26] . Cette théorie s’applique, comme le rappelle Wiener dans le sous-titre de son livre, aussi bien aux animaux qu’aux machines. Le raisonnement analogique y joue donc naturellement un rôle essentiel et l’étude des phénomènes de reproduction est un des premiers domaines où s’avère toute la fécondité de cette analogie.

    1.2.1 - Le problème de la reproduction

    Dès 1941, le vice-président du MIT, Vannevar Bush, introduit un nouveau cursus intitulé Biological Engineering, appliquant en cela un programme contenu dans une publication de Karl Compton et John Bunker, respectivement président du MIT et professeur de biologie [27] . Ce rapprochement s’effectue selon une conception particulière des sciences de l’ingénieur, définies comme « l’art d’organiser et de diriger des hommes et de contrôler les forces et les matériaux de la nature au profit de la race humaine ». Le problème de la reproduction apparaît alors comme un thème d’étude central puisqu’il figure à la fois dans les cultures scientifiques propres à la biologie et aux sciences de l’ingénieur. Après tout, la tâche première de l’ingénieur des télécommunications consiste bien à assurer la reproduction d’un message en deux points éloignés. Dans la conception des premiers calculateurs automatiques, le problème si crucial comme nous l’avons signalé de la mémoire peut aussi être vu comme un problème de reproduction, cette fois-ci dans le temps et non dans l’espace [28] .

    C’est sur cette base théorique que bon nombre de travaux prendront leur essor et la publication en 1953 de H. Morowitz dans la Physical Review, intitulée « Le contenu informationnel des systèmes vivants » est à cet égard emblématique. Il y compare les mérites respectifs de la carte perforée et de la mémoire électronique pour rendre compte de la mémoire humaine [29] . Avant lui, Donald Hebb s’était déjà confronté au problème de la modélisation de la mémorisation d’informations par le cerveau en montrant dès 1949, à partir du modèle de Pitts et McCulloch, que cette mémorisation pouvait résulter d’un ajustement progressif de l’efficacité des synapses [30] .

    La première décennie de l’après-guerre est marquée par un retour en force du mythe de l’Homme démiurge, renouant en cela avec la tradition inaugurée par Descartes, La Mettrie et tous les constructeurs d’automates du XVIIIe siècle. Ce désir de reproduction est d’ailleurs clairement exprimé par Wiener en 1964 dans son dernier livre, God & Golem, Inc. où il reprend dans une approche cybernétique la légende du Golem [31] . La construction d’automates aux facultés humaines est aussi un thème très présent dans la science-fiction et on a mentionné l’admiration de Shannon pour un auteur célèbre de l’époque : le fondateur de la scientologie Ron Hubbard. Participant à cette résurgence de la thématique de l’Homme-machine, les biologistes se passionnent rapidement pour les théories des automates et plus précisément pour la théorie des automates reproducteurs [32] .

    À partir des études sur la reproduction, deux orientations différentes permettront de poursuivre cette unification des études sur le vivant ou la machine. La première repose sur le concept d’erreur de reproduction, analysable et quantifiable par la théorie de l’information. Dans ses Nouvelles réflexions concernant le normal et le pathologique éditées en 1972, Canguilhem note dans son chapitre sur le concept d’erreur en pathologie :

    Au départ, le concept d’erreur biochimique héréditaire reposait sur l’ingéniosité d’une métaphore ; il est fondé aujourd’hui sur la solidité d’une analogie. Dans la mesure où les concepts fondamentaux de la biochimie des acides aminés et des macromolécules sont des concepts empruntés à la théorie de l’information, tels que code ou message, dans la mesure où les structures de la matière de la vie sont des structures d’ordre linéaire, le négatif de l’ordre c’est l’interversion, le négatif de la suite c’est la confusion [33] .

    C’est ce passage de la métaphore à l’analogie que nous entendons mettre en évidence dans la section consacrée à la notion d’information génétique et nous examinerons avec quelle légitimité et quelle légitimation les emprunts mentionnés par Canguilhem ont pu être faits.

    L’autre orientation participant à ce passage de la simple métaphore à « l’analogie solide », en dehors de l’idée d’erreur de reproduction, repose sur la notion de transformation. Un bon exemple est sans doute la modélisation de la photosynthèse en des termes cybernétiques, thème qui occupa Wiener dès 1950 [34] . Dès 1958, Jacobson présente une série de « machines autoreproductrices [35]  ». Reprenant cette publication, Morowitz propose quant à lui un modèle électromagnétique de reproduction « rendant l’organisme photosynthétique [36]  ».

    1.2.2 - Une unité aux dépens de la chimie ?

    Par le réductionnisme qu’elle suggère, la cybernétique permet de facto une approche commune dans des thèmes relevant de la biologie ou de la physique. Dans l’analyse qu’ils font du vivant, les cybernéticiens sont marqués par leur formation de physicien ou d’ingénieur. Le réductionnisme qui s’applique prend alors souvent les apparences du physicalisme excluant, même dans la description des processus de transformation, la chimie. L’approche du système nerveux de Pitts et McCulloch ne laisse par exemple aucune place aux échanges ioniques et Wiener ne mentionne en psychiatrie que la lobotomie [37] .

    La conquête de la biologie menée par les physiciens par le biais de la cybernétique débute avant même que Wiener propose son néologisme. Lorsque le physicien d’origine soviétique George Gamow organise la neuvième conférence de Washington sur la physique théorique, en 1946, le thème retenu n’est autre que « la physique de la matière vivante » et l’on y retrouve les plus importants physiciens alors en train d’opérer ce changement d’orientation déjà effectué par Schrödinger ou Delbrück, le passage à la biologie [38] . Si ce n’est qu’après l’essor de la biologie moléculaire qu’il est ouvertement question de « colonisation » de la biologie par la physique, il importe dès à présent de noter que cette lente évolution a ses racines dans la genèse de la cybernétique [39] .

    1.2.3 - Weaver et la fondation Rockefeller

    Ces théories scientifiques, ces conférences et ces publications ne sont pas des objets immatériels accrochés au firmament éthéré de l’histoire. De plus en plus, à cette époque marquée par l’émergence de la big science, les moyens financiers acquièrent une importance considérable. Des années 1930 aux années 1950, la fondation Rockefeller mène ainsi une politique scientifique (dans tous les sens du mot « politique ») qui a fait l’objet de nombreuses études [40] . Warren Weaver, en tant que chef de la division Natural Sciences de la fondation Rockefeller (de 1932 à 1955), joue un rôle de premier plan, ne serait-ce que parce que c’est aussi lui qui, dans le rapport annuel daté de 1938, introduit l’expression « biologie moléculaire » [41] .

    Les projets soutenus par cette division de la fondation dans les années 1930 et 1940 reposent pour la plupart sur un transfert de technologie de la physique (et dans une moindre part de la chimie) vers la biologie, l’étude aux rayons X de tissus vivants constituant l’exemple le plus classique. La politique menée par la fondation dans la distribution des 900 000 millions de dollars affectés à la recherche sur la période 1932-1959 reposait sur une conception éminemment réductionniste de la biologie [42] . On trouve ainsi dans une biographie de Max Delbrück la mention d’une lettre adressée par le jeune physicien à Niels Bohr dans laquelle il note que les responsables de la fondation « ne veulent plus que de la biologie exacte et quantitative [43]  ».

    En dehors de ses responsabilités administratives, Weaver s’intéresse aussi aux orientations des réflexions portant sur la biologie. C’est ainsi qu’il publie en 1948 un article dans une revue de vulgarisation appelant les scientifiques à s’intéresser à la complexité. Parmi les problèmes de « complexité organisée », il s’intéresse à la génétique et lance le programme de recherche suivant :

    Qu’est-ce qu’un gène et comment la constitution génétique originale d’un organisme vivant s’exprime-t-elle dans les traits développés d’un adulte ? Les molécules protéiques complexes « savent »-elles redupliquer leur schéma et ceci est-il une étape essentielle dans le problème de la reproduction des créatures vivantes ? [44]

    L’introduction du verbe « savoir », au-delà de la simple métaphore, est ici significative d’une nouvelle approche du vivant. Weaver écrivait déjà en 1939 dans le programme de la fondation, au sujet de la priorité à donner aux recherches sur les protéines :

    Les enzymes, ces étranges régulateurs de tant de processus minutieux dans le corps, ces parfaits exécutants qui stimulent et organisent toute sorte d’activité sans utiliser la moindre de leur substance ou de leur énergie, ces enzymes sont maintenant considérés comme étant de nature protéique [45] .

    En 1948, après que Wiener a déclaré l’information comme une troisième grandeur à côté de la matière et de l’énergie, il s’agit sans aucun doute pour Weaver d’aborder la complexité biologique selon une approche « informationnelle ». Il semblerait toutefois que ce type de projet lancé par Weaver dans sa publication de 1948 n’ait pas recueilli l’assentiment général auprès des nombreux chercheurs qui avaient adopté une approche réductionniste extrême. Ceci peut paraître paradoxal puisque ce réductionnisme aux relents de positivisme qui repoussait la question du « savoir » dans le champ de la métaphysique résultait précisément du suivi des orientations générales prônées par la fondation dans les années 1930. C’est ainsi qu’Evelyn Fox Keller explique le refus de Delbrück de participer à d’autres conférences Macy que celle où il avait été invité, en 1948 [46] . Cet intérêt de la part de Weaver pour une approche globale de la complexité est bien sûr à rapprocher des travaux des « cybernéticiens ». Voyons alors ce que la cybernétique proposait pour l’orientation des recherches en biologie.

    1.2.4 - La Cybernétique de Wiener

    Comme pour le livre de Schrödinger, c’est le formidable écho que reçut ce livre qui nous amène à y revenir brièvement, même si les grands traits ont déjà été abordés [47] . Après tout, il s’agit là du livre sur la question qui fut le plus lu et il importe de comprendre ce que les biologistes ou physiciens ont pu y trouver, dans le cadre de leurs préoccupations et de leur démarche intellectuelle.

    Wiener cite souvent les travaux de son ami britannique J.B.S. Haldane et à la fin de son chapitre sur « les séries temporelles, l’information et la communication », il fait cette dernière remarque qui s’avérera tout à fait pertinente :

    À nouveau, les mêmes phénomènes qui concernent la reproduction ont probablement quelque chose à voir avec l’extraordinaire spécificité des substances chimiques trouvées dans un organisme vivant, pas seulement d’espèces à espèces, mais même entre les individus de mêmes espèces. De telles considérations peuvent être très importantes en immunologie [48] .

    C’est précisément avec cette prise en compte de la spécificité comme préalable à toute reproduction que la théorie de l’information trouvera ses premières applications et si nous avons choisi de ne pas aborder le domaine de l’immunologie, il convient de préciser que la théorie de l’information y trouvera effectivement des applications [49] .

    Nous avons par ailleurs montré comment la cybernétique permettait, lors de la construction des premiers ordinateurs électroniques, d’établir un parallèle entre le rôle des tubes pour les machines et le rôle des neurones dans le système nerveux (déjà comparés aux relais téléphoniques), extrapolant en cela la modélisation de Pitts et McCulloch. À partir de la fin des années 1940 jusqu’au début des années 1950, lorsque ce parallèle devient le noyau d’importantes recherches interdisciplinaires, un troisième terme vient s’ajouter à cette comparaison, avec le rôle du gène dans le chromosome. C’est alors à la fois l’étude de la reproduction et de la transmission qui permet aux scientifiques d’appliquer la théorie de l’information dans un tout nouveau domaine et c’est ainsi que, sans même reprendre la notion de code utilisée par Schrödinger dans Qu’est-ce que la vie ?, Wiener écrit en 1950 :

    Il n’y a pas de frontière fondamentale absolue entre les types de transmission que nous utilisons pour envoyer un télégramme et les types de transmission qui sont théoriquement possibles pour un organisme vivant comme un être humain [50] .

    Lorsque Wiener fait référence aux « différents types de transmission » utilisés pour envoyer un télégramme, il est vraisemblable qu’il songe à la théorie mathématique de la communication qui permet justement, depuis les travaux de Hartley et Nyquist, de comparer quantitativement ces types de transmission. Contrairement à ce qui est souvent affirmé, l’idée consistant à comparer les moyens de télécommunications à la transmission génétique est donc bien antérieure à la « découverte » du « code » de l’hérédité [51] .

    En cette même année 1950 où Wiener publie ces écrits, un professeur associé de génétique de l’université McGill de Montréal, Hans Kalmus (1906-1989), publie dans le Journal of Heredity, un article intitulé « Aspect cybernétique de la génétique ».

    1.2.5 - La génétique cybernétique de Kalmus

    Né à Prague d’une famille appartenant à la minorité germanophone, Kalmus s’était exilé en Grande-Bretagne et avait fait la connaissance de Haldane en 1940. Celui-ci lui proposa aussitôt une place d’assistant et Kalmus entra à l’University College de Londres où il devait rester jusqu’à sa retraite en 1973, même s’il effectue de nombreux voyages scientifiques (Nigeria, Inde, Argentine, etc.) et passe toute l’année 1949-1950 à Montréal [52] . Pour situer les travaux de ce biologiste au moment où il publie sur l’application de la cybernétique à la génétique, rappelons qu’en 1945 il avait publié une importante étude sur la corrélation entre la vue et le vol chez les insectes et que l’hérédité des groupes sanguins était un de ses domaines de recherche de prédilection, à l’origine de son intérêt pour la génétique dès 1923. C’est Haldane qui lui a présenté Wiener, peu avant son départ pour le Canada, mais la cybernétique ne semble pas jouer de rôle important dans son œuvre puisque, dans toute son autobiographie la cybernétique n’est mentionnée qu’une fois et qu’il ne cite jamais cette publication à laquelle nous nous intéressons ici.

    Relevant à son tour « les similitudes des tâches » que l’on observe dans « les systèmes de télécommunication, les machines à calculer et le système nerveux », même s’il annonce que les applications à la biologie ne seront pas évidentes, il écrit dans cette publication de 1950 :

    Toutefois, n’importe quel généticien lisant Cybernetics de Wiener trouvera, je crois, que cette nouvelle façon de regarder la vie lui apporte d’un coup certains principes unificateurs utiles dans l’interprétation de nombreux faits dans sa propre science [53] .

    Les gènes sont pour Kalmus des « systèmes intégrateurs », caractérisant l’homme en tant qu’espèce comme le système nerveux. Ces systèmes sont toutefois vus comme des systèmes de communication et c’est ainsi que les « gènes peuvent être décrits comme des messages ou des sources de messages ». Cette fine distinction qui reprend implicitement la distinction connue depuis le début des années 1910 entre phénotype et génotype [54]  s’avérera essentielle pour l’application de la théorie mathématique de la communication où l’information est aussi définie sur un ensemble de signaux possibles.

    Le gène, ce « message » transmis entre les générations contient dans sa forme une « mémoire raciale » que Kalmus rapproche des mémoires temporaires utilisées dans les machines à calculer électroniques, ces « séquences de signaux que l’on recrée perpétuellement ». Dans les deux cas, des erreurs de reproduction surviennent et c’est là selon Kalmus l’explication possible des phénomènes de mutations génétiques. On comprend là peut-être toute la pertinence de la citation de Canguilhem évoquée ci-dessus, lorsque celui-ci expliquait que par la théorie de l’information le concept d’erreur héréditaire passe de la simple métaphore à la solide analogie. Toutefois, Kalmus ne fait dans son article que présenter ses impressions de généticien à la lecture de Cybernetics, et ne mentionne pas la théorie mathématique de la communication.

    Il est d’ailleurs dans une certaine mesure prisonnier de ses référents techniques concernant la reproduction (le phonographe est cité) puisqu’il considère que le « message » génétique est transmis de façon analogique. Il cite alors une théorie du même type de Haldane, auprès de qui il travaillait à ce moment [55] . Si à la lecture de Wiener il trouve « tentante » l’idée selon laquelle le fonctionnement élémentaire de la transmission pourrait être de type binaire, comparant « l’arrangement linéaire des gènes dans un chromosome à une séquence de signaux sur un clavier ou une machine à calculer [56]  », il se refuse à franchir le pas puisque la transmission génétique n’est ni électrique ni mécanique, mais chimique. L’hypothèse qu’il retient consiste plutôt à considérer les gènes comme producteurs ou libérateurs d’enzymes.

    Aussi, les gènes entrent-ils dans la classe des messages humoraux, régie par l’analogie avec la « radiodiffusion » alors que les messages neuronaux se comparent aux systèmes de communication par fil. Le point important est que le message et le gène puissent tous deux être considérés comme « structures signifiantes et que leur perte peut être considérée comme une perte d’entropie négative[57]  ». Kalmus ne donne aucune justification ni autre commentaire après cette affirmation. L’utilisation de l’expression « entropie négative » peut pourtant se lire comme une invitation à appliquer la notion d’information définie par Shannon et Wiener. Les historiens présentent des points de vue opposés quant à la signification de cette publication de Kalmus. Alors que Fox Keller en minimise l’importance, remettant en cause sur le plan scientifique l’utilisation qui fut faite de la théorie de l’information en biologie moléculaire, nous aurons l’occasion de montrer que notre position se rapproche davantage de celle de Lily Kay qui montre que la théorie de l’information fournit un cadre de pensée déterminant (sur le plan métaphorique, mais aussi sociologique) dans l’évolution de nombreuses théories biologiques [58] .

    Dans l’étude menée par Kalmus, la différence entre le vivant et l’inanimé s’estompe : les mécanismes de rétroaction observés dans l’organisme sont ceux de « canons ou de torpilles » et les êtres vivants possèdent des systèmes de communication et de direction aussi efficaces que ceux que possèdent bateaux et usines. On a alors pour l’homme, selon le modèle qu’il esquisse, trois niveaux emboîtés, génétique, neuronal et social, ce dernier niveau étant le fruit d’interactions par différents moyens de communication. Il conclut son article en rappelant que si les deux derniers niveaux (le neuronal et le social) sont déjà rapprochés.

    Néanmoins, aucun organisme, solitaire ou social, n’est concevable sans s’être développé sous le contrôle d’un système de communication bien intégré dont les éléments sont les gènes [59] .

    Nous ne savons pas quel fut l’écho reçu par cette publication. Aussi nous apparaît-il nécessaire de brièvement rappeler quelle fut l’approche d’un autre scientifique, dont le nom était déjà largement connu dans le champ de la biologie.

    1.2.6 - Les théories de Haldane

    Fondateur avec Fisher (et Sewall Wright) de la génétique des populations, John Burdon Sanderson Haldane (1892-1964) est dans les années 1940 un des biologistes les plus connus en Grande-Bretagne, surtout parmi ceux qui s’intéressent aux problèmes de génétique [60] . S’appuyant sur le fonds Wiener des archives du MIT, Kay a montré comment la correspondance échangée entre les deux hommes témoigne d’influences réciproques, Haldane écrivant dès la fin de l’année 1948 :

    Je suppose qu’une large partie d’un animal ou d’une plante est redondante parce que cela doit poser quelques problèmes de se reproduire avec précision et qu’il y a beaucoup de bruit autour. Une mutation semble être un bit de bruit qui devient incorporé au message. Si je pouvais voir l’hérédité en termes de message et de bruit, je pourrais avancer[61] .

    Il est important de noter que dès 1948 Haldane a intégré le vocabulaire typique de la théorie mathématique de la communication et qu’il reprend déjà la notion de bit. Pour autant nous avons déjà constaté que le modèle diffusionniste selon lequel la théorie de l’information est simplement « appliquée », que ce soit en biologie ou en physique ou dans les sciences humaines, est bien entendu insuffisant pour expliquer l’intérêt de Haldane pour ce formalisme et ce mode de pensée. Il est davantage question là encore de réappropriation et une brève analyse des textes publiés par Haldane dans cette période permet de constater que c’est avant tout l’approche quantitative d’une notion comme l’information qu’il retient dans le cadre de ses préoccupations. L’approche combinatoire qui caractérise son étude parue en 1948 sur « le nombre de génotypes que l’on peut former avec un nombre donné de gènes » laisse place en 1949 à une tout autre démarche appliquée dans ses « Suggestions au sujet d’une mesure quantitative des taux d’évolution » [62] . Contentons-nous ici de citer cette phrase de son résumé, au sujet des caractères mesurables, dans laquelle il insiste sur l’importance de l’unité logarithmique : « L’unité pour le caractère peut être une unité d’augmentation dans le logarithme naturel d’une variable, ou alternativement un écart type d’un caractère dans une population à horizon donné [63] . »

    Quelques années plus tard, en 1952, Haldane communiquera à Wiener ses calculs sur la quantité d’information contenue dans un œuf fécondé. Ce type d’introduction du formalisme de Shannon dans le domaine de la génétique est représentatif d’autres travaux comme ceux qui sont mentionnés aux trois dernières conférences Macy (1951-1953).

    1.2.7 - Retour aux dernières conférences Macy

    Comme nous l’avons montré au chapitre 3, la huitième conférence tenue en 1951 est déterminante dans l’évolution de la théorie de l’information puisque le Britannique D.M. MacKay parvient à faire reconnaître sa « Nomenclature de la théorie de l’information », élaborée pour le premier symposium londonien de 1950, comme référence terminologique dans les débats [64] . D. Haraway a pu montrer combien cette conférence fut importante pour l’essor de la biologie écologique telle que E. Hutchinson avait commencé à la développer [65] .

    Dans le texte rédigé par von Foerster et ses deux collègues, faisant office d’introduction à la publication des actes de cette huitième conférence, les références aux problèmes biologiques sont explicitement mentionnées :

    La distribution improbable des perforations dans une carte perforée ou l’arrangement improbable des acides nucléiques dans le modèle hautement spécifique d’un gène peuvent tous deux être considérés comme de l’information « codée », l’une décodée au cours d’un processus technique (culturel) et l’autre au cours de l’embryogenèse [66] .

    On retrouve ici non seulement l’analogie entre le fonctionnement des gènes et celui de machines à calculer, mais en filigrane, on voit déjà apparaître le problème de la « lecture » de l’information et donc de sa dimension sémantique.

    La conférence suivante est marquée par les réflexions sur les possibilités d’appliquer concrètement la théorie de l’information au vivant. En plus d’Ashby qui présente sa théorie de l’homéostasie, on note la présence parmi les autres invités d’Henry Quastler (1908-1963), médecin radiologue d’origine viennoise [67] .

    Quelques mois seulement après son exposé sur les « mécanismes de feedback en biologie cellulaire », il organise une conférence qui mérite toute notre attention, consacrée à « l’utilisation de la théorie de l’information en biologie ». Outre ce thème d’étude, deux raisons particulières nous invitent à nous y intéresser de plus près. D’une part, la communication qu’y fera Quastler, résultat de ses recherches avec Sydney M. Dancoff (1913-1951) décédé quelques mois auparavant, est une des plus citées, servant de référence pour la définition de l’information génétique. D’autre part, il permet de montrer que la notion scientifique d’information ne fut pas appliquée qu’en génétique (mais aussi pour les études concernant la physiologie des membranes, les enzymes ou l’embryologie) [68]  et que, dans le domaine précisément de la génétique, l’application du formalisme de la théorie de l’information est bien antérieure à la détermination du code génétique, ou même à la célèbre découverte de la structure en double hélice de l’ADN en 1953 [69] . D’ailleurs, si l’on devait faire un premier bilan au sujet de la place de la notion d’information en biologie au tout début des années 1950, on pourrait retenir que la matérialité du substrat biologique ne permettait pas, tant s’en faut, d’arriver à un niveau de compréhension suffisant et que l’information apportait la possibilité de dépasser des oppositions fortement marquées par des opinions théologiques ou philosophiques.

    1.3 - Un point de repère possible : « L’utilisation de la théorie de l’information en biologie » en 1952

    L’organisation de cette conférence témoigne de l’influence de la Seconde Guerre mondiale et de la guerre froide sur l’organisation de la recherche scientifique puisque, là encore, c’est l’armée (en l’occurrence le bureau pour la recherche navale) qui finance cette manifestation. À cette époque, entre 1950 et 1955, plus de la moitié des fonds utilisés en biologie ou en médecine (53 %) proviennent du département de la défense ou de la commission pour l’énergie atomique [70] .

    Dans l’introduction du recueil contenant les communications présentées, Quastler annonce l’émergence d’un « nouveau mouvement » scientifique qui repose sur l’utilisation de « l’entropie ou quantité d’information », « concept qui a commencé à atteindre une dignité comparable [à celle de l’énergie] ». Pour lui, ce concept est « dérivé d’un désir d’aborder méthodiquement les problèmes de complexité, d’ordre, d’organisation et de spécificité… », ce qui peut bien sûr paraître attrayant pour le biologiste. Dans les deux pages d’introduction, il prend soin de citer les principaux scientifiques ayant contribué à la théorie de l’information et accorde une place particulière au livre de Schrödinger que nous avons déjà mentionné [71] . Il précise que c’est l’interdisciplinarité caractéristique de ces travaux qui a rendu les colloques et symposia si importants, invitant le lecteur à se reporter aux actes des conférences Macy, des deux symposia londoniens et même des « réunions d’études et de mise au point » présidées à Paris par de Broglie au printemps 1950.

    Le livre édité par Quastler contient les communications de la conférence de 1952 auxquelles sont joints quelques textes importants pour les trois sections de l’ouvrage, « Définition et mesure de l’information », « Unités biologiques fondamentales » (section séparée en deux parties, « Analyse structurelle » et « Analyse fonctionnelle ») et enfin « Bio-systèmes ».

    Ainsi trouve-t-on dans ce recueil un court texte de Fisher qui explicite le lien entre sa définition et celle de Shannon, reconnaissant que Schützenberger fut le premier à déterminer toute la portée de ce rapprochement et les généralisations qui pouvaient en découler [72] . Même si ce texte de Fisher est placé au début de cet ouvrage, c’est toutefois dans la plupart des cas la définition de Shannon qui sera reprise.

    La nouveauté qu’apporte l’étude des organismes vivants dans l’application de la théorie mathématique de la communication repose sur le fait qu’il ne s’agit pas de systèmes fermés et encore moins de processus réversibles, ce qui est pour le moins gênant quand on veut appliquer les définitions simplifiées de l’entropie, précisément celles qui sont formellement analogues à la définition de l’information selon Shannon. Ainsi, conservant implicitement comme axiome l’équivalence entre information et entropie, c’est vers la thermodynamique des systèmes loin de l’équilibre que bon nombre des auteurs se tournent et en dehors des travaux de Lars Onsager (1931), ce sont les premières publications d’Ilya Prigogine (1947) [73]  sur les processus irréversibles qui sont citées. À partir de là, on trouve des extensions théoriques à l’usage des biologistes, mais aussi déjà des premiers calculs. Ainsi Herman Branson, du département de physique de Harvard, consacre-t-il quatre pages à l’étude de la tension osmotique [74]  de la paroi de l’estomac de la grenouille, montrant que son résultat (établissant une loi de décroissance exponentielle) peut s’interpréter par la présence d’un démon de Maxwell à chaque pore de la paroi [75] . De la même manière que Brillouin avait introduit son principe de néguentropie, Branson parvient alors à une nouvelle loi de conservation exprimée comme suit pour chaque quantité d’information : « H(nourriture et environnement) = H(fonction biologique) + H(maintenance et réparation) + H(accroissement, différenciation, mémoire) [76] . »

    Ce faisant, avec cette approche dynamique, il est le premier à utiliser simultanément la thermodynamique du non-équilibre et la théorie de l’information aux problèmes biologiques. Sur le plan théorique, c’est la théorie des systèmes de Ludwig von Bertalanffy (1901-1972) qui est souvent mentionnée, même si ses modalités d’application en biologie ne semblent pas être clairement définies [77] . Concernant la théorie de l’information, la situation n’est pas non plus sans équivoque. Lors de sa première communication, au sujet d’une « mesure de la spécificité », Quastler commence par ces mots :

    La « théorie de l’information » est un nom qui se prête remarquablement aux malentendus. La théorie a trait, d’une façon quantitative avec quelque chose qui est appelé « information » qui, toutefois, n’a rien à voir avec la signification. D’un autre côté, « l’information » de la théorie est liée à d’aussi diverses activités que l’arrangement, la contrainte, la conception, la détermination, la différenciation, le traitement de messages ou de commandes, l’organisation, la planification, la restriction, la sélection, la spécification ou la systématisation [78] .

    Le moins que l’on puisse dire est que Quastler se place dans le cas de ce qu’on pourrait appeler la « version forte » de la théorie de l’information, choisissant une quinzaine de verbes (proposés par ordre alphabétique) pour toutes les activités où la théorie de l’information est censée s’appliquer, auxquelles il joint la liste de toutes les grandeurs que la théorie de l’information permet de faire décroître (désordre, entropie, bruit, ignorance, etc.). C’est en définitive l’idée selon laquelle la théorie de l’information mesure la spécificité qui lui semble le mieux convenir aux différents domaines de la biologie où il entend appliquer la théorie de l’information.

    Dans le cas qui l’occupe, l’estimation de la spécificité de l’action enzymatique, il retrouve à partir de cinq postulats l’information de Shannon en expliquant :

    Ce n’est pas un hasard si ces postulats sont similaires à ceux utilisés par Shannon dans sa dérivation de la mesure de l’entropie information. L’essentiel c’est qu’ils sont plausibles et pourraient être formulés sans la connaissance du travail de Shannon [79] .

    Effectivement, puisque Quastler n’utilise dans toute sa communication que la définition de l’information (éventuellement avec ses corollaires comme la définition de l’information conditionnelle ou de la redondance), on peut considérer qu’il ne fait qu’appliquer diverses moyennes logarithmiques, d’autant plus qu’à chaque fois, il se place dans le cas de spécifications dans un ensemble discret. Dans ce cas, son introduction au début de sa communication ne fait que traduire son émerveillement devant l’universalité de la fonction logarithmique, que l’on peut effectivement retrouver dans de très nombreux domaines [80] . Si les travaux de Shannon sont par contre essentiels à son propos, on peut s’étonner de ce qu’il ne reprenne que la partie la plus banale et pas les théorèmes sur la capacité des voies de transmission ou le codage. Quoi qu’il en soit, la note citée ci-dessus tient bien sûr de l’écriture a posteriori puisqu’il est clair que Quastler s’intéresse à la spécification après avoir lu les écrits de Shannon et de Wiener.

    Vous aimez cet aperçu ?
    Page 1 sur 1