- 1. Forme et phénomène
- 2. La disjonction transcendantale entre phénoménologie et physique
- 3. La subjectivisation du concept de forme
- 4. Les apories de l'objectivité morphologique
- 5. Éléments de phénophysique
- 6. Le programme de recherche d'une morphodynamique
- 7. Ontologie qualitative et physique du sens
- 8. Bibliographie
FORME
Article modifié le
La subjectivisation du concept de forme
L'ambivalence « physique / phénoménologique / sémiotique » du concept de forme a constitué depuis Kant un véritable nœud gordien de l'épistémologie. Celui-ci a en général été tranché en faisant dépendre le concept de forme d'une instance subjective (individuelle ou sociale) : perception, langage, concept, sens. Autrement dit, la phénoménalisation de l'objectivité physique en formes manifestées a été conçue comme un processus sans réel contenu objectif.
Le vitalisme structuraliste et sémiotique
Avant d'exposer brièvement divers aspects de ces entreprises de subjectivation, il est bon de dire quelques mots sur le vitalisme du xixe siècle. Après Kant, et en particulier en rapport avec la Naturphilosophie schellingienne, un certain nombre de penseurs en sont revenus à une position aristotélicienne-leibnizienne en tentant d'élargir le concept objectif de Nature. Un cas exemplaire est celui des travaux sur la morphogenèse végétale que Goethe poursuivit de 1770 jusqu'à sa mort en 1832. Goethe ne cherchait pas tant à comprendre les bases physico-chimiques de la biologie végétale que le principe organisateur interne responsable de la manifestation morphologique des plantes. Comme Geoffroy Saint-Hilaire, il pensait que le problème théorique central de la biologie était de clarifier l'origine des connexions spatiales reliant les parties dans un tout organique. Transgressant le verdict de la Critique de la faculté de juger, il a admis un principe entéléchique a priori présidant à la formation des « fins naturelles ». Selon ce principe, des forces organisatrices internes idéelles (des formes substantielles dynamiques) se déploient spatio-temporellement lors des processus de morphogenèse et engendrent l'unité concrète, réelle et perceptible des organismes. L'entéléchie goethéenne est un concept intuitif et viole par conséquent la séparation transcendantale entre concept et intuition.
La réponse goethéenne à l'aporie de la forme est en partie spéculative (« romantique »). Elle nie que la connaissance exige de nier l'intériorité substantielle de la Nature. Ainsi que l'a remarqué Ernst Cassirer, les post-kantiens, tel Schelling, ont pensé la forme et l'organisation en tant que liberté (objectivement inconditionnée) devenue immanente au phénomène, en tant qu'autonomie incarnée dans l'être-là sensible. Appliqué à la biologie, ce réalisme sémiotique a conduit au vitalisme. Mais, très vite, ce dernier est devenu le terrain privilégié de réactivations « métaphysiques » spiritualistes et idéologiques qui l'ont discrédité. C'est pourquoi il fut condamné publiquement à Berlin, en 1899, au soixante-douzième Naturforschertag. Mais le fatras dialectique ou théosophiste qu'il a charrié ne doit pas faire oublier l'importance cruciale de la problématique de la forme chez des esprits aussi éminents que Brentano (le père fondateur de la phénoménologie et de la gestalt-théorie), Friedrichs (le fondateur de l'écologie) ou des biologistes comme Driesch, Spemann, d'Arcy Thompson ou Waddington.
D'ailleurs, Goethe reste moins spéculatif que Schelling. Il s'en tient à une description phénoménologique et sémiotique de l'apparaître morphologique. Il restreint le principe entéléchique à l'Erscheinung. Son idée centrale est que l'apparaître morphologique manifeste une expressivité qui affecte sémiotiquement le sujet et doit être décrite dans un langage symbolique approprié. Les formes ne sont pas seulement des phénomènes, c'est-à-dire des représentations à objectiver en objets d'expérience conformément à une légalité transcendantale. Ce sont également des signes, des présences traductibles en symboles. Dans un jeu subtil entre Bildung et Gestaltung, la visibilité de l'apparaître exprime le principe entéléchique interne de formation des formes. Contrairement à ce qu'il en est chez Schelling, le principe entéléchique n'est pas chez Goethe téléologique. Il est sémiotique. Le fondement organisateur n'est pas « derrière » ou « avant » l'apparaître. Il se donne dans l'apparaître même dans la mesure où, pour celui-ci, la monstration équivaut à une auto-interprétation.
Après Goethe, il faudra attendre des philosophes comme Peirce et Husserl pour retrouver une interprétation objective de la forme comme sens. Peirce a été fasciné par l'énigme de la structuration, de la diversification et de la complexification des formes naturelles. Il a repris à sa façon tous les thèmes majeurs de la troisième critique kantienne. Acceptant à son tour « l'évidence » que les sciences physiques (y compris la thermodynamique) n'avaient rien à dire sur les formes, il en est également arrivé à une conception sémiotique des entéléchies comme signes s'auto-interprétant (le signe étant ici une matière déterminée par une forme, c'est-à-dire une « finalité interne » au sens kantien).
Au cours de ce siècle, le vitalisme sémiotique sera transféré (en particulier à travers la phénoménologie et la gestalt-théorie) des sciences naturelles aux sciences humaines et jouera un rôle fondamental dans la constitution du structuralisme. Claude Lévi-Strauss en a récemment témoigné dans son ouvrage De près et de loin : « [La notion de transformation n'a été empruntée] ni aux logiciens ni aux linguistes. Elle me vient d'un ouvrage qui a joué pour moi un rôle décisif [...] : On Growth and Form de d'Arcy Wentworth Thompson. L'auteur [...] interprétait comme des transformations les différences visibles entre les espèces ou organes animaux ou végétaux au sein d'un même genre. Ce fut une illumination, d'autant que j'allais vite m'apercevoir que cette façon de voir s'inscrivait dans une longue tradition : derrière Thompson, il y avait la botanique de Goethe et, derrière Goethe, Albert Dürer avec son Traité de la proportion du corps humain. Or la notion de transformation est inhérente à l'analyse structurale » (Lévi-Strauss, pp. 158-159, 1988).
Formes et perception visuelle
À partir du moment où l'on évacue tout contenu ontologique du concept de forme, c'est évidemment à la perception visuelle que revient la production des formes comme phénomènes. Il ne serait pas de propos ici de s'engager véritablement dans une telle problématique. On se bornera donc à quelques brèves indications sur le traitement actuel de cette question dans le cadre des sciences cognitives.
Le paradigme classique des sciences cognitives est le paradigme computo-représentationnel, mentaliste, symbolique, fonctionnaliste. On suppose que le monde réel de l'objectivité physique envoie des informations (par exemple, des ondes lumineuses, des ondes sonores, etc.). Cette information externe, a priori non significative pour le système cognitif, est convertie par des transducteurs périphériques (rétine, cochlée, etc.) en information cognitivement significative, c'est-à-dire exploitable par le système nerveux. On postule alors que, sur le modèle d'un ordinateur, l'information est traitée « computationnellement » à travers différents niveaux de représentations mentales symboliques et différents processus calculatoires. Ces représentations mentales sont neurologiquement implémentées mais, selon la thèse fonctionnaliste, on peut découpler le problème du « hardware » neuronal de celui de la structure formelle du « software » représentationnel.
On fait donc l'hypothèse que les systèmes cognitifs sont des systèmes de traitement de l'information physique externe à travers des langages formels internes constitués de symboles, d'expressions, de règles d'inférence et de transformation (cf., par exemple, Pylyshyn [1986] ou Andler [1987]). À travers la construction cognitive qu'effectuent ces niveaux de représentation et à travers une opération de projection, le monde réel objectif se trouve converti en ce que Ray Jackendoff appelle un « monde projeté », c'est-à-dire en ce monde sensible structuré qualitativement qu'est le monde de l'expérience phénoménologique. Ainsi que l'indique le titre évocateur de Jackendoff Consciousness and the computational Mind, on peut reprendre dans ce cadre tous les problèmes fondamentaux de la phénoménologie. La conscience phénoménologique est le corrélat du monde projeté. En tant que telle, elle ne se confond pas avec la computation mentale. L'expérience phénoménologique ne manifeste pas sa structure interne. Avec ses compilations et ses automatismes computationnels, celle-ci demeure essentiellement non projetable, cognitivement impénétrable.
On retrouve de cette façon le thème d'une « ontologie » qualitative. Mais cette « ontologie » n'en est pas une à proprement parler. Elle est le résultat d'une construction cognitive. La conception est « projectiviste » et non pas « émergentielle ». À aucun moment on ne fait l'hypothèse que la structuration qualitative du monde de l'expérience en places, chemins, états, événements, processus, formes, choses, états de choses, etc., puisse en partie émerger, par un processus naturel de phénoménalisation, d'une organisation morphologique spontanée des substrats.
Cela dit, on peut dans un tel cadre développer de profondes théories de la construction perceptive des formes. C'est ce qu'ont fait, par exemple, David Marr et ses collègues (T. Poggio...) dans leurs travaux désormais classiques sur la vision. Le problème central de la vision est ce qu'on appelle un problème inverse. Il s'agit de reconstruire la forme, l'organisation qualitative et la position des objets dans l'espace continu tridimensionnel à partir d'images rétiniennes bidimensionnelles et digitales. Pour comprendre le système perceptif visuel, il faut au préalable savoir quelle est sa fonction, sa finalité computationnelle. Après transduction, l'image rétinienne se trouve traitée – c'est-à-dire représentée – à différents niveaux de représentation, et ceux-ci doivent aboutir à l'expérience phénoménologique des objets dans l'espace.
Marr distingue trois niveaux fondamentaux de traitement. Le premier niveau, dit celui de l'esquisse primaire 2-D (bidimensionnelle), concerne le traitement du signal rétinien, par exemple l'analyse de la fonction intensité I(x, y) (x et y sont des coordonnées rétiniennes). Il s'agit d'en expliciter la morphologie de façon à pouvoir opérer des segmentations qui serviront de support aux phases finales, proprement cognitives et inférentielles, d'interprétation, de reconnaissance et de compréhension. Un des processus essentiels intervenant à ce niveau est celui de la détection locale de discontinuités qualitatives : segments de bords d'objets, terminaisons de bords, discontinuités de l'orientation des bords et des surfaces, discontinuités de qualités, mouvements de discontinuités, etc. Neurophysiologiquement, le système visuel périphérique (sensoriel) est spécialisé dans de telles détections. Parmi les cellules ganglionnaires de la rétine, il en existe – dites de classe X – dont les champs récepteurs sont régis par un antagonisme centre / périphérie. Pour certaines – dites « on-center » en jargon –, l'antagonisme est celui excitation / inhibition. Pour d'autres – dites « off-center » –, il est au contraire celui inhibition / excitation. Le profil de tels champs récepteurs (pour les cellules ON, par exemple) est la digitalisation du laplacien Δ G d'une gaussienne G. On remarque alors que ces cellules agissent par convolution sur I. Mais, comme Δ G * I = Δ (G * I), elles agissent comme un opérateur laplacien sur G * I, c'est-à-dire sur I « lissé » à une certaine échelle, échelle définie précisément par G. Marr qui a remarqué que, si deux cellules X, respectivement ON et OFF et de même G, sont activées ensemble, cela détecte deux pics, respectivement positif et négatif, de Δ (G * I), pics encadrant une discontinuité de G * I (critère dit de zero crossing, car les discontinuités correspondent à l'annulation, ou passage par zéro, des dérivées secondes). Des discontinuités locales détectées à plusieurs échelles différentes seront interprétées comme les indices de discontinuités externes objectives, d'origine géométrique et physique. Ensuite, par agrégation en niveaux hiérarchisés d'organisation, elles seront globalisées et on obtiendra ainsi l'organisation morphologique de l'image I(x, y).
Une des principales originalités de Marr est d'avoir introduit, entre l'esquisse primaire 2-D et le traitement proprement tridimensionnel 3-D, un niveau intermédiaire appelé joliment celui de l'esquisse 2 ½-D. Ce niveau est essentiel. Il constitue la pierre angulaire du problème de la vision. C'est « une représentation interne de la réalité physique objective qui précède la décomposition de la scène visuelle en objets » (p. 269 [1982]).
En ce qui concerne la forme des objets, une composante fondamentale de l'esquisse 2 ½-D est celle des contours apparents. Considérons une surface régulière S plongée dans R3. Soient Δ un plan de projection, δ une direction de projection et Π : R3 → Δ la projection sur Δ parallèlement à δ. Le contour apparent de S relativement à Π est la projection C = Π(Σ) du lieu critique Σ de la restriction de Π à S, c'est-à-dire de l'ensemble Σ des points de S où la direction δ est tangente à S. En situation perceptive, C est un ensemble de discontinuités sur le plan de la rétine et appartient donc à l'esquisse 2-D. Une des difficultés centrales du problème de la vision comme problème inverse est alors de comprendre comment il peut contenir une information tridimensionnelle : « quand on y réfléchit, cela est vraiment un fait stupéfiant » (Marr, p. 215, 1982). Pour le comprendre, il faut d'abord remonter du contour apparent C à son générateur Σ et ensuite reconstruire la forme S à partir de la famille de ses contours.
Ici, la théorie de la perception devient dépendante de profondes théories mathématiques, physiques et computationnelles. Il y a d'abord la géométrie différentielle et la théorie des singularités. Le générateur Σ d'un contour apparent C est un lieu critique d'application projection. C'est donc un ensemble de singularités (qui engendre un ensemble de discontinuités). On connaît les singularités qui peuvent y apparaître génériquement (théorème de Whitney-Thom) : il s'agit uniquement de plis, de fronces et de croisements normaux. Génériquement, C est donc composé de lignes de points plis pouvant admettre comme singularités isolées des points cusps et des croisements. Localement, on peut décrire la géométrie de Π : S → Δ à partir de données différentielles possédant un contenu géométrique intrinsèque (théorie des jets). La structure de S (son homologie par exemple) impose de fortes contraintes sur la structure globale de C (nombre de cusps, etc.). D'autre part, lorsque S bouge dans l'espace ambiant R3, son contour apparent C se déforme et, en général, change de type qualitatif. Des accidents morphologiques typiques peuvent se produire (déploiement ou reploiement de deux cusps à partir d'une queue d'aronde, croisements ou décroisements de lignes plis, etc.). La question est alors : jusqu'à quel niveau de structure la donnée de la famille T des contours apparents C au niveau différentiable permet-elle de reconstruire S ? Elle permet de reconstruire S non seulement topologiquement, non seulement différentiablement mais encore, par exemple, au niveau de ses propriétés de convexité (du signe de sa courbure). Si l'on introduit une « bosse » sur S, celle-ci se manifestera par une composante supplémentaire dans certains des contours. D'autre part encore, le nombre de types qualitatifs de contours intervenant dans T est un indice fondamental sur la complexité morphologique de S (une surface simple comme une sphère n'a qu'un seul type de contours apparents : des cercles).
Sur le plan physique, il s'agit de comprendre comment l'information géométrique critique que constituent les contours apparents peut être encodée dans le signal lumineux. Pour cela, il faut de façon plus générale comprendre comment les singularités décrites en termes d'optique géométrique (caustiques, singularités des fronts d'ondes, etc.) peuvent être également décrites en termes d'optique ondulatoire (pour les caustiques, il s'agit par exemple de la théorie des intégrales oscillantes). Nous allons y revenir.
Enfin, sur le plan computationnel, il s'agit de construire des algorithmes à implémentation neurophysiologique plausible capables de calculer les jets suffisants pour la reconstruction de la géométrie des projections Π | S. Le critère de zero-crossing en fournit un exemple élémentaire, qu'il s'agit de généraliser.
Au niveau de l'esquisse 2 ½-D convergent et s'intègrent des traitements de l'esquisse primaire qui sont indépendants et modulaires (computationnellement automatiques, insensibles aux connaissances, croyances ou attentes du sujet). En plus des contours apparents, il faut mentionner en particulier la stéréopsie (vision binoculaire), la texture des surfaces, le rapport géométrie-ombres. C'est à partir de là qu'on passe à un niveau de représentation 3-D qui est volumétrique et centré sur les objets. À ce niveau, les formes sont hiérarchiquement décomposées en parties, désambiguïsées, interprétées, lexicalement identifiées, catégorisées, etc. De façon plus générale, on peut penser que c'est à ce niveau que le langage et sa sémantique se branchent sur la perception visuelle.
Des formes à la sémantique conceptuelle
La psychologie de la perception montre comment les données sensorielles peuvent être traitées de façon à produire des formes-phénomènes au sens du paragraphe 1. Pour passer de ces formes au langage, les processus fondamentaux sont ceux de la généralisation et de l'abstraction.
Les formes semblables sont regroupées en catégories (en classes d'équivalence) correspondant à des concepts empiriques ou à des lexèmes (arbre, chien, etc.). On peut traiter ces catégories extensionnellement comme de simples ensembles. Mais on peut aussi les traiter comme des regroupements de formes concrètes spécifiant des formes génériques, typiques, prototypiques. Cette dialectique générique/spécial (type/token en jargon) est cognitivement essentielle. Elle est très ancienne en mathématiques et intervient dès qu'on se propose de classer des formes.
De façon générale, une forme f pourra toujours être décrite mathématiquement comme une structure géométrique d'un certain type (par exemple, dans le cas des contours apparents, comme une application différentiable entre variétés différentiables). Cette structure présentera un certain nombre (en général infini) de degrés de liberté permettant de déformer la forme. Les formes d'un certain genre constituent donc un espace (fonctionnel) F. L'analyse de f peut, par conséquent, se faire de façon interne ou externe. Dans le premier cas, il s'agit d'investiguer la structure effective de f, alors que, dans le second cas, il s'agit d'investiguer la structure locale de F au voisinage de f. On peut facilement définir cette dernière lorsqu'on dispose de deux concepts. D'abord de celui de topologie sur F : il permet de parler de déformations de formes et de formes voisines. Ensuite de celui de type qualitatif d'une forme f ∈ F (il est en général défini à partir de l'action d'un groupe de transformations sur F). « Avoir le même type qualitatif » est une relation d'équivalence sur F. On dira alors que f ∈ F est structurellement stable si toute forme g assez voisine de f lui est équivalente, autrement dit si la classe d'équivalence f̃ de f est topologiquement ouverte localement en f. Par définition, les formes stables engendrent un ouvert U de F. Si f est stable, son analyse externe est triviale (F est localement homogène en f). Il n'en va plus de même si f est instable. Soit KF le fermé des formes instables, complémentaire de U dans F. La géométrie locale de KF en f ∈ K fournit de précieux renseignements sur la structure de f. KF est une morphologie discriminante qui catégorise F, c'est-à-dire le décompose en « espèces » de formes (les classes d'équivalence stables pour le type qualitatif). Souvent, on peut se ramener en dimension finie (en ne considérant que certains degrés de liberté particulièrement importants) et définir sur le nouvel espace W issu de F une métrique. W est catégorisé par la morphologie discriminante K issue de KF. Si la géométrie de K est suffisamment régulière, on se trouve alors dans une situation « géographique » : W est partitionné en un nombre fini de domaines Di séparés par des frontières, et les prototypes Pi sont des « capitales », c'est-à-dire des valeurs centrales. On peut alors définir sur W un potentiel V dont le gradient est un gradient de typicalité : les attracteurs (minima) de V donnent les prototypes Pi, les domaines Di correspondent aux bassins d'attraction des Pi, et K correspond à l'ensemble des séparatrices (des seuils) entre bassins. Les travaux de plus en plus nombreux qui se poursuivent sur la catégorisation et la typicalité retrouvent dans les domaines perceptif et sémantique un phénomène coextensif au concept même de forme.
Les notions de contour apparent et de discontinuité qualitative fournissent des exemples privilégiés de ce que Husserl et les premiers gestalt-théoriciens (Stumpf, Meinong et von Ehrenfels, déjà cités) appelaient des moments dépendants (parties d'objets non détachables). Un autre exemple est celui des qualités sensibles (couleurs, intensité, timbre, etc.), c'est-à-dire les qualités « secondes » de la tradition aristotélicienne. En général, on adopte à propos de ces moments une perspective nominaliste qui en fait des abstracta de nature psychologique. On refuse de les considérer comme des accidents, des qualités et des relations individuels (ce qui est, en revanche, le cas dans une authentique ontologie qualitative). On se restreint à l'expression linguistique (prédicative) des formes-phénomènes et des états de choses, et on remarque que celle-ci ne met en jeu que des concepts généraux et abstraits (les concepts de couleur par exemple). On en déduit que les moments ne sont que des contenus psychologiques sans corrélats objectifs. La forme qualitative du monde n'est qu'une forme de langage. Toute la sémantique moderne s'est engagée dans cette voie.
Accédez à l'intégralité de nos articles
- Des contenus variés, complets et fiables
- Accessible sur tous les écrans
- Pas de publicité
Déjà abonné ? Se connecter
Écrit par
- Jean PETITOT : ancien élève de l'Ecole polytechnique, docteur es lettres et sciences humaines, vice président de l'International Association for Semiotic Studies, directeur d'études à l'Ecole des hautes études en sciences sociales.
Classification
Autres références
-
ACOUSMATIQUE MUSIQUE
- Écrit par François BAYLE
- 7 825 mots
- 5 médias
...chez René Thom, qui d'ailleurs a cité volontiers ce sémiologue du xixe siècle, précurseur d'une conception qualitative du monde : « Les phénomènes qui sont l'objet d'une discipline [...] apparaissent comme des accidents de formes définis dans l'espace substrat de... -
CRASSET MATALI (1965- )
- Écrit par Christine COLIN
- 928 mots
À ce temps « réel » fait écho un lieu qui ne l'est pas : « La forme est une plate-forme » déclare Matali Crasset. Si on place cette phrase dans la continuité des célèbres aphorismes qui ont véhiculé les théories du design au cours des deux siècles derniers, tels que « l'outil crée la forme... -
DESCRIPTION ET EXPLICATION
- Écrit par Jean LARGEAULT
- 9 391 mots
- 1 média
...d'effet qui en soit distinct, on pourrait seulement parler de son déploiement dans le temps. Aristote et saint Thomas n'assignent pas d'efficace à la forme seule. La forme n'agit pas ; c'est une substance qui agit par sa forme ou suivant sa forme. De même pour Leibniz et Euler, les principes d'optimum... -
DESIGN
- Écrit par Christine COLIN
- 8 028 mots
- 1 média
...théories élaborées par des praticiens. Les aphorismes, ces théories abrégées véhiculées par ces derniers, en permettent un rapide survol. « L'outil crée la forme » peut être considéré comme un héritage du rationalisme du xixe siècle ; « la forme suit la fonction », attribué à l'architecte américain... - Afficher les 29 références
Voir aussi
- CYBERNÉTIQUE
- ONDE DE CHOC
- PROPAGATION DES ONDES
- VARIABLES INTENSIVES
- IMAGES OPTIQUES
- OPTIQUE GÉOMÉTRIQUE
- PHASE TRANSITIONS DE
- HAMILTONIEN
- SYMPLECTIQUE FORMALISME
- ÉTAT CHANGEMENT D'
- REPRÉSENTATION & CONNAISSANCE
- POINT CRITIQUE
- VARIABLES EXTENSIVES
- STRUCTURE, biologie
- HYDRODYNAMIQUE
- OBJECTIVITÉ
- MORPHOGENÈSE VÉGÉTALE
- TOPOLOGIE ALGÉBRIQUE
- ESPACE FONCTIONNEL
- DÉFAUTS, cristallographie
- SMECTIQUE ÉTAT
- TRAJECTOIRE, mathématiques
- SOLIPSISME
- SIGNIFICATION
- ÉPOCHÈ, philosophie
- DISCONTINUITÉ, physique
- PHYSIQUE MATHÉMATIQUE
- ENTÉLÉCHIE
- NOÈME & NOÈSE
- FODOR JERRY ALAN (1935-2017)
- STABILITÉ, analyse numérique
- PARTITION FONCTION DE
- SOUS-VARIÉTÉ, mathématiques
- LIAPOUNOV MÉTHODE DE
- MODÈLE, biologie
- MODÈLE, physique
- QUALITÉS SENSIBLES
- DIFFÉRENCIATION CELLULAIRE ou CYTODIFFÉRENCIATION
- MORPHOLOGIE, biologie
- GÉNÉTIQUE MOLÉCULAIRE
- EIDÉTIQUE
- SYSTÈMES DYNAMIQUES DIFFÉRENTIABLES
- PERTURBATION, mathématiques
- PHASE STATIONNAIRE MÉTHODE DE LA
- GROUPE DE RENORMALISATION
- ATTRACTEUR
- ATTRACTEUR ÉTRANGE
- VARIATIONNELLE FORMULATION
- SYSTÈMES BIOLOGIQUES & BIOCHIMIQUES
- APPROXIMATION
- IMAGES TRAITEMENT D'
- BIFURCATION, mathématiques
- EXPOSANT CRITIQUE
- SYSTÈMES THÉORIE DES
- PERCEPTION VISUELLE
- NÉODARWINISME
- MODÉLISATION
- FLUCTUATION, physique
- RENORMALISATION, physique
- COGNITIVISME
- CONNEXIONNISME
- MARR DAVID (1945-1980)
- TRANSCENDANTAL, philosophie
- GÉNÉRALISATION, logique
- DAUBERT JOHANNES (1877-1947)
- CAUSTIQUES, optique
- ÉCHELLE LOIS D'
- SINGULARITÉS, mathématiques
- ACOUSTIQUE