Modèles de Structures Aléatoires de Type Réaction-Diffusion - Thèse de Morphologie Mathématique - Luc Decker, Ecole des Mines de Paris (1999)

4.1 Implantation

Les réseaux d'applications couplées (en anglais: coupled map lattices) ont été introduits par Kaneko vers la fin des années 1980 [Crutchfield87,Kaneko89,Kaneko92]. Ils ont été initialement utilisés afin d'étudier le chaos déterministe engendré au sein de systèmes complexes multi-variables, puis mis en oeuvre pour résoudre des problèmes plus physiques [Kaneko90], tel que la dynamique d'un phénomène d'ébullition [Yanagita92]. Cette technique de simulation consiste à discrétiser l'espace, comme dans le cas d'un Gaz sur Réseau. A chaque site d'un réseau régulier est associé un ensemble de $ N$ variables à valeurs continues qui représentent les valeurs locales de grandeurs macroscopiques telles que la pression, la température, etc... L'évolution du système s'effectue par pas de temps discrets, par définition d'une dynamique locale pour chacune des variables. Un réseau d'application couplées peut être considéré comme un ensemble de $ N$ images digitales de nombres flottants, en deux ou trois dimensions, où les pixels - ou voxels dans le cas d'un volume - correspondent aux sites du réseau. Son évolution se décompose en opérations propres à une variable (internes à une image) et en opérations qui combinent plusieurs variables, permettant ainsi leur couplage. L'intégration d' équations macroscopiques de la physique est réalisée par différences finies, qui sont directement exploitables en terme de dynamique pour les variables d'un réseau d'applications couplées.

Dans une telle implantation d'un système d'équations de réaction-diffusion, les différentes variables vont correspondre aux concentrations des $ N$ espèces en présence. Comme dans notre modèle de Gaz sur Réseau réactif, la dynamique élémentaire est constituée à chaque pas de temps d'une étape de diffusion et d'une étape de réaction. La diffusion de chaque espèce est réalisée de manière indépendante, et se base sur le modèle par différences finies décrit dans notre deuxième partie ("Modèles de diffusion"). Les réactions entre espèces vont être à l'origine du couplage entre variables : les fonctions multi-variables de réaction $ F_{i}$, qui interviennent dans l'équation (III-1), représentent en l'état les accroissements de concentrations $ Z_{i}(x,t+1) - Z_{i}(x,t)$ à prendre en compte pour chaque espèce $ i$, à chaque pas de temps. Par ailleurs, notons qu'à une échelle microscopique, des modèles de Gaz sur Réseau couplés (avec plusieurs constituants réactifs) ont été introduits selon des principes assez proches [Dab91].

Ce modèle est légèrement modifié afin de pouvoir intervenir sur la pondération relative des réactions par rapport à la diffusion - nous avons déjà évoqué l'importance des effets relatifs entre les deux phénomènes. Les accroissements réactifs de concentration sont ainsi tous multipliés par un unique facteur $ K_{r}$, qui sera fixé expérimentalement pour chaque modèle de manière à contrôler efficacement l' échelle des structures aléatoires générées. En effet, les coefficients de diffusion relatifs autorisés par notre modèle sont compris entre 0 et 1, ce qui constitue un intervalle assez réduit. De plus, il semble préférable d'utiliser des valeurs élevées pour ces coefficients de diffusion afin d'assurer une bonne propagation des variations de concentration à travers l'espace, compte tenu de sa discrétisation. Indirectement, le paramètre $ K_{r}$ permet donc d'intervenir sur la diffusion; en augmentant la force des réactions, il est également possible de réduire l'importance de la diffusion.

A trois dimensions, des volumes de données très importants ont en général à être traités par un réseau d'applications couplées. A titre indicatif, un domaine cubique de $ 200\times200\times200$ voxels requiert $ 64 Mo$ de mémoire dans le cas d'un modèle à deux variables ($ N = 2$); un tel espace doit être actualisé à chaque itération. Il s'avère dès lors indispensable d'optimiser le processus itératif élémentaire qui est appliqué à chaque voxel [Decker98b]. La procédure à adopter concernant l'étape de diffusion a déjà été présentée (chapitre II-1). L'étape de réaction peut être optimisée plus classiquement en détectant les termes communs aux différentes fonctions $ F_{i}$ ou encore par la mise en facteur de termes. Egalement dans le but de réduire les temps de calculs, nous avons développé une version parallèle de notre logiciel de simulation. Le domaine à traiter y est simplement découpé en tranches égales réparties sur les différents processeurs d'un calculateur IBM-SP2 à mémoire distribuée. Ce type de parallélisme est dit "à gros grain". Les communications entre processeurs (basées sur le standard MPI) consistent uniquement en des échanges synchrones des frontières bidimensionnelles entre sous-domaines. Pour ce programme parallèle, l'efficacité mesurée est de $ 83\%$ lorsque 8 processeurs sont utilisés : cette valeur traduit la diminution relative de performance par rapport à un temps d'exécution qui serait idéalement divisé par 8. Au total, la puissance de calcul du programme parallèle peut atteindre près de $ 1\ GFLOPS$ (milliard d'instructions flottantes par seconde), ce qui correspond à $ 16$ millions de concentrations traitées à chaque seconde, ou encore à environ une itération par seconde pour une simulation d'un modèle à deux espèces dans un domaine de $ 200^{3}$ voxels. La complexité des fonctions de réaction $ F_{i}$ peut évidemment altérer ces performances; cependant, l'étape de diffusion représente les deux-tiers du temps de calcul pour les modèles implantés.

Decker, Luc. "Modèles de structures aléatoires de type réaction-diffusion". PhD diss. (191 p.), Paris, ENSMP-CMM, 1999.
Luc Decker   luc@texrd.com   www.texrd.com  -  Mars 1999