Abstracts des exposés

KOPPA, un code de calcul pour la simulation d’écoulements raréfiés.

Florian BERNARD (Menphis, Inria/IMB)

KOPPA (Kinetic Octree Parallel PolyAtomic) est un code de calcul pour la simulation d’écoulements raréfiés. On trouve typiquement ce type d’écoulement dans les hautes couches de l’atmosphère où la pression est tellement faible que les modèles de mécanique des fluides classiques ne décrivent plus correctement les phénomènes. On doit alors résoudre l’équation de Boltzmann ou des modèles dit cinétiques associés comme les modèles BGK ou ES-BGK. Ces modèles sont particulièrement couteux à résoudre puisqu’ils nécessitent une discrétisation de l’espace des vitesses en plus de la discretisation spatiale. En pratique, pour une simulation 3D, on résout les équations dans un espace à 6 dimensions. La parallélisation ainsi que l’adaptation de maillage dans ce type de code sont alors des points cruciaux pour réduire le coût de calcul. Nous allons présenter ici quelques résultats obtenus avec ce code pour différents type de gaz (monoatomiques, polyatomiques) et d’écoulements (mono espèce, multi-espèces) ainsi que les problèmes liés à la parallélisation.

 

Comparison of solvers performance when solving the 3D Helmholtz elastic wave equations over the Hybridizable Discontinuous Galerkin method

Marie Bonnasse-Gahot (Magique-3D, Inria) , Henri Calandra (Total) , Julien Diaz (Magique-3D, Inria) et Stéphane Lanteri (Nachos/Inria)
 
The advantage of performing seismic imaging in frequency domain is that it is not necessary to store the solution at each time step of the forward simulation. Unfortunately, the drawback of the Helmholtz equations, when considering 3D realistic elastic cases, lies in solving large linear systems. This represents today a challenging task even with the use of High Performance Computing (HPC).
To reduce the size of the global linear system, we developped a Hybridizable Discontinuous Galerkin method (HDGm). It consists in expressing the unknowns of the initial problem in function of the trace of the numerical solution on each face of the mesh cells. In this way the size of the matrix to be inverted only depends on the number of degrees of freedom on each face and on the number of the faces of the mesh, instead of the number of degrees of freedom on each cell and on the number of the cells of the mesh as we have for the classical Discontinuous Galerkin methods (DGm). The solution to the initial problem is then recovered thanks to independent elementwise calculation.
As the HDG global matrix is very sparse, we focus on a suitable solver for this kind of matrix. We tested two linear solvers: a parallel sparse direct solver MUMPS ( MUltifrontal Massively Parallel sparse direct Solver) and a hybrid solver MaPHyS (Massively Parallel Hybrid Solver) which combines direct and iterative methods. We compared the performance of the two solvers when solving 3D elastic wave propagation over HDGm.
 

Netloc, a tool for discovering the network topology and taking advantage of it.

Cyril Bordage, Brice Goglin and Emmanuel Jeannot

Netloc is a tool in hwloc to discover the network topology. It is able to display the topology in a web browser and allows the user to see the properties of the network devices such as hosts and switches. Another feature in Netloc is the network topology-aware process mapping to reduce the time of communication and improve the performance of the application. This task is done thanks to the integration with Scotch.

Méthode eulérienne pour la simulation de l'interaction fluide-structure élastique appliquée à l'amortissement des vagues par des structures élastiques.

Deborde Julien (I2M trefle)

Une méthode complètement Eulérienne reposant sur un modèle 1-fluide est présentée afin de résoudre les problèmes d'interaction fluide-structure élastique. L'interface entre le fluide et la structure élastique est représentée par une fonction level-set, transportée par le champ de vitesse du fluide et résolue par un schéma d'ordre élevé WENO 5. Les déformations élastiques sont calculées sur la grille eulérienne à l'aide des caractéristiques rétrogrades. Nous utilisons différents modèles d'hyperélasticité, afin de générer puis d'intégrer les forces élastiques comme terme source des équations de Navier Stokes. Le couplage vitesse/pression est résolu par une méthode de correction de pression et les équations sont discrétisées par la méthode des volumes finis sur la grille eulérienne. La principale difficulté réside dans les grands déplacements de fluide autour du solide, source d'instabilités numériques. Afin d'éviter ces problèmes, nous effectuons périodiquement une redistanciation de la level-set et une extrapolation linéaire des caractéristiques rétrogrades. Dans un premier temps, nous effectuons la vérification et la validation de notre approche à l'aide de plusieurs cas tests comme celui proposé par Turek. Ensuite, nous appliquons notre méthode à l'étude du phénomène d'atténuation des vagues par des structures élastiques. Il s'agit d'une des voies possibles pour réduire l'impact des fortes houles sur notre littoral. De plus dans la littérature et à notre connaissance, seules des structures élastiques rigides ou élastiques mais monodimensionnelles ont été utilisées pour réaliser ces études. Nous proposons de placer des structures élastiques sur les fonds marins et analysons leur capacité d'absorption de l'énergie produite par les vagues.

 

Une application des Support Vector Machines à la neuro-imagerie 

 Alexandre Laurent1, Pierre-Yves Hervé2, Laure Zago1, Marie Chavent3, Jérôme Saracco3, Philippe Boutinaud2 et Marc Joliot1

1 GIN, IMN, UMR5293, CNRS, Université de Bordeaux, CEA

2 CADESIS, Lyon

3 CQFD, Inria Bordeaux Sud Ouest, IMB, UMR 5251, Université de Bordeaux & Bordeaux INP

Dans le contexte de l’imagerie fonctionnelle cérébrale, les questions posées nécessitent désormais le traitement de masses de données qui s’apparentent à celles rencontrées en Big-Data.  Pour avoir des temps d’analyse raisonnable, il est devenu indispensable d’utiliser les ressources de calcul massivement parallèles telles que celles installées au Mésocentre de Calcul Intensif Aquitain (MCIA).

Dans le cadre de ce projet, une méthode de classification supervisée par « Support Vector Machine » (SVM, Noble 2006) a été implémentée en langage R sur le MCIA. Une interface web a été développée avec pour objectif de rendre la procédure utilisable par des neuro- imageurs non spécialistes de l’informatique ou du traitement de données.

L’application de SVM consiste en deux phases, la phase d’entraînement et la phase de classification. La première phase, utilisant le plus de ressources, a pour objectif de produire le jeu de paramètres optimal (« classifier ») utilisé pour faire la prédiction ensuite. Elle utilise un processus itératif (RFE : « Recursive Feature Elimination ») pour sélectionner les variables (« features ») les plus informatives et une procédure de validation croisée (« Leave-One-Subject-Out, » LOSO) pour mesurer le taux d’erreur du « classifier ». La validation croisée est décomposable en N calculs indépendants, N étant le nombre de sujets utilisés à l’entraînement. Il en découle une procédure de calcul parallèle sur N cœurs. La phase de classification a été implémentée sur le même système, bien qu’elle ne sollicite pas d’importantes capacités de calcul.

 Deux études ont été réalisées en imagerie de résonance magnétique fonctionnelle (IRMf). La première étude visait à prédire la préférence manuelle des sujets à partir des données d’IRMf de connectivité intrinsèque du repos. Chaque sujet était représenté par sa matrice de connectivité calculée sur l’atlas AICHA (Joliot et al., 2015), donnant lieu à plus de 73000 « features ». L’apprentissage effectué sur un ensemble de 231 sujets en 40 heures/cœur sur 231 cœurs a permis de sélectionner un « classifier » de 713 features avec un taux de réussite de l’ordre 69%. Le taux de réussite n’étant pas satisfaisant, des paramétrisations différentes de l’algorithme sont actuellement en cours de test. La deuxième étude visait à prédire la dominance hémisphérique cérébrale pour le langage.  A la base de cartes de 60000 voxels d’activation dans une tâche de langage et un ensemble d’apprentissage de 250 sujets, le « classifier » optimal de 789 features a été calculé  en 50 heures/cœur en mobilisant 250 cœurs. Les résultats de la procédure LOSO ont permis de calculer un score de 97% de réussite dans la prédiction de la dominance hémisphérique (Zago et al., 2014).

En conclusion, la procédure d’apprentissage utilisant le LOSO est une procédure générique pour ce type de problème. Nous envisageons de tester d’autres techniques, telles que les techniques d’apprentissage profond,  dans le même environnement. L’application sera mise en ligne en 2017 sur la plateforme d’Imagerie en sciences du vivant (UMS 3767). Le projet, nommé TIMIC, a été soutenu financièrement par le labex CPU, dans le cadre de l’appel d’offres sur les projets émergents interdisciplinaires. 

 

Noble, W. S. (2006). What is a support vector machine?. Nature biotechnology24(12), 1565-1567.

Joliot, M., Jobard, G., Naveau, M., Delcroix, N., Petit, L., Zago, L., ... & Tzourio-Mazoyer, N. (2015). AICHA: An atlas of intrinsic connectivity of homotopic areas. Journal of neuroscience methods254, 46-59.

Zago L, Hervé P, Genuer R, Jobard G, Crivello F, Petit L, Mellet E, Mazoyer B, Tzourio-Mazoyer N, Joliot M (2014) Hemispheric pattern of dominance: machine learning of sentence production in 297 healthy volunteers. In: OHBM. Hamburg, Germany.

Apport de la bioinformatique dans la compréhension de la génétique des sarcomes

Tom Lesluyes 1,2 , Lucile Delespaul 1,2 , Lydia Lartigue 1,2 , Gaëlle Pérot 3 , Jessica Massière 1,2 , Jean-Michel
Coindre 1,2,3 & Frédéric Chibon 1,3.

1. INSERM U1218, équipe « Génétique et Biologie des Sarcomes », Institut Bergonié, Bordeaux
2. Université de Bordeaux
3. Département de Biopathologie, Institut Bergonié, Bordeaux

À l’échelle humaine, nous découvrions avant-hier (1953) la structure de l’ADN et hier (2003) la séquence quasi-complète de notre génome (ayant tout de même mobilisé 20 laboratoires et 3 milliards de dollars sur 13 ans). Aujourd’hui, les dernières avancées technologiques en matière de séquençage haut-débit permettent aux centres de recherche contre le cancer de compter sur un nouvel outil prometteur dans leur arsenal à visée thérapeutique. En effet, les coûts décroissants ainsi
que la rapidité de prestation des centres de séquençage ont rendu possible l’analyse de l’ADN et de l’ARN de cellules tumorales dans le contexte du diagnostic.
Gènes sur/sous-exprimés, mutations, translocations et insertions/délétions sont autant d’altérations génétiques qu’il est possible d’identifier grâce aux millions de fragments d’ADN/ARN séquencés et des opérations bioinformatiques spécifiques. C’est pourquoi nous avons analysé le transcriptome de centaines de sarcomes, tumeurs d’origine mésenchymateuse (muscles, os, cellules graisseuses, etc.) qui font partie des cancers ayant les génomes les plus remaniés. L’enjeu majeur est double, comprendre l'oncogenèse de ces tumeurs, et pouvoir prédire la survenue de métastases ainsi que la survie des patients tant ces tumeurs sont agressives (50% de survie et 50% d’événements métastatiques à 5 ans). Ce faisant, ces nouvelles altérations pourraient servir à une meilleure prise en charge thérapeutique des patients grâce à des thérapies ciblées, plus efficaces que les chimiothérapies actuelles.
À partir des données produites grâce à l’utilisation du centre de calcul (MCIA), nous avons ainsi pu intégrer un large programme mondial de séquençage des génomes tumoraux et identifier un nouveau gène d’intérêt fréquemment altéré (délétions, translocation, mutations) dans les tumeurs que nous étudions. Un nouveau transcrit chimérique récurrent a également été mis en évidence avec la démonstration expérimentale de son rôle pro-tumoral. Aussi, nous avons pu montrer qu’une signature d’expression pronostique pour la survenue de métastases précédemment établie au laboratoire, peut être utilisée avec le séquençage haut-débit et fait depuis l’objet d’un essai clinique en cours.
Parmi nos perspectives de recherche utilisant des ressources bioinformatiques importantes, nous avons pour projet d’étudier le génome et transcriptome de sarcomes développés sur territoire irradié (dans un contexte de traitement par radiothérapie antérieur) ainsi que d’étudier l’apport de la fusion cellulaire dans le processus d’oncogenèse. L’ensemble de ces projets nous permettra alors de mieux comprendre la génétique et la biologie de ces tumeurs encore mal connues.

Simulations of soft materials: Ordering dynamics of liquid crystal emulsions

Juho Lintuvuori  (Laboratoire Ondes et Matière d'Aquitaine, Université de Bordeaux et CNRS)

“Soft Matter” is a research area denoting the study of a broad range of (soft) deformable materials e.g. polymers, liquid crystals, colloidal suspensions and soft biological materials. For example, liquid crystals (LCs) are complex fluids with partially crystalline characteristics. They can have some kind of order (orientational and/or translational) but on the other hand they can flow like fluids.
In this talk, I will briefly review our recent simulations efforts on understanding the order and dynamics of different soft materials (e.g. hydrodynamics of colloidal particles in confinement and confined granular dynamics) using computational techniques ranging from parallel molecular/Brownian dynamics simulations to hydrodynamic modelling using lattice Boltzmann method.
I will then give slightly more detailed example from our lattice Boltzmann modelling of very chiral liquid crystal emulsions. Under certain conditions, the behaviour of the coarsening of isotropic fluid droplets is arrested by the liquid crystal matrix, giving a rise to behaviour akin to what is observed with solid (colloidal) particles. I will then show that when the interfacial tension between these two fluids is reduced, the liquid crystalline elasticity dominates the behaviour, leading to stable emulsions with a cubic symmetry.

 

Permeation of gas through nanoporous constrictions : theory and simulations

Fouad Oulensir (Laboratoire des fluides complexes et leurs réservoirs, UPPA)

Permeation of gas through nanoporous constrictions : theory and simulationsFouad OULEBSIR, Romain VERMOREL and Guillaume GALLIEROLaboratoire des fluides complexes et leurs réservoirs (Université de Pau et des Pays de l'Adour) AbstractFluid transport through carbon-based materials has several applications among which design of nanoporous carbons for gas separation, production of gas from shales and coal seams or geological CO2 sequestration. The determination of transport properties in such media is therefore of great interest. In the context of carbon membranes, numerous experimental studies have reported the dependence of permeation and separation properties on thermodynamic conditions (pressure, temperature) and properties of the system (fluid species, structural properties of the membrane, etc) [1]. Recently, Botan et al. performed molecular simulations that reproduced some typical features of the experimental results found in the literature [2]. More precisely, these authors evidenced that steric effects inherent to fluid permeation through molecular size constrictions drive the overall transport properties of the membrane. The present work focuses on molecular simulations of fluids permeating through single nanoporous constrictions. As a first approach, our molecular model consists in a monoatomic thick wall connecting two independent fluid reservoirs via a nanoporous slit. We report how permeation rates depend on several parameters, such as the size of the slit, thermodynamic conditions and the amplitude of molecular interactions. By means of simple theoretical models that reproduce our simulations data, we shed light on the range of mechanisms that rule molecular permeation through nanoporous constrictions. We believe our results are of practical interest for the design of architectured nanoporous materials such as nanoporous graphenes.References :[1] : T. A. Centeno, A. B. Fuentes, Supported carbon molecular sieve membranes based on a phenolic resin, J. Membrane Sci., 160, 201-211, 1999
[2] : A. Botan, R. Vermorel, F. J. Ulm, R. J-. M. Pellenq, Molecular simulations of supercritical fluid permeation through disordered microporous carbons, Langmuir, 29, 9985-9990, 2013

Modelling Photoswitchable Organic-Graphene Hybrids

Claire Tonnelé (Institut des Sciences Moléculaires, Université de Bordeaux)

Despite the recent advances in graphene-based electronics, several challenges still need to be addressed for real applications in electronics to flourish. Aiming at the design of a new generation of graphene-organic hybrid materials exhibiting multifunctional properties, we use classical molecular dynamics (MD) simulations to set up a model for the structural organization of 2D material-based light-responsive field-effect transistors incorporating photoresponsive self-assembled monolayers (SAM) between the 2D material and either metallic electrodes or gate dielectrics. The organization at both interfaces is of crucial importance for the description of charge injection/extraction/transport and assessing the overall device characteristics. Quantum-chemical validated force-field MD simulations are performed to characterize the SiO2/SAM/graphene structure (tilt angle, structural disorder..) and model the photoswitching.

Personnes connectées : 1