La simulation atomistiques

IDLabs

Simulation atomistique

SOMMAIRE

I.          L’apparition de la simulation atomistique

     A.         Principe de l’atome

     B.         La simulation informatique

     C.         La naissance de la simulation atomistique

II.      Les différentes méthodes

     A.         Méthode ab initio

     B.         Méthode de la dynamique moléculaire

     C.         Méthode de Monte-Carlo

Conclusion

Bibliographie

I) L’apparition de la simulation atomistique

 A) Principe de l’atome

 

Au quatrième siècle avant Jésus-Christ, un savant et philosophe grec nommé Démocrite proposa une idée alors absurde : la matière était composée d’éléments minuscules, invisibles et insécables : les atomes. Entre eux, il n’y avait rien, le vide. La matière était donc selon lui discontinue. Sa théorie fut instantanément balayée par une autre que les hommes pensaient à l’époque plus logique : celle des quatre éléments composant toute chose. De plus, Aristote, bien plus célèbre, l’annonça en tant que vérité absolue. Il faudra attendre deux-milles ans pour que des scientifiques commencent à douter sérieusement de cette théorie.

John Dalton

En 1780, Antoine-Laurent Lavoisier fait une découverte surprenante : il réussit à décomposer l’oxyde de mercure et donne une réelle crédibilité aux recherches de Robert Boyle, scientifique du quinzième siècle. Le gaz est donc réellement composé de petites particules qu’ils appellent “éléments”. C’est à ce moment qu’il énonça la fameuse loi de “Rien ne se perd, rien ne se crée, tout se transforme”. La matière est composée d’éléments, lors d’une transformation chimique, ce n’est que la place de ces éléments qui change. Mais il faudra attendre John Dalton pour que la théorie se confirme. A l’aide d’expériences sur les gaz et de raisonnements logiques, il vient à la même conclusion que Démocrite : il existe des atomes. Cependant, il développe la théorie : il existe plusieurs types d’atomes, ils n’ont pas tous le même poids.

 

Une nouvelle ère scientifique débute : celle des atomes. En 1807, Louis Joseph Gay-Lussac démontre par le fait que les rapports des volumes de réactifs et de produits étant des nombres entiers, bien que petits, que la matière est discontinue. Puis, en 1903, Sir Joseph John Thomson découvre l’électron en s’appuyant sur les travaux de Crookes. Il formule l’hypothèse que les atomes sont comme des puddings : des pains positifs chargés de raisins négatifs (ici, les électrons).

Lord Ernest Rutherford, cinq ans plus tard, donna une nouvelle forme à l’atome. En bombardant une feuille d’or avec des particules neutres, il vit que certaines traversaient la feuille alors que d’autres étaient déviées. Il formalisa donc que l’atome était composé d’un noyau positif dix-milles fois plus petit que l’atome, les électrons gravitaient donc autour de lui, comme les planètes autour d’une étoile et tout le reste n’était que du vide. De plus, il

considéra qu’un atome était toujours neutre. Chaque charge positive du noyau était compensée par un électron. Vient ensuite Niels Bohr qui déclara qu’en effet, le modèle de Rutherford était pertinent, mais que les électrons étaient placés par couche autour du noyau et qu’il s’en trouvait plusieurs sur la même couche. En 1925, Erwin Schrödinger, grand scientifique s’intéressant à la mécanique quantique perfectionne ces travaux en affirmant que les électrons sont introuvables. On ne peut formuler qu’une probabilité quant à leur position.

B) La simulation informatique

Il vient toujours un moment ou les expériences réelles deviennent trop limitées, voire impossible. Il faut donc contourner le problème, oublier les expériences et faire des simulations. Moins précises, moins fiables, mais aussi moins limitées.

Tout commence avec Nicholas Constantine Metropolis. Ce scientifique dirige un projet de construction d’un ordinateur de calcul : le MANIAC (Mathematical Analyzer, Numerical Integrator, and Computer soit Analyseur mathématique, intégrateur numérique et ordinateur). Quelques années auparavant, Enrico Fermi s’était penché sur l’équipartition de l’énergie en fonction du temps. Il propose donc de faire une simulation sur le MANIAC en 1952. Il est aidé par Stanislaw Ulam et John Pasta.  Le but de la simulation est d’étudié le comportement de masses formant une ligne et reliées entre elles par des ressorts. L’expérience sera programmée par Mary Tsingou et celle-ci ne donnera pas les résultats escomptés.

MANIAC

Par la suite, les simulations informatiques se firent de plus en plus nombreuses : la physique arrivait dans une période où les expériences physiques étaient trop poussées pour être réalisées. Les ordinateurs se développant de plus en plus rapidement, et leur utilisation devenant grand public, la simulation devint même courante et peu chère. Plus besoin d’un supercalculateur pour effectuer une simulation. De plus, les ordinateurs pouvant communiquer entre eux, les programmes de calcul se virent simplifiés. Une nouvelle unité de mesure fut d’ailleurs créée pour quantifier la capacité de calcul : le GFlops, soit le milliard d’opérations à virgule par seconde. En Juin 2016, l’ordinateur le plus puissant possède 93 GFlops et dix millions de cœurs.

C) La naissance de la simulation atomistique

En 1953, Metropolis met en place avec Ulam la méthode de Monte-Carlo, tirant son nom des jeux de hasard pullulant dans Monte-Carlo. Grâce à cela, il met en place l’algorithme de Metropolis qui utilise des valeurs aléatoires et une chaine de Markov : chaque état futur n’est pas influencé par les états passés, seulement par celui présent. Grâce à cet algorithme, les mouvements des atomes peuvent être pris en compte. En 1957, ce sont Alder et Wainright qui effectuent alors des simulations par ordinateur avec un concept original : ils appliquent les lois de Newton à chaque atome, cela donnant naissance à la dynamique moléculaire. Le développement des ordinateurs donne par la suite naissance aux approches multi-échelles : On part soit d’une simulation d’un élément macroscopique et l’on utilise ses résultats pour le décomposer, simuler, redécomposer et ainsi de suite, soit on simule un évènement à une échelle microscopique, puis on regarder comment il se comporte à une plus grande échelle avec plusieurs évènements comme lui, et on utilise cette seconde simulation pour encore agrandir. Ces deux approches sont aussi différentes que complémentaires et permettent soit de comprendre comment la manipulation de certains atomes se déroulerait, comme savoir comment se distord un pneu au niveau atomique.

La simulation atomistique est alors née. Principalement utilisée dans des simulations à plusieurs échelles, elle est soit la conclusion, soit la base de celle-ci. Très utilisée dans le secteur des matériaux, elle permet de prévoir leurs déformations, leur résistance et leurs déchirures sous certaines contraintes. Au fur et à mesure que notre technologie évolue, les simulations peuvent être plus grandes, contenir plus de paramètres, représenter des situations soit plus réalistes, soit plus complexes, voire même les deux.

II) Les différentes méthodes

A) Méthode ab initio

Il n’existe pas qu’une seule façon de réaliser une simulation atomistique, les trois plus grandes sont la ab initio, la dynamique moléculaire (évoquée ci-dessus) et Monte-Carlo.

La méthode ab initio dont nous allons parler ici se base sur les Premiers Principes de la chimie quantique. Elle utilise donc seulement les premières lois de la mécanique quantique, ignorant certaines compliquant les calculs. Pour cela, il faut revenir aux débuts de la physique quantique, au 20ème siècle. Les physiciens constatèrent à cette époque que les atomes n’étaient pas régis par les lois de la physique conventionnelle. Il leur fallut accepter ce fait et développer la physique quantique, Robert Oppenheimer et Max Born travaillèrent alors en commun pour créer l’approximation de Born-Oppenheimer. Cette dernière affirme qu’en vue de la différence de taille entre le noyau atomique et un électron, la vitesse de ces derniers doit être drastiquement différente. En conséquence, il est possible de considérer que les déplacements de l’électron se font autour d’un repère fixe : le noyau atomique. Evidemment, cette théorie est invalidée dans des cas comme une collision entre atomes, la vitesse des noyaux devenant un paramètre essentiel.

Max Born et Robert Oppenheimer

Par la suite, il faut s’intéresser à Vladimir Aleksandrovitch Fock et Douglas Hartree. Ces deux scientifiques créèrent une méthode originalement appelée Hartree-Fock qui part du principe que seul l’effet moyen de la répulsion électron-électron est pris en compte, entre d’autres termes : Les effets causés par la présence d’autres électrons autour de celui étudié sont quasiment ignorés pour la plupart. Cela simplifie énormément les calculs. Evidemment, cette méthode étant aussi une approximation, nombreux sont les cas où elle ne fonctionne pas, laissant place à des dérivées d’elle-même pour palier à son incertitude. Il est aussi possible d’utiliser d’autres méthodes par la suite pour corriger l’incertitude due à la vulgarisation des répulsions électrons-électrons.

Représentation de la densité électronique

Grâce aux deux approximations brièvement expliquées ci-dessus, il a été possible de mettre au point la Théorie de la Fonctionnelle de la Densité. Rédigée en 1964 par Pierre Hohenberg, Walter Kohn et Lu Sham, elle démontre que l’énergie totale étant liée à la densité électronique, il est possible de remplacer la fonction d’onde par cette dernière. La différence entre les deux étant assez étroites : la fonction d’onde est la probabilité de trouver l’électron dans le voisinage d’une position précise à un moment précis. Il est donc facilement compréhensible qu’elle soit tout particulièrement longue et compliquée à calculer, tout en restant approximative vu qu’elle n’est qu’une probabilité. La différence avec la densité électronique et que, elle, calcule les différents endroits où se trouve l’électron. Il faut donc le considérer comme un nuage, lui ainsi que tous ses voisins. On considère donc un nuage d’électron. La position du nuage, ce dernier n’étant qu’un amas d’électron, est donc nécessairement moins précise. Mais malgré ce manque de précisions, elle reste valide et surtout, ne comporte pas autant d’informations inutiles que la fonction d’onde, celle-ci recensant toutes les positions de l’électron alors qu’au final, peu sont utilisées. Cependant, l’approximation de la densité électronique est basée sur un facteur d’échange-corrélation, c’est-à-dire l’énergie qui s’échange entre les électrons et celle qu’ils produisent les uns entre les autres. Malheureusement, les méthodes de calcul de la densité électronique ont tendance à sous-estimer l’énergie d’échange et à surestimer l’énergie de corrélation. Pour améliorer cela, il est possible d’utiliser une approximation du gradient généralisé, un calcul qui considère, contrairement à ce que la densité électronique de base considère elle, que le nuage d’électrons n’est pas uniforme. Ces calculs sont cependant extrêmement compliqués et règlent peu le problème pour lequel ils ont été trouvés. Beaucoup de méthodes ont été créées pour améliorer ce calcul (dont la méta-GCA) mais cela rajoute encore une fois de la complexité.

A ce jour, la méthode ab initio est surement la plus complexe mais la plus fiable et précise des méthodes de simulation atomistique.

B) Dynamique Moléculaire

La Dynamique Moléculaire est peut-être la méthode la plus simple à appréhender. Elle se base sur les trois lois de Newton suivantes :

- A moins qu’une force s’applique dessus, un corps se déplace en ligne droite à une vitesse constante.

- La somme des forces est égale à la masse multipliée par l’accélération du solide.

- Chaque action effectuée entraine une réaction de même intensité contre celui qui applique ladite force.

En appliquant ces lois à chaque atome, on peut réaliser la simulation. Pour cela il faut passer par la phase 0 : la construction d’un modèle. On réalise une modélisation de la molécule en liant les atomes et en leur appliquant différents paramètres d’entrée.

Ensuite on passe à la phase 1 : Chaque atome est considéré comme une entité physique à part entière subissant des forces dues à ses voisins et à sa masse. Il est soumis aux trois lois de Newton. A partir de ce moment-là, des programmes calculent les forces qui lui sont appliquées. Le système va donc lentement basculer dans une situation de moindre énergie, les atomes s’éloignant le plus possible les uns des autres pour subir le moins possible d’effet de leur part. Cette partie-là de la simulation est la plus longue et la plus complexe du fait que du nombre d’interactions possibles entre les atomes et le système en général et de la complexité des calculs nécessaires. De plus, il faut assembler ces forces pour définir un déplacement à l’atome. Une fois en position de moindre énergie, l’atome devient fixe.

A ce moment-là, la deuxième phase commence : En fonction de la température du système, des précédents déplacements et des positions des atomes, le programme leur attribue une vitesse précise dans une certaine direction. Le système acquière donc une nouvelle énergie et les atomes se déplacent à nouveau. Cependant, les nouveaux déplacements font quitter au système sa position de moindre énergie, créant de nouvelles forces entre les atomes.

Le système recommence alors du début, sauf évidemment pour la modélisation, le modèle étant déjà présent et les calculs de la vitesse étant simplifiés, le système étant déjà en mouvement.

L’avantage de cette méthode est qu’elle est très simple à mettre en application et finalement, elle est aussi très rapide. Mais il est facilement concevable qu’une simulation d’un modèle atomique avec les lois de Newton est peu fiable : c’est justement parce qu’elles ne fonctionnaient pas qu’il a fallu développer la mécanique quantique. De plus, la Dynamique Moléculaire, comme son nom l’indique ne fonctionne qu’à l’échelle moléculaire et donne peu de résultats à l’échelle atomique. Il est cependant utile de l’employer dans une simulation à multiple échelles.

C) Méthode de Monte-Carlo

L’algorithme de Metropolis, expliqué ci-dessus, est aussi une méthode très utilisée dans les simulations atomistiques. Son avantage sur les autres est qu’il est aussi imprévisible que la nature elle-même. En effet, la plupart des autres méthodes de simulation fonctionne pour une situation donnée, il faut donc refaire plusieurs simulations pour des cas différents. La méthode de Monte-Carlo fonctionne dans l’autre sens. On ne peut pas prévoir réellement la situation, et si l’on désire les résultats d’une situation précise, il faudra le refaire jusqu’à ce que cela corresponde.

Nicholas Constantine Metropolis

Les seuls problèmes de cet algorithme et la possible durée de celui-ci et sa correspondance temporelle. En effet, il fonctionne selon des tirages aléatoires, en ce cas, il peut y avoir une suite extrêmement longue de rejets successifs comme une suite de tirage tous validés. Ce côté imprévisible est donc à double tranchant. Quant à l’autre problème, il vient du fait que l’algorithme ne fonctionne pas selon une base temporelle réaliste, mais selon un nombre de tirage. En conséquence, si la simulation a pour but de représenter une action à travers le temps ou que pour une raison particulière, le temps est un résultat important, cette méthode s’invalide d’elle-même.

 

 

 

Le principe de cette méthode de simulation est assez simple en soi : La première étape est de réaliser une chaine de Markov. A partir de cette dernière chaine, l’algorithme calcul l’énergie du système dans son premier état. C’est le seul état fixe puisqu’il faut une base pour ensuite faire les tirages suivants. Par la suite, le programme procède à des tirages aléatoires pour faire évoluer le système vers un nouvel état. Par la suite, il calcul de la même façon l’énergie du système dans ce nouvel état possible. La phase la plus importante entre alors en jeu : le test d’acceptabilité. Si la nouvelle énergie est plus faible ou égale à l’énergie actuelle, le test est accepté. Ce fait là est induit par le second principe de la thermodynamique : l’entropie d’un système, c’est-à-dire le fait qu’il se dégrade ou perde de l’énergie, est soit constante, soit en hausse. Et dans tous les systèmes, l’entropie ne peut rester constante indéfiniment. Cependant, ce cas-là n’est valide que si aucune intervention extérieure n’a lieu. Or il est possible que le milieu dans lequel se trouve le sujet de la simulation soit affecté par une entité extérieure. L’algorithme de Metropolis palie à cela en effectuant un second test en cas de refus du premier, c’est-à-dire si la nouvelle énergie calculée est supérieure à l’énergie actuelle du système : le programme tire un nombre aléatoire entre zéro et un. Si l’énergie calculée est inférieure au nombre tiré, le nouvel état est rejeté, s’il est supérieur, le nouvel état est accepté, le système l’adopte, ressence les variables pour les intégrer dans le calcul et recommence du début, tirant de nouveaux états.

Simulation par la méthode Monte-Carlo

Il existe une variante, assez différente, de la méthode de Metropolis : la simulation de Monte-Carlo cinétique. Dans cette méthode, il faut connaître l’état de départ et les états d’arrivée possible. De plus, il faut connaître les taux de transfert entre les différents états permettant de parcourir tout le chemin. L’avantage principal de cet algorithme est que, contrairement à la simple méthode de Monte-Carlo, les temps calculés correspondent aux temps expérimentaux.

Méthode Monte-Carlo Cinétique

Lorsque l’on se penche dessus, on remarque qu’elle est en fait l’inverse de sa mère tout en lui étant complémentaire : peu gourmande en temps de calcul vu que la plupart des paramètres sont entrés à l’avance, elle s’occupe de calculer le temps, temps non représenté dans la méthode de Monte-Carlo.

Conclusion

La simulation atomistique est donc devenue indispensable aussi rapidement qu’elle est apparue. De nos jours, elle est utilisée dans la quasi-totalité des domaines, que ce soit en médecine comme dans les matériaux. Ce type de simulation permet de prévoir des problèmes qui pourraient être invisibles à l’œil nu ou de prévoir des phénomènes à l’avance, la précision des calculs augmentant la fiabilité de la prédiction en plus du temps possiblement calculé. De nos jours, la totalité des voitures, des avions et de tous les autres véhicules subissent ce genre de tests pour s’assurer d’être les plus fiables possibles. De plus, les études des nanomatériaux dépendent directement de ces simulations, vitales en raison de la difficulté voire de l’impossibilité à effectuer des tests sur ces derniers.

De plus, les moyens de calcul se sont répandus à une vitesse folle, permettant de faire baisser les couts de ceux-ci de manière drastique et donc, pour le même budget, d’augmenter les calculs et la précision réalisés. De plus, grâce aux moyens de communication comme Internet, les algorithmes des simulations peuvent être communiqués, permettant une avancée plus rapide dans la recherche. Si en cinquante ans, la simulation atomistique a vu le jour et est devenue indispensable, il est possible de se demander à quel point elle deviendra importante dans le double de ce temps, ou obsolète.

Bibliographie

Histoire de l’atome :

https://fr.wikipedia.org/wiki/Atome#Histoire_du_concept_d'atome

http://sciencesphysiques.e-monsite.com/pages/histoire-de-l-atome.html

http://thierry.col2.free.fr/restreint/exovideo_lycee/TP_seconde/tp_univers_atome_historique_act_doc.htm

Simulation informatique :

https://fr.wikipedia.org/wiki/MANIAC

https://fr.wikipedia.org/wiki/Simulation_informatique#Histoire

https://www.lptmc.jussieu.fr/user/viot/COURS/viot.pdf

https://www.futura-sciences.com/sciences/definitions/matiere-experience-fermi-pasta-ulam-tsingou-16372/

Simulation atomistique :

https://www.google.fr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&ved=0ahUKEwjG8Z35z77YAhUkC8AKHaTtD9QQFggzMAE&url=http%3A%2F%2Feduscol.education.fr%2Fsti%2Fsites%2Feduscol.education.fr.sti%2Ffiles%2Fressources%2Fpedagogiques%2F8564%2F8564-la-simulation-multi-echelle-ensps.docx&usg=AOvVaw2-ORyOvDV0cAY4pzVmqgQr

https://fr.wikipedia.org/wiki/Simulation_atomistique#M%C3%A9thode_de_Monte-Carlo

https://fr.wikipedia.org/wiki/M%C3%A9thode_de_Monte-Carlo

https://fr.wikipedia.org/wiki/Algorithme_de_Metropolis-Hastings

https://fr.wikipedia.org/wiki/Cha%C3%AEne_de_Markov

http://flegrand.fr/scidoc/docimg/sciphys/physistat/metropolis/metropolis.html

Méthode Ab Initio :

https://fr.wikipedia.org/wiki/Th%C3%A9orie_de_la_fonctionnelle_de_la_densit%C3%A9#Approximations

https://fr.wikipedia.org/wiki/M%C3%A9thode_de_Hartree%E2%80%93Fock

https://fr.wikipedia.org/wiki/M%C3%A9thode_ab_initio_de_chimie_quantique

https://fr.wikipedia.org/wiki/Approximation_de_Born-Oppenheimer#Principe

https://tel.archives-ouvertes.fr/tel-00178652/file/these_pg_finale.pdf

Méthode Dynamique Moléculaire :

http://lism.cnrs-mrs.fr/JS_files/Page_JP/Biomolec/DM5DynTheo.pdf

https://fr.wikipedia.org/wiki/Dynamique_mol%C3%A9culaire

Méthode Monte-Carlo :

https://fr.wikipedia.org/wiki/M%C3%A9thode_de_Monte-Carlo_cin%C3%A9tique

https://fr.wikipedia.org/wiki/Thermodynamique

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *