Biology 2020, 9(9), 299
Patrick AmarLe nombre de reproduction de base R0 nous indique le nombre moyen de nouvelles infections causées par un individu infectieux et décrit la croissance exponentielle de l'épidémie [5]. Si R0 est supérieur à 1, l'épidémie se propagera; sinon, quand R0 est inférieur à 1, la maladie disparaîtra progressivement [6]. Par rapport au R0 de H1N1 (1,25) [7] le nombre de reproduction de Covid-19 indique une transmission potentielle terrible. Le R0 a été estimé à 2,2 [8], 3,8 [9] et 2,68 [10, 11] par de nombreuses sources de recherche différentes dans le monde. L'Organisation mondiale de la santé (OMS) a publié une estimation R0 de 1,4 à 2,5 [12].
De nombreuses approches ont déjà été utilisées pour modéliser l'épidémie de Covid-19 à l'aide de modèles de compartiments et d'équations différentielles ordinaires déterministes (EDO) [13, 14] ainsi que pour estimer les effets des mesures de lutte sur la dynamique de l'épidémie [15]. Ces approches particulières donnent de bons résultats, mais elles ne prennent pas en compte la nature stochastique ou les aspects spatiaux du mécanisme de propagation. Cependant, les équations différentielles stochastiques (EDS) ont été utilisées avec succès pour s'attaquer aux aspects stochastiques de la propagation épidémique [16, 17, 18, 19]. Plus récemment, des modèles épidémiques multirégionaux utilisant des modèles discrets et continus, prenant en compte l'efficacité du contrôle des mouvements ont été publiés [20, 21], ainsi que des modèles EDS multirégionaux [22]. Des modèles stochastiques basés sur l'épidémiologie économique ont été appliqués à l'épidémie de Covid-19, par exemple en Corée du Sud, pour déterminer le stock optimal de vaccins et l'efficacité de la distanciation sociale [23]. Des approches utilisant des systèmes basés sur des agents ont également été utilisées pour modéliser à la fois les caractéristiques stochastiques et spatiales de la propagation épidémique [24, 25]. Dans les méthodes basées sur des agents, le nombre d'instructions machine nécessaires pour chaque pas de temps, par rapport à la taille des données (complexité algorithmique), est au mieux proportionnel au nombre d'agents. Ceux qui utilisent un agent par individu peuvent avoir besoin d'une puissance de calcul élevée lorsqu'ils sont utilisés sur de grandes populations. Ces approches sont souvent appliquées à des zones plus petites (villes principalement) que l'ensemble du pays, et / ou utilisent un agent pour modéliser un ensemble d'individus (100 dans [24]).
Les méthodes centrées sur la population ont une complexité algorithmique qui ne dépend pas de la taille de la population, mais du nombre de règles considérées à chaque itération (par exemple, le nombre de réactions pour les systèmes de biochimie). Lorsqu'elles sont utilisées sur de grandes populations, ces méthodes sont beaucoup plus efficaces que les méthodes centrées sur l'entité, mais elles ne prennent pas en compte la localisation spatiale. Nous avons adopté ici un modèle hybride dérivé de la méthode des sous-volumes qui ajoute des capacités de localisation spatiale à gros grains à l'algorithme de simulation stochastique standard (ASS) utilisé, par exemple, dans le domaine de la biochimie. Pour augmenter l'efficacité du calcul, nous avons également utilisé une variante originale [26] de l'algorithme de Gillespie avec saute-tau [27, 28] qui adapte automatiquement la proportion d'aléa par rapport au calcul moyen, à chaque pas de temps. Notre implémentation nous permet de passer facilement de cette variante stochastique de ASS à un solveur continu déterministe (SCD), et donc de comparer les deux méthodes.
Pour tester notre approche, nous l'avons appliquée à l'épidémie de SRAS-CoV-2 en France où des données pertinentes [29, 30] ont été mises à disposition pendant toute la durée de l'épidémie. La plupart des paramètres de simulation que nous avons utilisés ont été obtenus à partir de statistiques rassemblées dans la littérature, comme la proportion de cas nécessitant une hospitalisation et la proportion de formes sévères parmi eux [31, 32] nécessitant des lits en USI (unité de soins intensifs). Le nombre d'individus infectieux et leurs localisations au début de l'épidémie ont été déduits des données statistiques mises à disposition par le gouvernement français et de la littérature [33, 34, 35]. Nous avons utilisé notre outil de simulation pour vérifier les effets des mesures de contrôle sur la dynamique de l'épidémie et comparé les résultats aux données statistiques réelles. Nous avons centré notre étude des impacts de l'épidémie uniquement sur la partie de la population qui se déplace au quotidien: travailleurs, élèves, étudiants, retraités, etc. Les personnes en maison de retraite n'étaient pas prises en compte car leur environnement et leur mode de vie sont très différents.
À partir d'un état initial connu, nous avons voulu calculer un échantillon stochastique de l'évolution dans le temps du nombre de personnes à chaque état de la maladie. Une transition entre de tels états est souvent décrite par un ensemble de règles probabilistes, ou par un automate stochastique. La propagation de l'épidémie peut être modélisée comme un processus markovien en ce sens que le nombre de personnes dans chaque état au temps t+Δt ne dépend que des nombres au temps t (et d'autres variables qui ne dépendent pas de t). Dans la plupart des cas, il n'est pas possible de trouver une solution analytique qui donne ces nombres en fonction du temps. Heureusement, il existe des méthodes numériques itératives. L'une d'elles est l'algorithme de Gillespie, fréquemment utilisé pour trouver les évolutions des quantités d'espèces chimiques S(t) = {s1(t), …,sn(t) } qui peuvent réagir selon les règles chimiques R = {r1, …,rm} et leur cinétique K= {k1, …,km}. À partir de la valeur initiale S(0) des n espèces, l'algorithme calcule les valeurs au temps t > 0 en répétant le processus suivant:
Cet algorithme donne une trajectoire stochastique exacte du système, mais peut être lent lorsque certaines réactions sont rapides. Ces réactions rapides seront souvent déclenchées, de sorte que l'incrément de temps à chaque itération sera petit et le nombre d'itérations par seconde élevé. Pour diminuer le temps de calcul, la méthode saute-tau utilise un pas de temps fixe, τ. A chaque itération, le nombre de fois où chaque réaction est déclenchée pendant l'intervalle de temps τ est estimée stochastiquement sur la base des quantités au temps t . Cette méthode donne une approximation de la trajectoire stochastique du système, qui est précise si τ est petit. La valeur de τ doit être choisie suffisamment grande pour minimiser le nombre d'itérations par seconde, mais pas trop grand pour obtenir une bonne précision. L'algorithme utilisé dans Pandæsim, une variante de la méthode Gillespie saute-tau, est détaillé à la fin de cette section.
Les méthodes centrées sur la population telles que celles présentées ici partagent la même contrainte: les entités évoluant dans l'environnement sont considérées comme réparties de manière homogène dans l'environnement. En d'autres termes, la localisation spatiale n'est pas prise en compte. Les approches centrées sur l'entité, qui calculent le comportement de chaque individu à chaque pas de temps, prennent en compte la localisation spatiale de chaque individu, mais nécessitent beaucoup plus de puissance de calcul. Pour ajouter une localisation spatiale à grain grossier à notre modèle, nous avons partitionné le territoire en sous-régions où un exemple d'ASS centré sur la population est exécutée. Ces exemples utilisent le même pas de temps et sont synchronisées. Les interactions entre les sous-régions sont modélisées en prenant des échantillons stochastiques d'individus qui voyagent entre les sous-régions. Cela se fait à une échelle de temps plus élevée car de tels déplacements sont moins fréquents que les déplacements à l'intérieur de la sous-région d'origine. La plupart des personnes qui voyagent retournent dans leur sous-région d'origine après une période de temps variable. Ainsi, la population de chaque sous-région reste à peu près la même, bien que les gens entrent et sortent de la sous-région. Si cela n'est pas pris en compte dans le modèle, la population de chaque sous-région peut avoir tendance à devenir la même avec le temps. Nous décrivons dans la section suivante comment cette contrainte est implémentée dans notre modèle.
Le territoire étudié est divisé en deux niveaux d'organisation géographique: région et sous-région. Une région contient au moins deux sous-régions, une sous-région n'appartient qu'à une seule région et tout le territoire est couvert (partition). Dans notre étude de cas, la France, le premier niveau est la région administrative, chacune contenant de deux à une douzaine de départements. La France compte 13 régions et 96 départements. Bien entendu, cela peut s'appliquer à n'importe quelle partition d'un territoire. Par exemple, en Angleterre, nous pourrions utiliser les neuf régions pour le premier niveau et les 46 comtés cérémoniels et le Grand Londres pour le deuxième niveau.
La population est divisée en quatre tranches d'âge: 0 à 25 ans, 26 à 50 ans, 51 à 75 ans et plus de 76 ans [36, 37, 38]. Chacune de ces quatre sous-populations a ses propres valeurs pour les paramètres de population (immunité aux infections, taux de déplacement, etc.). Nous avons utilisé un exemple d'un processus de simulation centré sur la population pour chaque sous-région, avec un pas de temps d'une heure. La simulation du niveau supérieur (région) utilise un pas de temps plus grand, un jour, et traite principalement les personnes qui se rendent dans une autre sous-région. Ainsi, la répartition de la population est supposée homogène à l'intérieur de chaque sous-région, mais peut être hétérogène au niveau de la région et donc au niveau de l'ensemble du territoire. Selon l'âge, et à l'exception des personnes malades ou hospitalisées, chaque jour, les personnes ont la probabilité de se déplacer de leur domicile vers un autre lieu appartenant soit à la même sous-région (déplacements locaux), soit à une autre région (déplacements éloignés). Ces probabilités font partie des paramètres de population mentionnés précédemment. Bien entendu, les mesures de contrôle de type quarantaine interdisent tout type de déplacement local ou éloigné; les gens doivent rester dans leurs sous-régions respectives.
Le nombre de personnes de chaque tranche d'âge quittant leur sous-région d'origine est un échantillon stochastique (ou valeur moyenne pour le solveur continu déterministe) d'un pourcentage de la population de cette sous-région. Pour les déplacements locaux, ils sont dispersés en fonction de la population relative de chaque sous-région appartenant à leur région. Les sous-régions les plus peuplées attirent davantage de voyageurs. Pour les voyages à distance, les gens vont de leur région d'origine aux sous-régions les plus peuplées des autres régions, où se trouvent les aéroports et les gares. La même méthode est utilisée pour répartir les voyageurs en fonction des populations relatives de leurs sous-régions de destination. Cette façon de calculer combien d'individus voyagent et où ils vont est un moyen simple de maintenir constante la densité de population de chaque sous-région.
Le modèle centré sur la population de sous-région est une variante du modèle sensible, exposé, infectieux et retiré largement utilisé. Nous avons ajouté deux états: hospitalisé et décédé. Les états exposés et infectieux ont des significations légèrement différentes dans notre modèle; ils ont été renommés asymptomatiques et malades (Figure 1). Contrairement aux personnes malades, qui présentent des symptômes de la maladie, les personnes récemment infectées sont des hôtes asymptomatiques, mais les deux sont infectieuses. Les patients hospitalisés sont également contagieux, mais dans une moindre mesure parce qu'ils sont confinés à l'intérieur de l'hôpital. Les trois flèches en pointillés rouges sur la figure indiquent les sources et cibles potentielles de l'infection. Nous avons supposé que les personnes en état de guérison sont immunisées contre le virus et ne peuvent donc pas être réinfectées [39].
Une période d'incubation d'environ cinq à six jours avant l'apparition des premiers symptômes a été observée [40, 41]. En conséquence, dans notre modèle, les personnes asymptomatiques sont subdivisées en six sous-catégories selon le nombre de jours depuis la contamination. Une grande majorité des cas, environ 80%, présentent une forme bénigne de la maladie qui n'est probablement même pas signalée. Les autres cas nécessitent une hospitalisation, et parmi eux, de 5% [31] à plus de 15% [32] présentent des formes sévères dans lesquelles les patients doivent être admis en USI. La durée de la maladie, après la période d'incubation, dépend de l'âge du patient et de la gravité de la forme de la maladie. Dans notre modèle, il a été fixé à un maximum de 15 jours, et nous avons donc subdivisé les personnes malades (resp. Hospitalisées) en 15 sous-catégories au plus en fonction du nombre de jours depuis l'apparition des premiers symptômes (resp. hospitalisation). Les personnes atteintes d'infections légères se rétablissent après une période de temps variable stochastiquement (7 à 15 jours) qui dépend de leur âge. La forme sévère de la maladie est (stochastiquement) létale selon un taux variant également avec l'âge du patient. Le solveur déterministe utilise des valeurs moyennes fixes. Tous ces taux, probabilités et durées moyennes sont des paramètres du modèle.
Comme mentionné précédemment, l'algorithme de simulation utilise un pas de temps d'une heure. Il calcule principalement de manière stochastique le vecteur d'état: V(t) = { S(t), E1(t), … E5(t), i1(t), … i15(t), H1(t), … H15(t), R(t), D(t) }, c'est-à-dire le nombre de personnes dans chaque état et sous-catégorie, à chaque pas de temps. Il existe quatre vecteurs d'état, un pour chaque tranche d'âge. Bien entendu, ces quatre vecteurs ne sont pas indépendants puisque quel que soit leur âge, les personnes contagieuses peuvent infecter des personnes sensibles quel que soit leur âge. Fondamentalement, à partir de la valeur du vecteur d'état au temps t, le processus calcule la nouvelle valeur du vecteur d'état au temps t + τ (ici τ = 1h). Ainsi, à partir d'une valeur initiale connue du vecteur d'état au temps t = 0, nous pouvons obtenir sa valeur à tout moment (t =tfin) > 0 en répétant ce processus jusqu'à ce que tfin soit atteint, ou jusqu'à ce qu'une valeur spécifique du vecteur d'état soit atteinte. Pandæsim arrête automatiquement la simulation lorsqu'il n'y a plus de personnes infectieuses.
Notre modèle suppose que les gens ont des routines quotidiennes uniformes. Sans mesures spécifiques, l'horaire quotidien commence à 8 heures du matin pour le travail (ou école, université, etc.) avec l'utilisation des transports en commun pendant une heure. Vient ensuite rester au travail trois heures, suivi d'une pause de deux heures à midi, quatre heures l'après-midi au travail, une autre heure dans les transports en commun pour rentrer à la maison et les 13 heures restantes à la maison. Nous avons défini quatre environnements possibles, chacun ayant sa probabilité de contagion: domicile, transports en commun, lieu de travail et restaurant. Ces paramètres ont des valeurs par défaut qui reflètent les concentrations locales de personnes: très faible à la maison, plus élevée au travail et au restaurant et beaucoup plus élevée dans les transports en commun. Pour réduire le nombre de paramètres, nous avons utilisé la même valeur pour le lieu de travail et le restaurant.
De nombreux types de mesures peuvent être utilisés pour ralentir la propagation de l'épidémie; nous avons mis en œuvre deux exemples de telles mesures:
À partir d'un état initial (nombre de personnes contagieuses dans chaque sous-région), l'algorithme de simulation itère le processus suivant à chaque pas de temps jusqu'à ce que l'épidémie se termine ou que la durée maximale de la simulation soit atteinte (par défaut à 720 jours).
Irt(t) = Gdri(t) Linf(t). (1)
AvNewasympt[age](t) = populationsusceptible[age](t) Iir(t) (2)
Le solveur discret stochastique (SDS) calcule des nombres entiers stochastiques de telle sorte que, sur le long terme, ils atteindront les mêmes valeurs que le solveur continu. Même lorsque la population est un nombre entier d'individus, ce produit, AvNewasympt, est généralement un nombre à virgule flottante car le taux d'infection est lui-même un nombre à virgule flottante. Ce nombre a une partie entière (≥0) et une partie fractionnaire (entre 0 et 1). Le nombre (discret) de nouveaux hôtes asymptomatiques est alors calculé comme la partie entière du nombre moyen, plus 1 si un nombre aléatoire uniforme pris dans l'intervalle [0…1] est en dessous de la partie fractionnaire: Newasympt[age](t) = ⌊ AvNewasympt[age](t) ⌋ + 1 si rnd ≤ Frac(AvNewasympt[age](t))
0 autrement (3)
Nous avons appliqué notre outil de simulation à l'épidémie de SRAS-CoV-2 en France. Nous avons utilisé les partitions de région et de département du pays pour les régions et sous-régions de notre modèle. La plupart des paramètres que nous avons utilisés sont issus de la littérature et des données statistiques mises à disposition par le gouvernement français. Quelques autres ont été obtenus empiriquement, principalement le nombre de personnes contagieuses dans chaque région au début des simulations, et la constante de propagation du SRAS-CoV-2. Les valeurs par âge du pourcentage de létalité [42], de la durée de la maladie et du pourcentage de voyageurs locaux et éloignés sont présentées sur le tableau A2, les différents taux de contamination sur le tableau A3 et le nombre initial de personnes contagieuses dans chaque département dans le tableau A1 à l'annexe A.
Afin de tester notre algorithme centré sur la population, nous avons d'abord effectué des simulations sans contre-mesures et sans possibilité de déplacement, local ou distant. Ces simulations ont été exécutées en utilisant successivement le solveur discret stochastique et le solveur continu déterministe. Lorsque le nombre initial de personnes contagieuses était relativement élevé, par exemple, dans la sous-région du Val-de-Marne (180), les résultats pour les deux solveurs étaient presque identiques: 5207 décès pour la moyenne de 1000 simulations stochastiques et 5204 décès pour une simulation déterministe (Figure 2 et Figure 3). L'écart type pour ces 1000 essais est passé de ≈2 au début des simulations (avec quelques dizaines de décès) à ≈41 au pic de l'infection (quelques milliers de décès), puis ≈5 à la fin. Les mêmes types de résultats sont apparus pour les personnes malades avec la valeur maximale de l'écart type de ≈2300 atteint au 90e jour, avec 137 381 personnes malades.
En revanche, lorsque le nombre initial de personnes contagieuses était faible, comme dans le Loiret (2), le SCD n'a pas trouvé de décès, alors que 1000 essais du SDS ont montré deux comportements distincts; 127 de ces essais ont montré les mêmes résultats que le SCD, aucun décès à la fin de l'épidémie. Les 873 autres essais ont pris une autre direction menant à 4499 décès en moyenne avec un écart type de ≈264 (figure 4). Les raisons de cette apparente incohérence seront expliquées dans la section discussion.
En utilisant la contre-mesure appliquée en France (confinement), les simulations nous ont montré rétrospectivement que la date probable à laquelle il y avait un total de 897 personnes contagieuses en France (début des simulations) était approximativement fin janvier 2020. Ceci est en corrélation avec la période de temps lorsque la première personne décédée a été signalée (24 janvier). La vue de la fenêtre principale de Pandaæsim représentée sur la figure 5 montre le nombre réel de personnes décédées dans chaque département. La carte illustrée à la figure 6 affiche les valeurs moyennes de 500 exécutions d'une simulation stochastique. Les résultats globaux sont très proches, 19 877 pour les statistiques réelles et 19 764 pour la valeur moyenne des simulations. Les résultats département par département sont également assez proches, sauf pour quelques départements, mais les ordres de grandeur sont plus ou moins identiques.
Pour déterminer s'il existe une forme de convergence des trajectoires stochastiques vers des valeurs moyennes, nous avons effectué des centaines de simulations et calculé la valeur moyenne du nombre de décès (et des autres états) à chaque pas de temps, dans chaque département. Les résultats n'ont montré aucune valeur limite unique, mais les moyennes obtenues avec de nombreux essais sont restées dans une plage de valeurs proches des statistiques réelles.
Nous avons également exécuté Pandaæsim en utilisant le solveur continu déterministe avec les mêmes paramètres. Les résultats ont été complètement différents: l'épidémie n'a duré que 100 jours (2 à 3 semaines de moins) et a rapporté 7568 décès (figure 7), loin des 19764 obtenus avec les simulations stochastiques. Les résultats département par département sont également très différents, plus de la moitié des départements ne présentant aucun décès. Là encore, les raisons probables de ce comportement incohérent sont proposées dans la section suivante.
Nous avons développé un modèle hybride et un programme de simulation dérivé de modèles standards et de techniques de simulation largement utilisés dans les domaines de la propagation épidémique et de la biochimie. Notre approche a utilisé une variante originale de l'ASS de Gillespie avec tau-saut, où l'algorithme interne peut être facilement commuté du discret stochastique au continu déterministe. Cela nous a permis de comparer ces deux méthodes de simulation. Pour tester notre approche, nous l'avons appliquée à l'épidémie de SRAS-CoV-2 en France, pour laquelle des données pertinentes étaient disponibles.
Nous avons également testé les conséquences et l'efficacité de la contre-mesure de confinement appliquée en France pendant 55 jours. Afin de gagner en localisation spatiale mais avec un algorithme efficace centré sur la population où la population était supposée être homogène, nous avons partitionné le territoire en unités relativement petites pour lesquelles un exemple de la simulation centrée sur la population a été exécutée. Les mouvements de populations entre ces unités ont été pris en compte à une échelle plus élevée, avec un pas de temps plus grand.
Nous avons d'abord testé un exemple de notre algorithme centré sur la population, où aucune contre-mesure n'a été utilisée. En utilisant chaque méthode (SDS et SCD) avec les mêmes valeurs de paramètres, nous avons comparé les résultats dans deux situations différentes: (i) avec un nombre modérément élevé, et (ii) avec un nombre très faible de personnes initialement contagieuses. Lorsque les chiffres étaient relativement élevés, les résultats des deux méthodes étaient très similaires. Cela n'était pas surprenant car à chaque pas de temps la valeur absolue de l'incrément calculé par chaque méthode doit être significativement supérieure à 1, et l'arrondi stochastique à l'entier inférieur ou supérieur ne peut pas être relativement très éloigné de la valeur en virgule flottante calculée par la méthode continue . Cependant, lorsque les nombres sont faibles, la valeur absolue ajoutée au prochain pas de temps n'est qu'un peu supérieure à 0, et donc l'arrondi stochastique à 0 ou à 1 change radicalement la trajectoire future. Ceci est particulièrement important dans ce cas précis où les populations connaissent une croissance exponentielle. Cela peut ressembler à un comportement chaotique car une petite différence dans les conditions initiales peut conduire à des futurs très différents, mais lorsque les chiffres augmentent, l'importance de cet effet de changement est atténuée.
Nous avons utilisé de nombreux lots de simulations avec au départ seulement deux individus contagieux dans la sous-région. Les résultats de 100, 200, 500 et 1000 simulations ont montré à peu près les mêmes proportions de cas, ≈12%, se terminant sans aucun décès, tandis que le reste du lot a convergé vers environ 4500 décès. Le même modèle utilisant le SCD ne montre aucun décès. Nous pensons que ce comportement est une conséquence d'une bifurcation due à la non-linéarité élevée du système. Lorsque le nombre d'individus contagieux est inférieur à un certain seuil, la contagion a tendance à s'estomper, mais si ce nombre dépasse le seuil, il y a une sorte de rétroaction positive qui l'augmente jusqu'à ce qu'une partie suffisamment importante de la population totale soit éliminée. Si nous supposons que le nombre initial d'individus contagieux dans notre exemple (2) est inférieur au seuil, le résultat affiché par le SCD est donc correct. En raison à la fois de ses incréments discrets et de son comportement stochastique, le SDS peut parfois calculer une trajectoire qui dépasse le seuil et bascule dans l'autre sens.
Afin d'approfondir l'étude de ce phénomène de bifurcation, nous avons tenté de trouver la valeur approximative du seuil. Nous avons d'abord utilisé le SCD avec le nombre initial d'individus contagieux variant de 1 à 20. Aucun décès n'a été trouvé jusqu'à 15; puis 38 décès de 16 à 18; et 4508 décès pour 19 ans et plus. Ensuite, nous avons fait les mêmes tests avec 200 simulations SDS, en comptant le nombre de simulations menant à zéro décès, et dans l'autre cas, le nombre moyen de décès. Avec au départ 1 à 5 individus contagieux, le nombre de simulations sans décès est passé de 70 à 2; avec six individus et plus initialement contagieux, plus aucune simulation ne conduit à zéro décès. Pour toutes les simulations ne conduisant pas à zéro décès, le nombre moyen de décès était de ≈4514. Le seuil pour le SDS est quelque part en dessous de 5. Comme prévu, cette valeur est très faible.
Ensuite, nous avons testé l'ensemble du simulateur avec tous les processus centrés sur la population, fonctionnant indépendamment pendant 24 pas dans chaque sous-région, puis synchronisés en échangeant une partie de chaque population de manière stochastique ou déterministe. Encore une fois, selon le type de solveur choisi et pour les raisons évoquées précédemment, les résultats étaient différents mais pas trop. Le nombre de personnes voyageant d'une sous-région donnée étant une (petite) fraction de la population totale de cette sous-région, les conséquences en termes de propagation de l'infection sont très dépendantes de la valeur elle-même: inférieure à 1, elle est amplifiée par le traitement stochastique, ou bien lissée avec le calcul continu.
Les résultats globaux et les résultats locaux des sous-régions se sont avérés très similaires en utilisant les deux méthodes. Cela peut s'expliquer par le fait que les sous-régions à faible population contagieuse initiale «bénéficient» de la migration de personnes contagieuses en provenance de sous-régions plus peuplées, et comme aucune contre-mesure n'est appliquée, le nombre de personnes contagieuses augmente rapidement au-dessus du seuil. La principale différence apparaît dans la forme des courbes globales: le solveur déterministe a montré une plus grande dépendance à l'effet de propagation (Figure 8). Étant donné que les sous-régions de dates avaient leurs pics de contamination étaient très différentes, l'effet de propagation était plus lent.
Bien que le nombre global de décès soit sensiblement le même (379 336 pour le SCD, 383 454 pour le SDS), la pente de la courbe obtenue avec le SDS est plus raide que celle obtenue avec le SCD (Figure 9). Cela peut être expliqué par la séquentialité relative des pics d'infection montrés par le solveur continu, alors qu'avec le solveur stochastique, tous les pics sont presque simultanés et donc le résultat est plus élevé.
Pour notre dernier test, nous avons paramétré le simulateur avec l'équivalent de la contre-mesure de confinement utilisée en France. L'effet de cette contre-mesure était de diminuer le nombre de personnes contagieuses, et alors que le SDS donnait des résultats qui correspondent aux statistiques réelles (Figure 5), le SCD n'a pas bien fonctionné principalement parce que le nombre initial de personnes contagieuses était trop faible pour être pris en compte (Figure 7). Plus de la moitié des départements n'ont fait état d'aucun décès et le nombre total de décès a donc été largement sous-estimé. Nous supposons que si nous partons d'un état initial où il y a suffisamment de personnes contagieuses dans la plupart des sous-régions, il est très probable que le SCD produira des résultats fiables.
Cette étude nous a permis de comparer deux méthodes différentes pour obtenir la trajectoire d'un système complexe. Au début, nous étions convaincus qu'ils donneraient des résultats très similaires, mais les faits nous ont prouvé que nous avions tort. Les raisons qui ont causé l'incohérence du comportement de l'algorithme discret stochastique d'une part et de l'algorithme continu déterministe d'autre part, nous amènent à être plus confiants dans l'approche stochastique pour la simulation de ce modèle de propagation épidémique particulier. Plus généralement, avec ce type de modèle, une phase de croissance exponentielle est très sensible à toute variation, même minime, des valeurs initiales, et aux artefacts, ou erreurs de calcul, et peut donc parfois présenter des comportements chaotiques.
Néanmoins, cette approche hybride, mélange d'un processus efficace centré sur la population jouant le rôle d'agent dans un système multi-agents, semble très prometteuse. Les résultats des simulations stochastiques étaient très similaires aux statistiques réelles recueillies à partir des données hospitalières. Les travaux futurs pourraient inclure des améliorations au simulateur telles que la mise en œuvre d'autres types de contre-mesures, l'utilisation de méthodes plus précises pour modéliser le comportement des individus et l'utilisation de différents types de sous-régions pour refléter leur diversité. Dans cette étude, nous n'avons supposé aucune réinfection possible, de sorte que l'épidémie s'est effectivement arrêtée après un certain temps. Bien que simplifiant le modèle, cette hypothèse interdit la possibilité de modéliser d'autres vagues d'infection. Des publications récentes ont discuté des conséquences de différents scénarios de transmission,43]. Une perspective intéressante serait d'inclure dans notre modèle une probabilité de réinfection afin de tester l'efficacité des contre-mesures.
Cette recherche n'a reçu aucun financement externe.
Un grand merci à Martin Davy de Sys2Diag, pour la première version de la boîte de dialogue des paramètres et la collecte d'informations sur le SARS-CoV-2.
Les auteurs ne déclarent aucun conflit d'intérêt.
Les abréviations suivantes sont utilisées dans ce manuscrit:
USI Unité de soins intensifs
ASS Algorithme de simulation stochastique
EDO Équations différentielles ordinaires
EDS Equations différentielles stochastiques
OMS Organisation Mondiale de la Santé
SCD Solveur continu déterministe
SDS Solveur discret stochastique
Valeurs par âge du pourcentage de létalité (extrapolées à partir de [42]), de la durée de la maladie et du pourcentage de voyageurs locaux et éloignés (tableau A2).
Taux de contamination selon la localisation, pourcentage de patients hospitalisés pouvant infecter des personnes en voie de guérison et proportion de forme sévère de la maladie (tableau A3)