Ressource
Enseignement supérieur . TIPE . enjeux sociétaux
Enjeux sociétaux, c’est le sujet du TIPE 2020-2021
© Inria / Photo C. Morel
TIPE ? Comme tous les ans, en lien avec sillages.info et l’UPS pour les CGPE, Interstices et Pixees vous proposent des ressources autour des sciences du numérique, informatique et mathématiques :
Introduction Environnement Energie Sécurité
Le thème pour l’année 2020-2021 du TIPE commun aux filières BCPST, MP, PC, PSI, PT, TB, TPC et TSI est intitulé : enjeux sociétaux.
Ce thème pourra être décliné sur les champs suivants : environnement, sécurité, énergie.
———————————-
A l’heure où ces lignes sont écrites, une partie de l’humanité est confinée pour maîtriser la propagation de l’épidémie de coronavirus Covid-19. Cette crise sanitaire exceptionnelle en désagrégeant nos vies et nos organisations, a relativisé l’importance de nombreuses questions et a bousculé de nombreuses croyances.
Bien malin qui peut décrire les conséquences de long terme de cette épidémie.
Bien sur les rumeurs et les fausses informations sont toujours bien présentes mais une idée a retrouvé une place centrale dans le débat public : la science. En cherchant à partir d’observations et de raisonnements rigoureux à construire des connaissances, la science permet de comprendre, d’expliquer mais aussi d’anticiper et parfois de prédire.
Et aujourd’hui, les sciences du numérique (modélisation, simulation, communication, information…) ont un rôle capital.
Les thématiques abordées ci-dessous sont majeures : risques naturels, énergies, sécurité informatique, sobriété numérique avec souvent des sujets reliant science et société. C’est l’occasion pour vous d’exercer vos connaissances, votre curiosité, votre capacité de synthèse. L’objectif n’est pas tant de résoudre l’une de ces questions que d’y donner un éclairage personnel et scientifique.
Chacune des problématiques décrites ci-dessous ne constitue pas exactement un sujet de TIPE mais plutôt un thème duquel vous pourrez extraire votre sujet. Le TIPE s’articule souvent autour de la trilogie théorie / expérience / programme, les recherches décrites ici portent sur les sciences du numérique, l’expérimentation numérique y a une grande place.
Même si, suite à l’épidémie de coronavirus Covid-19, les destructions ne sont pas matérielles, beaucoup est à refonder, à rebâtir.
Et vous qui êtes étudiantes et étudiants de filières scientifiques, votre rôle sera prépondérant. Pour conclure cette brève présentation et insister à nouveau sur l’importance de la science, je rappellerai l’article 9 de la charte de l’environnement (texte à valeur constitutionnelle) : « La recherche et l’innovation doivent apporter leur concours à la préservation et à la mise en valeur de l’environnement. »
Jacques Sainte-Marie (Inria & Sorbonne Université, équipe Ange https://team.inria.fr/ange/)
<< Revenir en haut de page
Environnement
Le changement climatique, Eric Blayo
Les épisodes méditerranéens, Gwladys Toulemonde
L’impact social des inondations, Maria Kazolea
L’eau: l’or bleu et le poisson de demain, Martin Parisot
L’imagerie sismique pour une meilleure connaissance du sous-sol, Julien Diaz
Est-il possible de concilier croissance économique et soutenabilité environnementale grâce au progrès technique ?, Kevin Marquet
Le rôle des scientifiques face aux enjeux environnementaux, Eric Tannier
Comment mesurer la performance écologique et sociale des sociétés ?, Jean-Yves Courtonne
La Sobriété numérique, un enjeu sociétal, Benjamin Ninassi
Le changement climatique
Evaluer l’ampleur et les conséquences du changement climatique en cours, en déterminant l’impact de choix politiques et économiques, sont évidemment des enjeux majeurs. Ceci nécessite la description et la compréhension du système climatique, notamment grâce à l’étude des climats passés et par la mise au point de modèles permettant d’effectuer des prévisions. La complexité du système climatique et la diversité des questions le concernant amènent à faire appel à de nombreuses branches des mathématiques. Par exemple :
- étude de modèles conceptuels, grâce à la théorie des systèmes dynamiques. Ceux d’Ed Lorenz, mettant en évidence un caractère chaotique (l’effet papillon) en sont un exemple fameux,
- méthodes statistiques pour la reconstruction des climats passés à partir de différents proxies,
- problématique de détection-attribution : comment mettre en évidence les changements en cours de façon statistiquement significative, et comment décider si une cause potentielle explique effectivement un changement observé ?
- modèles mathématiques et numériques du climat, conçus comme l’agrégation de différents sous-modèles pour chaque « compartiment » (atmosphère, océan, glace…) ainsi que des interactions entre ces compartiments,
- méthodologie statistique pour les projections climatiques : comment synthétiser les résultats de plusieurs dizaines de modèles climatiques ?
Pour aller plus loin :
Les épisodes méditerranéens
La Méditerranée est l’une des régions parmi les plus sensibles au changement climatique. Ce dernier s’y traduit notamment par une fréquence plus importante de catastrophes naturelles comme les inondations provoquées par des épisodes méditerranéens. Lors de ces phénomènes orageux violents, il peut tomber en quelques heures l’équivalent de plusieurs mois de précipitations. Ces événements extrêmes induisent une forte vulnérabilité des environnements naturels et sociaux. Le besoin d’élaborer des stratégies d’adaptation rend nécessaire l’étude de tels évènements et de leurs impacts. Ayant pour fondement la théorie probabiliste des valeurs extrêmes, certaines lois de probabilités et méthodes statistiques sont adaptées à l’analyse des extrêmes et sont utilisées pour estimer des quantités, comme des périodes de retour d’un événement observé ou, de manière duale, des niveaux de retour associés à une période donnée. Devant la rareté des données, il s’agit alors d’extrapoler au delà du recul dont on dispose, c’est-à-dire estimer par exemple une quantité de précipitation centennale alors que nous ne disposerions que de 20 ans de données. Concernant les études d’impact, afin d’étudier les effets de certains scénarios, un autre enjeu réside dans la capacité à simuler des chroniques de précipitations. Cela peut se faire grâce à la construction de générateurs de précipitations dans lesquels l’intégration d’épisodes extrêmes est alors primordiale.
Pour aller plus loin:
L’impact social des inondations
Une inondation est définie comme un débordement d’une grande quantité d’eau au-delà de ses limites normales, submergeant des terres habituellement sèches. Une inondation est généralement le résultat de causes naturelles, mais elle peut aussi être causée par des facteurs humains. Les causes d’une inondation sont nombreuses et variées : pluies abondantes, débordement de rivières, effondrement de barrages, fonte des neiges, déforestation (abattage d’arbres), émissions de gaz à effet de serre, etc. Ce phénomène a quelques effets bénéfiques, par exemple la recharge des sources d’eau, des impacts dans l’agriculture, la pêche et le rajeunissement de l’écosystème fluvial, mais il a surtout des impacts sociaux négatifs. Parmi ceux-ci, on peut citer les pertes de vies humaines et de biens, la perte de moyens de subsistance, la diminution du pouvoir d’achat et de production, les migrations de masse, les effets psychosociaux, l’entrave à la croissance économique et au développement, les implications politiques. Avec l’augmentation continue de la population mondiale et le changement climatique, les conséquences des inondations devraient s’aggraver. Rappelons par exemple les inondations catastrophiques dans le sud de la France lors de l’hiver 2019. Jeddah en Arabie Saoudite a connu 3 inondations majeures au cours de la dernière décennie, faisant des centaines de morts et des milliers de dégâts aux bâtiments. Selon le Forum économique mondial, les inondations fluviales devraient déplacer 50 millions de personnes par an d’ici 2100. Il n’est pas possible de prévenir toutes les inondations, mais il existe des mesures qui peuvent être prises pour gérer ces risques et réduire les impacts sur les communautés. La gestion des risques et l’utilisation de modèles globaux pour les inondations peuvent aider à développer des stratégies bénéfiques pour la communauté et l’environnement, en particulier lorsque les scientifiques et les utilisateurs travaillent ensemble vers un objectif commun de réduction des risques de catastrophe.
Pour aller plus loin:
L’eau: l’or bleu et le poisson de demain
Pour de nombreuses régions dans le monde (zones arides, zones inondables) l’eau a toujours été une question cruciale Dans un contexte de réchauffement climatique, ces régions ont tendance à s’élargir et de nouveaux territoires sont concernés. Mais l’enjeu ne s’arrête pas à ces régions naturellement critiques. Suite à la forte industrialisation et l’agriculture de masse, l’eau devient partout dans le monde une ressource et un danger qu’il faut savoir gérer. Le traitement et le transport de l’eau sont des problèmes depuis longtemps considérés et en partie maîtrisés mais l’importance de leurs coût énergétique rend la gestion de la ressource indispensable. Bien que la quantité d’eau mondiale est conservée, la consommation mondiale a décuplé notamment du à une agriculture de masse. L’usage des produits chimiques à des fins industrielles finit généralement par polluer les nappes phréatiques réduisant la part d’eau utilisable (au moins directement).
Quels rôles peuvent jouer les scientifiques sur ces questions ? Au niveau des sciences naturelles et formelles,une modélisation plus fine du cycle de l’eau, l’échelle de la société, permettrait de mieux définir les acteurs (industriels) et décideurs (politiques). Elle se heurte à plusieurs difficultés majeures (grandes échelles spaciale et temporelle, différents modes de transport, connaissance des terrains). Au niveau des sciences sociales, les conséquences socio-économiques des migrations dues aux inondations et aux sècheresses permettraient de mieux considérer la réalité de la situation et d’évaluer les meilleures solutions sociétales. Au niveau des sciences du management, la prise en compte des alertes des autres communautés scientifiques via des outils de gestion globaux permettrait un contrôle des risques sur le long terme, indispensable dans une société de développement durable. L’enjeux est aussi diplomatique puisque la ressource captée dans une région en prive une autre, et la gestion d’infrastructures comme les barrages hydroélectriques ont un impact sur l’ensemble de la rivière qui peut dépasser les frontières.
Reportages sur la consommation d’eau :
Pour aller plus loin :
L’imagerie sismique pour une meilleure connaissance du sous-sol
La modélisation numérique de la propagation des ondes sismiques permet à la fois de simuler des tremblements de terre et de déterminer la composition géologique du sous-sol terrestre. Dans le deuxième cas, on parle d’imagerie sismique. La modélisation des séismes est un problème direct : on simule la propagation des ondes dans un milieu géologique connu. L’imagerie sismique est un problème inverse : à partir d’enregistrement d’ondes sismiques en surface, on évalue la composition du milieu géologique. Les sources à l’origine des ondes sismiques peuvent être naturelles (séismes) ou artificielles (explosions, vibration). Pour estimer la structure des couches du sous-sol, on simule numériquement la propagation d’ondes sismiques dans un modèle simplifié (appelé modèle initial) et on compare les simulations aux ondes enregistrées pendant la campagne d’acquisition. On fait alors évoluer le modèle initial en fonction de ces comparaisons et on simule la propagation des ondes dans ce nouveau modèle. On recommence le processus jusqu’à ce que les enregistrements numériques se rapprochent des enregistrements de la campagne sismique.
La résolution du problème inverse repose donc sur la résolution successive d’un grand nombre de problèmes inverses. Pendant longtemps, l’imagerie sismique a été principalement utilisée par l’industrie pétrolière pour trouver des gisements potentiels d’hydrocarbures mais elle s’applique maintenant à la recherche de réservoirs d’eau chaude pour la géothermie ou de structures géologiques adaptées au stockage de CO2. À chaque fois, elle permet de limiter l’impact écologique et le coût des forages en limitant le risque de forage infructueux.
Pour aller plus loin :
Imagerie sismique
Géothermie
Stockage de CO2
Est-il possible de concilier croissance économique et soutenabilité environnementale grâce au progrès technique ?
De nombreuses réponses politiques à la crise environnementale sont articulées autour du concept de la notion de croissance verte. Certains mettent en avant des scénarios de « transition » assurés par l’usage de technologies nouvelles dans les secteurs de l’énergie, des matériaux, ou encore du numérique. Ces croyances optimistes dans la technologie sont au contraire critiquées par d’autres qui prônent une nécessaire « décroissance ».
Alors, est-il possible de *découpler* croissance économique et soutenabilité environnementale ? Si l’on regarde les décennies passées, il semble que la croissance économique soit fortement corrélée à l’utilisation de pétrole et donc à l’émission de gaz à effet de serre. Au mieux, on observe dans certains pays un découplage relatif. C’est à dire que l’intensité écologique par unité de production économique diminue ; les impacts sur les ressources diminuent par rapport au PIB mais l’impact environnemental et le PIB augmentent tous deux. Le découplage absolu, faisant référence à une situation dans laquelle les impacts environnementaux diminuent en termes absolus, semble compliqué. Théoriquement, on peut imaginer une croissance économique, par exemple en ayant plus de services et moins de biens. Mais en pratique c’est compliqué : une économie de services (par exemple numériques) repose le plus souvent sur une économie matérielle (par exemple infrastructures réseaux), un découplage observé localement (dans un pays par exemple) est souvent dû à une délocalisation de production (dans un autre pays), les gains en efficacité dans un secteur sont souvent réinvestis dans un autre secteur (liste non exhaustive).
La crise sanitaire dûe au Covid-19 est l’occasion de réfléchir à cette question. Les usages numériques ont explosé pendant la période de confinement pendant que des pans entiers de l’économie étaient mis à l’arrêt, provoquant une baisse importante de production et donc de la pollution dans certaines régions.
Mais rien ne permet d’affirmer qu’une telle situation serait tenable socialement et soutenable écologiquement : l’activité pendant la période de confinement ne s’est poursuivie qu’au moyen d’un endettement important. Et cet endettement va provoquer, pour être remboursé, la création de biens et services ayant un impact environnemental pour être remboursé.
Pour aller plus loin :
- https://theshiftproject.org/en/gdp-energy/
- Parrique T., Barth J., Briens F., C. Kerschner, Kraus-Polk A., Kuokkanen A., Spangenberg J.H., 2019. Decoupling debunked: Evidence and arguments against green growth as a sole strategy for sustainability. European Environmental Bureau : https://eeb.org/library/decoupling-debunked/
- GESI ICT Solutions for 21st Century Challenges : https://smarter2030.gesi.org/
- Ward JD, Sutton PC, Werner AD, Costanza R, Mohr SH, Simmons CT. Is Decoupling GDP Growth from Environmental Impact Possible?. PLoS One. 2016.
- E. Sanyé-Mengual, M. Secchi, S. Corrado, A. Beylot, S. Sala. Assessing the decoupling of economic growth from environmental impacts in the European Union: A consumption-based approach. Journal of Cleaner Production. 2019.
- Peter A. Victor. Managing without Growth, Second Edition. Slower by Design, not Disaster.
- Ekins, Paul & Hughes, Nick & Bringezu, Stefan & Clarke, Charles & Fischer-Kowalski, Marina & Graedel, Thomas & Hajer, Maarten & Hashimoto, Seiji & ield-Dodds, Steve & Havlík, Petr & Hertwich, Edgar & Ingram, John & Kruit, Katja & Milligan, Ben & Moriguchi, Yuichi & Nasr, Nabil & Newth, David & Obersteiner, Michael & Ramaswami, Anu & Westhoek, Henk. (2016). Resource Efficiency: Potential and Economic Implications Summary for Policymakers.
- Caminel, Thierry. « Chapitre 4. L’impossible découplage entre énergie et croissance », Économie de l’après-croissance. Politiques de l’Anthropocène II. Presses de Sciences Po, 2015.
Le rôle des scientifiques face aux enjeux environnementaux
Scientifiques, ingénieur.e.s et entrepreneu.se.r.s se mobilisent face aux enjeux environnementaux, qui demandent de répondre aux questions les plus complexes et les plus difficiles auxquelles nous ayons à faire face aujourd’hui. Iles sont lanceu.se.r.s d’alerte, d’abord, étant, en tant qu’observat.rice.eur.s de l’évolution du monde, aux premières loges pour comprendre les trajectoires dans lesquelles l’humanité et son habitat sont engagés. Climatologues, écologues, océanographes, agronomes construisent un corpus de connaissances et alertent l’opinion publique et la représentation politique. Iles imaginent des solutions, ensuite. Si personne n’espère que la situation sera sauvée par une innovation, la connaissance et la disponibilité des techniques peut accompagner la lutte contre la destruction de l’environnement et construire des sociétés viables et résilientes : conservation et restauration de la biodiversité, transition énergétique et sociétale, captation de carbone, statut juridique d’acteurs non humains, dépollution, agro-écologie, résilience des systèmes. Iles militent enfin sur le terrain politique et social, selon des principes de recherche-action, recherche participative, recherche activisme ou sciences citoyennes, afin de mêler un engagement citoyen et un métier au service de la collectivité.
Pour développer un exemple, plusieurs instituts de recherche, entreprises et associations sont engagés dans l’agro-écologie. Il s’agit d’appliquer l’étude et la mise en place des processus écologiques aux espaces cultivés, afin de développer une agriculture soutenable. En privilégiant la lutte biologique à la lutte chimique contre les ravageurs de culture, l’apport de nutriments par l’écosystème plutôt que par des engrais, la présence de la biodiversité dans les champs. Des expériences sont faites avec les acteurs de terrain, pour affiner nos connaissances, tester des méthodes innovantes et détecter celles qui passeront à l’échelle et pourront peu à peu remplacer l’agriculture intensive là où c’est possible.
Pour aller plus loin :
Eric Tannier (Inria, équipe Beagle et Le Cocon )
Comment mesurer la performance écologique et sociale des sociétés ?
Le Produit Intérieur Brut (PIB) est encore aujourd’hui l’indicateur central pour mener les politiques publiques dans le monde, en particulier à travers la recherche de la croissance économique. De nombreux chercheurs travaillant sur « les autres indicateurs de richesse » militent pour remplacer ou compléter le PIB en soulignant ses insuffisances. Devant la crise écologique, ils insistent en particulier sur la nécessité de mesurer séparément le niveau de bien-être actuel et le niveau de soutenabilité environnementale. Un débat existe entre tenants d’une durabilité faible et tenants d’une durabilité forte sur l’opportunité de mesurer l’environnement en unités monétaires (par exemple en estimant la valeur des services rendus par la nature) ou en unités physiques (en tonnes de ressources prélevées, de polluants émis etc.). Dans les deux cas, la construction d’indicateurs se révèle indispensable pour rendre le problème intelligible et constitue une science en soi. Dans le domaine des mathématiques, l’analyse multicritère et la théorie du vote, ont ainsi souligné que les résultats pouvaient être complètement différents selon les choix méthodologiques opérés.
Concernant l’évaluation du bien-être, certains travaux cherchent à repérer des corrélations entre différentes variables. Il a par exemple été montré que le niveau de bien être est très corrélé au PIB jusqu’à un certain seuil de richesse mais qu’au-delà plus aucune corrélation n’est observable ; au contraire, le niveau d’inégalités à l’intérieur des pays riches est un bon estimateur du niveau des problèmes sociaux (problèmes de santé, criminalité, etc…). D’autres chercheurs insistent sur l’importance de disposer d’une vision du bien être subjectif (bonheur perçu plutôt que mesuré par des indicateurs).
Concernant l’évaluation de la soutenabilité environnementale, trois idées structurantes peuvent être retenues : (i) pour ne pas déplacer le problème d’un enjeu environnemental à un autre, il faut aller au-delà de la mesure des émissions de gaz à effet de serre (ex : perte de biodiversité, perturbation des cycles biogéochimiques, pollutions chimiques, acidification des océans, désertification…), (ii) pour ne pas déplacer le problème d’une région à une autre, il faut disposer simultanément d’une empreinte côté producteur (ex : ensemble des émissions de gaz à effet de serre se produisant en France), et d’une empreinte côté consommateur (ex : émissions émises partout dans le monde pour satisfaire la consommation des Français), (iii) il est important de mettre en rapport les pressions exercées avec des limites planétaires définies de façon absolue, car par exemple, une augmentation de l’efficacité énergétique peut au final se traduire par une augmentation de la consommation énergétique absolue via ce que l’on appelle l’effet rebond. Différentes méthodologies ont été développées pour répondre à ces enjeux telles que l’Analyse de Cycle de Vie, l’Analyse de Flux de Matières et d’Energie (AFME) ou l’Analyse Input-Output étendue à l’environnement. Mathématiquement, un des enjeux des AFME est la réconciliation de données, c’est-à-dire le passage de données lacunaires et incohérentes entre elles à un bilan matière respectant les lois de conservation. L’optimisation sous contraintes est une stratégie courante pour réconcilier des données. L’analyse Input-Output, et sa méthode duale l’analyse des chaînes de Markov absorbantes, représentent les interactions entre secteurs de l’économie sous forme de matrice. De simples calculs matriciels peuvent alors informer sur l’origine/la destination des biens consommés/produits, les pressions environnementales induites par la consommation des ménages par type de dépense (alimentation, transport, logement…) ou sur le devenir final des matières premières, par ex., combien de fois en moyenne un atome de cuivre est-il recyclé dans l’économie avant d’être rejeté dans l’environnement ?
Liens et références bibliographiques :
- Wilkinson, R., & Pickett, K. (2010). The spirit level. Why equality is better for everyone.
- Tukker, A., Bulavskaya, T., Giljum, S., De Koning, A., Lutter, S., Simas, M., … & Wood, R. (2014). The global resource footprint of nations. Carbon, water, land and materials embodied in trade and final consumption calculated with EXIOBASE, 2(8). https://exiobase.eu/index.php/publications/creea-booklet
Depuis les années 50, les physiciens ont théorisé qu’il était possible de produire une énergie propre, sans émission de CO2, sans déchets radioactifs lourds. L’idée est de reproduire dans un réacteur les réactions nucléaires présentes dans les étoiles. Contrairement à la fission classique qui divise des atomes lourds d’uranium afin de produire de l’énergie, il s’agit ici de faire fusionner des atomes légers comme l’hydrogène. Durant les dernières décennies plusieurs petits dispositifs expérimentaux ont été construis et étudiés. Au début des années 2000, l’union Européenne et plusieurs autres pays ont décidé de passer au stade supérieur en construisant un réacteur expérimental devant démontrer la viabilité de cette méthode de production d’énergie. Il s’agit du projet international ITER. La difficulté majeure est liée à la température qui faut atteindre pour le gaz d’hydrogène afin d’obtenir la fusion. Elle se situe autour de 100 millions de degrés. Pour obtenir cela on place un gaz dans une chambre périodique en forme de « donuts » et on le chauffe par micro-ondes. Au vu de la température du gaz il est inimaginable qu’il puisse toucher les parois sous peine de détruire la chambre de confinement. A haute température les gaz, devenant chargés électriquement, il à été choisi de confiner le gaz au milieu de la chambre à travers des champs magnétiques extrêmement puissants. On parle de confinement magnétique. Si le champ magnétique est trop puissant, on consommera plus d’énergie pour confiner le gaz qu’on en produira et si il ne l’est pas assez, le confinement ne sera pas stable ce qui pourrait endommager le réacteur. Pour étudier ces instabilités, dimensionner la chambre de confinement et proposer des méthodes de contrôles des instabilités potentielles on se sert de modèles mathématiques décrivant l’interaction entre le gaz et le champ magnétique ainsi que d’énormément de simulations numériques effectuées sur d’importants supercalculateurs.
Pour aller plus loin:
Calcul et optimisation de l’énergie éolienne en conditions réelles.
Le développement d’énergies renouvelables (eau, vent [1], géothermie, etc) est un enjeu majeur en raison de l’augmentation des besoins énergétiques qui s’accompagne de la réduction potentielle des ressources fossiles. La France s’est engagée fin 2018 à atteindre une part d’énergies renouvelables dans sa consommation finale brute d’énergie d’au moins 32% en 2030, le nucléaire devant lui réduire de 75% aujourd’hui à 50% en 2030 [2].
Alors que le potentiel des énergies renouvelables est immense, les energy harvesting devices tels que les parcs éoliens doivent être extrêmement efficaces pour être économiquement viables. L’optimisation de ces parcs éoliens permettra de maximiser la production et donc la consommation d’énergie renouvelable.
Les points importants à considérer sont alors :
- le choix du terrain sur lequel construire le parc éolien (vents soutenus présents tout au long de l’année) [3],
- l’optimisation des éoliennes pour ce terrain (taille et forme des pales),
- l’optimisation de l’emplacement des éoliennes les unes par rapport aux autres [4].
Également, pour un parc existant, est-il possible d’apporter de petites modifications des pales pour améliorer la performance ? On parle alors de retro-fit.
L’expérimentation étant très couteuse voire impossible, le recours au calcul numérique permet d’apporter des réponses précises à ces questions. La résolution numérique des modèles mis en jeu (interactions entre un fluide est une structure éventuellement élastique) se fait en général en utilisant le calcul haute performance sur plusieurs milliers de processeurs [5].
Références
[1] Wind energy explained, Theory, Design and Application, Second Edition, J. F. Manwell, J. G. McGowan, A. L. Rogers, Ed. Wiley, 2009
Calculs et énergies marines renouvelables.
Le développement des techniques liées aux énergies marines renouvelables (EMR) est souvent associé à des simulations
numériques très poussées (énergie éolienne [1], hydrolienne [2] ou encore houlomotrice [3]), impliquant la conception et l’analyse de nouveaux algorithmes mathématiques. Ces derniers permettent en particulier de limiter la construction coûteuse de prototypes.
Pour obtenir un résultat sous forme numérique, le mathématicien décompose généralement son travail en une série d’étapes bien distinctes. La première consiste à fixer un modèle, c’est-à-dire un ensemble d’équations décrivant la physique du phénomène. Dans le cas des systèmes liés au EMR, le fluide est décrit des des équations aux dérivées partielles, par exemple l’équation de Navier-Stokes ou l’une de ses versions simplifiées (équation de Stokes, approximation par écoulement potentiel, équation de St-Venant…). Le dispositif extracteur (éolienne, bouée houlomotrice…) est quant à lui soit modélisé par l’intermédiaire de la mécanique des milieux continus, soit simplement par un solide fixe (hypothèse souvent considérée pour les pâles d’une éolienne par exemple). Le système global relève donc d’un champ de recherche appelé l’interaction fluide-structure, qui s’intéresse spécifiquement au couplage de modèles de mécanique des fluides et de mécanique du solide.
L’étape suivante est celle de la résolution numérique du modèle : il s’agit alors de construire des procédures de résolution numérique (des « schémas numériques », généralement approximatives) du système d’équations obtenu à l’étape précédente. Du point de vue mathématique, cette étape se traduit par une discrétisation en espace du domaine physique occupé par le dispositif et son environnement et d’une discrétisation en temps, si l’on considère les régimes transitoires. Les nombreux schémas qui peuvent être considérés (schémas Lax Friedrichs, Godunov, Roe, …) pour la simulation du fluide doivent alors prendre en compte l’interaction avec la machine sous forme de conditions de bord. Le travail mathématique consiste ici à évaluer, à l’aide de théorèmes, la qualité de l’approximation de la solution du modèle par la solution numérique (on parle d’analyse d’erreur).
Enfin, une fois la simulation validée, la procédure de calcul peut être utilisée en mode prédictif pour optimiser la technique : la géométrie de l’extracteur peut par exemple être modifiée de telle sorte que son rendement soit maximisé. Cette étape relève donc du champ de l’optimisation numérique où l’enjeu est de construire un algorithme itératif conduisant à l’optimisation d’une fonctionnelle (le rendement, par exemple). Les techniques utilisées sont d’ordre 0 (c’est-à-dire n’utilisant pas la dérivée de la fonctionnelle, comme l’algorithme du simplexe ou les algorithmes évolutionnaires), d’ordre 1 (mettant en jeu la dérivée de la fonctionnelle, i.e. son gradient, comme dans les algorithmes de gradient) voire d’ordre 2 (ayant recours à la dérivée seconde de la fonctionnelle, i.e. sa hessienne comme dans l’algorithme de Newton).
L’ensemble des techniques mathématiques mobilisées dans le cadre de la conception numérique de dispositifs extracteurs d’énergie marine est donc très vaste et va certainement se développer de manière importante dans les prochaines décennies, en particulier, par des collaborations plus poussées entre ingénieurs, mécaniciens et mathématiciens. Il donne bien sûr lieu à de nouvelles recherches spécifiques dans ces deux dernières communautés.
Références
[1] Wind energy explained, Theory, Design and Application, Second Edition, J. F. Manwell, J. G. McGowan, A. L. Rogers, Ed. Wiley, 2009
[2] Marine Renewable Energy: Resource Characterization and Physical Effects, Z. Yang, A. Copping, Ed. Springer, 2018
[3] L’énergie des vagues, Ressource, technologies et performance, A. Babarit, Ed. iSTE, 2018
Refroidissons, refroidissons !
L’aviation est à l’origine de 3,6% des émissions totales de gaz à effet de serre de l’Europe. De plus, cette proportion tend à augmenter dans les prochaines années. En plus du CO2, l’aviation émet des polluants tels que les oxydes d’azote [1,2]. Ces gaz néfastes proviennent de la chambre de combustion, lieu dans lequel le carburant est brûlé pour produire une poussée permettant à l’avion d’avancer [3]. La température à l’intérieur de la chambre de combustion est très élevée (entre 2000 et 3500 degrés Celsius). En effet, l’augmentation de la température permet d’améliorer le rendement du moteur et ainsi de réduire sa production de CO2. Cependant, aucun matériau ne peut résister à de telles températures. Il faut donc protéger les parois de la chambre de combustion afin qu’elles ne soient pas exposées à de telles températures car elles pourraient s’endommager. Le processus de refroidissement le plus efficace est la multi-perforation : une multitude de petits trous sont effectués dans la paroi de la chambre de combustion et de l’air froid y est injecté, constituant ainsi un film protecteur pour la paroi [4]. L’augmentation de la température à l’intérieur de la chambre de combustion a un effet positif sur la production de CO2 mais le risque de déstabiliser la combustion augmente, ce qui engendrerait une augmentation très importante la production de polluants tels que les oxydes d’azote.
Afin de satisfaire les objectifs européens, à savoir de réduire de 75 % des émissions de CO2 et de 90 % des émissions d’oxydes d’azote entre 1990 et 2050, il faut réussir à stabiliser la flamme, obtenir un profil de température le plus homogène possible, éviter de créer des régions à très haute température, et assurer la tenue des parois par un refroidissement adapté.
Références
[4]
La Sobriété numérique, un enjeu sociétal
La ligne de code qui pollue le moins, c’est celle qui n’est pas écrite. D’après les estimations de l’Agence Française de l’Environnement et de la Maitrise des Energies (ADEME), le secteur du numérique est responsable aujourd’hui de 4% des émissions mondiales de gaz à effet de serre (GES). L’augmentation des usages laisse présager un doublement de cette empreinte carbone d’ici 2025. Une fois qu’on a dit ça, comment faire en sorte que l’humanité apprenne à maitriser cette découverte qu’est le numérique sans s’y brûler ?
Les analyses de cycle de vie (ACV) portant sur les services numériques montrent que les impacts actuels sont majoritairement associés aux utilisateurs, et notamment à la fabrication de leurs équipements à travers l’extraction des minerais nécessaires. Le déploiement massif de services numériques, toujours plus consommateurs de ressources sur les terminaux des usagers (jeux vidéos, vidéos à la demande en 4K, etc) est bien évidemment en partie responsable de cette évolution. Mais même une fonctionnalité simple et banale, comme la prise de rendez-vous en ligne, est aujourd’hui un acte polluant bien plus qu’un simple appel depuis nos anciens téléphones filaires.
Les nouvelles architectures de la plupart des services web sont donc également en cause. Ces dernières années, de nombreux frameworks et de nouvelles pratiques de développement ont émergé, selectionnés pour des critères liés à la rapidité de réalisation, à l’ergonomie et à la qualité du code, sans aucune considération pour la consommation de ressources. En effet, les limitations techniques qui imposaient auparavant aux développeurs d’optimiser au maximum leurs réalisations – tant en termes de puissance de calcul, de stockage, que de trafic réseaux – ont été sans cesse repoussées depuis la fin des années 90, sans réelle considération de l’impact sur l’environnement.
Gardons en mémoire que l’ordinateur de bord de la mission Apollo, qui a permis à l’homme d’aller sur la Lune, n’avait une capacité de stockage que de 70 Ko de données. Ce chiffre représente à peine le poids d’un de nos courriels en 2020. 70 Ko, c’est également bien insuffisant pour prendre aujourd’hui un rendez-vous en ligne.
Ainsi, l’éco-conception logicielle est tout autant une affaire de réalisation technique (dont les bonnes pratiques n’en sont encore que trop peu partagées) qu’une affaire d’usage. Pour aller vers plus de sobriété numérique, il faut apprendre à remettre l’apport fonctionnel d’un logiciel au coeur de ses spécifications, et accepter de renoncer à certains conforts ergonomiques.
Pour aller plus loin:
Benjamin Ninassi (Inria, Inria, Direction Générale Déléguée à la Science)
<< Revenir en haut de page
Sécurité
Les attaques informatiques, une arme pas comme les autres dans la géopolitique moderne, Guillaume Piolle
Votre imprimante est-elle une cyber-arme ?, Valérie Viet Triem Tong
Voter électroniquement par Internet, Steve Kremer
Anonymisation des données personnelles, Mathieu Cunche
Les attaques informatiques, une arme pas comme les autres dans la géopolitique moderne
Les systèmes d’information, interconnectés la plupart du temps, sont maintenant devenus un élément structurant de l’ensemble de nos activités en société, au point bien souvent d’en devenir l’épine dorsale indispensable. Les infrastructures informatiques d’un pays deviennent alors un enjeu stratégique de premier ordre, dont le bon fonctionnement doit être assuré au même titre que les réseaux de transports ou d’énergie. Elles deviennent également une cible potentielle en cas de conflit. Cet aspect n’ayant jamais échappé à Hollywood, il n’est pas étonnant de constater qu’états souverains et organisations internationales ont effectivement pris la pleine mesure de cet enjeu et qu’il ne relève malheureusement plus de la littérature d’anticipation. Un certain nombre d’opérations d’envergure, impliquant avec un fort degré de certitude des organisations étatiques, ont en effet déjà été documentées. En voici trois exemples qui illustrent des modes opératoires et des objectifs très différents :
- En avril-mai 2007, l’Estonie a été la cible d’une vague d’attaques informatiques ayant eu un impact majeur sur son économie. Ces attaques, souvent assorties d’un message politique, survenaient en réaction à une décision estonienne constituant un point de conflit avec la Russie. La majorité des attaques étaient du type « déni de service distribué » (DDoS), un type d’attaque techniquement très simple mais relativement efficace. Elles provenaient de nombreuses sources à l’extérieur de l’Estonie et étaient dirigées vers des sites web du gouvernement, du parlement, de banques, de fournisseurs d’accès à Internet et de nombreuses entreprises locales. L’ensemble pouvait faire penser à une réaction spontanée et collective d’une population, mais de nombreux indices ont indiqué l’existence d’une organisation centralisée de ces attaques, dont on s’accorde généralement à considérer qu’elles avaient au minimum la bénédiction des autorités russes. Cet événement est souvent considéré comme la première « cyber-attaque » d’un pays sur un autre et a déclenché la fondation du « NATO Cooperative Cyber Defence Centre of Excellence », justement à Tallinn, en Estonie ;
- En 2010, le virus StuxNet se répand jusqu’aux équipements d’enrichissement d’uranium de l’Iran (et de quelques autres pays) et en endommage environ 20%. On considère que ce virus informatique très élaboré a été conçu (au moins en partie) par un organisme appelé Equation Group, que l’on s’accorde à associer à la NSA américaine. Le virus s’est répandu sur de très nombreux ordinateurs dans le monde, mais il prend un soin tout particulier à ne se déclencher que dans un environnement très particulier (celui des automates industriels Siemens équipant les installations de Natanz). Tant que ça n’est pas le cas, le virus fait tout pour passer inaperçu, allant jusqu’à limiter son pouvoir de dissémination et à planifier sa propre destruction. Ce type d’attaque constitue un peu l’équivalent numérique d’une « frappe chirurgicale » ;
- En 2017, le « ransomware » Wannacry se répand très rapidement dans l’ensemble du monde. Il cible Windows et utilise des outils connus, conçus par l’Equation Group et déjà rendus publics. De nombreuses entreprises et organisations, dont les systèmes n’étaient pas parfaitement à jour, se sont trouvées victimes de cette attaque (le système de santé britannique, en particulier, a été fortement impacté). L’analyse du virus a conduit à l’attribuer au groupe Lazarus, considéré comme étant sous le contrôle de la Corée du Nord.
Ces trois exemples mettent en avant des possibilités opérationnelles différentes pour un attaquant : attaque massive et distribuée visant à l’effondrement des capacités informatiques de tout un pays, attaque furtive et sophistiquée à destination d’une cible bien identifiée ou encore libération « à l’aveugle » d’un logiciel malveillant très virulent dont on espère qu’il fera le plus de dégâts possibles, sans nécessairement contrôler son périmètre d’action. On peut également observer qu’à la différence d’un incident de frontière ou d’une invasion, une attaque informatique est très rarement assumée et revendiquée par un état souverain. Elle relève plus d’une opération clandestine, pour laquelle il est difficile de remonter à la source avec certitude. L’attribution d’une attaque informatique à un pays, délicate et rare, est d’ailleurs souvent exclue de la doctrine de cyberdéfense des états ciblés. Enfin, on remarque que des types d’armes numériques différents conduisent à des impacts différents sur les systèmes informatiques « civils », qu’ils soient effectivement ciblés ou qu’il s’agisse de dégâts collatéraux.
Pour aller plus loin :
Votre imprimante est-elle une cyber-arme ?
La sécurité informatique vise à garantir trois propriétés principales. Tout d’abord la confidentialité qui exprime qu’une information ne peut être lue, comprise et traitée que par les entités (personnes ou programmes) autorisées. L’intégrité exprime que des données ne peuvent être modifiées que par des entités autorisées. Ces deux propriétés concernent la protection de l’information (lecture et modification). La dernière propriété essentielle est la disponibilité d’un service (ou d’une donnée) qui exprime que ces données ou services doivent être accessibles en permanence.
Une attaque contre la disponibilité d’un service ou attaque par déni de service (DoS attack) a pour but d’empêcher l’utilisation de ce service par ses utilisateurs légitimes. Une telle attaque peut avoir pour motif le vandalisme, la vengeance, la concurrence ou l’activisme.
Pour réussir une telle attaque, un attaquant peut exploiter une vulnérabilité d’un protocole ou d’un service amenant les machines cibles à la limite de leur capacité de calcul et allongeant ainsi très fortement les temps de traitements. Pour cela, l’attaquant n’a parfois besoin que d’un très petit nombre de ressources. La puissance d’une telle attaque est bien sûr décuplée lorsque l’attaquant dispose d’un grand nombre de ressources. On parle alors d’attaque par déni de service distribuée (DDoS attack). Ces ressources peuvent provenir de périphériques compromis comme des serveurs, des ordinateurs personnels, des téléphones. Plus récemment, des centaines de milliers d’objets connectés (caméra IP, imprimantes, routeurs, …) ont été compromis par le malware Mirai [3] pour former un réseau d’objets zombies qui a été utilisé pour des attaques DDoS de grande ampleur.
Paradoxalement, plus notre monde est connecté, plus il offre de possibilités de se voir déconnecté. Chaque fois que nous donnons accès à internet à une ressource de calcul ou de stockage nous augmentons la puissance de l’attaquant. C’est d’autant plus vrai que cette ressource est courante, largement distribuée et difficile à mettre à jour.
Références
[1] Denial-of-service attack
[2] Comprendre et anticiper les attaques DDoS – Anssi
[3] Understanding the Mirai Botnet,
Manos Antonakakis, Tim April, Michael Bailey, Matt Bernhard, Elie Bursztein, Jaime Cochran, Zakir Durumeric, J. Alex Halderman, Luca Invernizzi, Michalis Kallitsis, Deepak Kumar, Chaz Lever, Zane Ma, Joshua Mason, Damian Menscher, Chad Seaman, Nick Sullivan, Kurt Thomas and Yi Zhou
USENIX Security Symposium USENIX 2017
Voter électroniquement par Internet
Se rendre dans un bureau de vote et glisser un papier dans une urne pour voter peut paraître un anachronisme dans notre monde hyper-connecté où des achats, des opérations bancaires et bien plus de choses se font en quelques clics sur un smartphone. Cependant, garantir la sécurité d’une élection numérique par Internet s’avère être un véritable casse-tête. Il faut réussir à garantir une transparence totale pour éviter des fraudes, tout en cachant le choix de chaque votant afin de respecter la confidentialité du vote. Et tout cela, il faut le garantir sans faire confiance aux logiciels qui tournent sur les serveurs de l’élection. À première vue, ces objectifs peuvent sembler impossibles, mais des techniques cryptographiques sophistiquées permettent de concevoir des protocoles de vote électronique qui permettent à chacun de vérifier l’intégrité du scrutin tout en garantissant le secret du vote.
De nombreux défis restent cependant encore à relever. Comment éviter l’achat de vote et la coercition ? Que se passe-t-il si un malware ou virus s’est glissé sur l’ordinateur que vous utilisez pour voter ?
Pour en savoir plus :
Anonymisation des données personnelles
L’écosystème numérique (Internet, Smartphone, habitat connecté, transport …) génère des données associées aux personnes que l’on appelle données personnelles. Ces données et leur exploitation peuvent représenter une menace pour la vie privée des personnes. Pour protéger la vie privée des personnes, on peut avoir recours à l’anonymisation. Bien plus qu’une simple suppression des identifiants tels que le nom et le prénom, l’anonymisation transforme les données afin de prévenir toute réidentification et inférence d’information sur les personnes. Il existe un large spectre de techniques d’anonymisation, et le choix d’une technique va dépendre de la nature des données à protéger, du niveau de protection, ainsi que de l’utilité résiduelle de la donnée. En effet, en modifiant les données, l’anonymisation va dégrader la qualité des informations que l’on pourra en tirer. Un processus d’anonymisation présente donc toujours un compromis entre un niveau de protection de la vie privée et un niveau utilité (la définition de métriques permettant d’évaluer ces niveaux est également un sujet d’étude à part entière).
Pour aller plus loin:
Anonymisation, CNIL
Techniques d’anonymisation. Statistique et Société, Société française de statistique, Benjamin NGUYEN, 2014, 2 (4), pp.53-60.
L’anonymisation : Théorie et Pratique, Benjamin NGUYEN
Anonymat, anonymisation, désanonymisation, Guillaume Piolle
Mathieu Cunche (INSA-Lyon, équipe Privatics https://team.inria.fr/privatics/)
<< Revenir en haut de page
Dernière modification : octobre 2021.
Vous pourriez aussi être intéressé-e-s par :
…/…