Numérique

Vous trouverez ici la vidéo de la soirée ainsi que les réponses et bibliographies associées à la session de questions du premier semestre 2023


Micro-trottoir

 

Soirée

 

Vous pouvez retrouver ces vidéos en versions sous-titrées via les liens suivants : – Vidéo micro trottoir avec sous titres – Vidéo soirée avec sous titres


Futurs numériques


Est-ce que le numérique peut aider à l’apprentissage ?

La réponse est un oui catégorique. Le numérique offre de vastes possibilités d’enrichir et de transformer nos méthodes d’apprentissage.

Tout d’abord, le numérique facilite l’accès à l’information. Grâce à Internet, nous avons un accès illimité à une multitude de ressources éducatives. Les cours en ligne, les tutoriels vidéos et les plateformes d’apprentissage nous permettent d’apprendre à notre propre rythme, où que nous soyons. Plus besoin de se limiter aux seuls manuels scolaires, nous pouvons explorer des connaissances variées et approfondir nos centres d’intérêt.

Ensuite, le numérique favorise l’interactivité et l’engagement des apprenants. Les applications et les outils numériques offrent des fonctionnalités interactives, des exercices ludiques et des simulations immersives qui rendent l’apprentissage plus captivant. Les discussions en ligne, les forums et les réseaux sociaux permettent également aux apprenants de partager leurs idées, de collaborer et d’apprendre les uns des autres, créant ainsi une communauté d’apprentissage dynamique et stimulante.

De plus, le numérique permet une personnalisation de l’apprentissage. Les technologies adaptatives et l’intelligence artificielle peuvent analyser les données sur les performances des apprenants pour fournir des recommandations et des contenus adaptés à leurs besoins spécifiques. Chaque apprenant peut ainsi bénéficier d’un parcours d’apprentissage individualisé, renforçant ainsi sa motivation et ses résultats.

Enfin, le numérique élargit les horizons de l’apprentissage. Les visioconférences, les classes virtuelles et les échanges avec des experts à distance permettent aux apprenants de se connecter avec des personnes du monde entier, de découvrir différentes cultures et de partager des connaissances de manière globale. Cela favorise une ouverture d’esprit et une compréhension interculturelle indispensables dans notre société moderne.

Le numérique représente une véritable révolution dans l’apprentissage. Cependant, il est important de souligner que le numérique ne remplace pas les enseignants, mais plutôt les complète en leur offrant de nouvelles possibilités pédagogiques. C’est en intégrant judicieusement les technologies numériques dans les pratiques d’enseignement et d’apprentissage que nous pouvons exploiter tout leur potentiel pour former des apprenants épanouis et compétents.

Baron Georges-Louis. « Les technologies dans l’enseignement scolaire : regard rétrospectif et perspectives ». Les sciences de l’éducation pour l’ère nouvelle, 2019, vol. 52, p. 103-122. DOI : https://doi.org/10.3917/lsdle.521.0103

Karsenti Thierry. Le numérique en éducation : Pour développer des compétences. Presses de l’Université du Québec, 2019, 287 pages.

Peraya, Daniel. et Charlier Bernadette. Dispositifs innovants de formation pour l’enseignement supérieur. Bruxelles : De Boeck Université, 2003, 230 pages.

Tricot, André et Amadieu, Franck. Apprendre avec le numérique. Éditions Retz, 2020, 176 pages.

Pierre-Étienne Coudert

Ingénieur en pédagogie numérique à l’Université de Limoges.

Quels changements peut entraîner ChatGPT dans l’enseignement ?

Depuis sa mise en ligne par la société OpenAI à l’automne 2022, ChatGPT a connu un succès fulgurant, et notamment auprès des étudiants, avec 4 milliards de visites sur les quatre premiers mois de son existence.

ChatGPT est un agent conversationnel (chatbot en anglais) qui a été entraîné à partir d’énormes quantités de données (articles de journaux, romans, scripts de films…) pour générer des textes qui pourraient être écrits par un humain, répondre à des questions et effectuer d’autres tâches liées au langage. Les étudiant.e.s ont vite compris son principal intérêt: lui faire écrire à leur place un devoir sur n’importe quel sujet et dans n’importe quelle langue, avec un résultat assez convaincant et difficile à détecter par les outils anti-plagiat.

L’arrivée de ChatGPT a donc eu comme première conséquence d’obliger les enseignants à faire évoluer leurs pratiques d’évaluation, en incluant par exemple plus de présentations orales, d’examens écrits traditionnels, ou bien des devoirs pour lesquels ChatGPT n’est pas adapté comme l’analyse et la production de schémas ou d’illustrations visuelles.

Néanmoins, ce nouvel outil pose un certain nombre de problèmes liés au manque de transparence sur son fonctionnement et à ses données d’entraînement parfois très anciennes. Les textes produits sont toujours corrects au niveau syntaxique, mais le contenu est parfois complètement faux ou obsolète.

Pourtant, ChatGPT peut aussi être d’une grande aide pour les élèves, pour mieux comprendre certains points d’un cours, obtenir des suggestions de réponses à un exercice ou avancer à leur rythme. Dans le domaine de la programmation informatique, par exemple, ChatGPT est capable de donner des explications sur n’importe quel code et d’en générer lui-même.

Plutôt que simplement interdire son utilisation, les enseignants vont donc probablement devoir réfléchir à ces questions et plutôt essayer d’apprendre à leurs élèves à l’utiliser efficacement. ChatGPT n’est pas utile qu’aux étudiants : certains professeurs commencent à s’en servir pour évaluer des devoirs, rédiger des commentaires, générer des exercices à partir d’un cours, etc.

ChatGPT offre en quelque sorte une chance à la communauté éducative de s’interroger face à la production automatique d’informations, notamment dans les médias ou le marketing. Il est probable que des outils de ce type rejoindront ceux déjà employés quotidiennement en cours comme les calculatrices et les ordinateurs. Énormément d’études ont été lancées sur le sujet dans le domaine des sciences de l’éducation, et nul doute que les étudiants seront volontaires pour y participer tant le phénomène ChatGPT fascine bien au-delà de la thématique de l’enseignement.

Darics, Erika and Van Poppel, Lotte. “Debate: ChatGPT offers unseen opportunities to sharpen students’ critical skills”. The Conversation, 20 février 2023. Disponible sur : https://theconversation.com/debate-chatgpt-offers-unseen-opportunities-to-sharpen-students-critical-skills-199264

Dwivedi Yogesh et al. “So what if ChatGPT wrote it? Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy”. International Journal of Information Management, 2023, vol. 71.
DOI : https://doi.org/10.1016/j.ijinfomgt.2023.102642

Kasneci Enkelejda et al. “ChatGPT for good ? On opportunities and challenges of large language models for education”. Learning and Individual Differences, 2023, vol. 103.
DOI : https://doi.org/10.1016/j.lindif.2023.102274

Rudolph Jürgen, Tan Samson and Tan Shannon. “ChatGPT: Bullshit spewer or the end of traditional assessments in higher education ?”. Journal of Applied Learning & Teaching, 2023, vol. 6, no.1.
DOI : https://doi.org/10.37074/jalt.2023.6.1.9

Sullivan Miriam, Kelly Andrew and McLaughlan Paul. “ChatGPT in higher education : Considerations for academic integrity and student learning”. Journal of Applied Learning & Teaching, 2023, vol.6, no.1.
DOI : https://doi.org/10.37074/jalt.2023.6.1.17

Benoît Crespin

Enseignant-chercheur en informatique à l’Université de Limoges (XLIM). 

Doit-on avoir peur de l’intelligence artificielle ?

L’intelligence artificielle, ou IA, est une technologie en plein essor qui a le potentiel de transformer de nombreux aspects de notre vie quotidienne. Certains se demandent si cette avancée technologique représente une menace pour l’humanité, alimentant ainsi la peur de l’IA.

Il est important de garder à l’esprit que l’intelligence artificielle n’est pas un concept homogène. Il existe différents types d’IA, allant des systèmes simples aux algorithmes [1] complexes capables d’apprendre et de s’adapter. Il est donc nécessaire de distinguer entre les différents niveaux de l’IA pour évaluer les risques potentiels.

L’intelligence artificielle présente indéniablement des avantages considérables. Elle peut améliorer notre efficacité, résoudre des problèmes complexes et contribuer à des domaines tels que la médecine, la recherche scientifique et l’exploration spatiale. Elle peut également automatiser des tâches répétitives, nous libérant ainsi pour des activités plus créatives et significatives.

Cependant, il est important de reconnaître les préoccupations légitimes concernant l’IA. L’une des principales inquiétudes concerne l’automatisation du travail et l’impact sur l’emploi. Certains emplois pourraient être remplacés par des machines intelligentes, ce qui nécessitera une adaptation de la société et la création de nouvelles opportunités professionnelles.

Une autre préoccupation est liée à l’éthique de l’IA. Les questions de confidentialité des données, de transparence des algorithmes et de biais algorithmique doivent être prises en compte pour éviter toute utilisation abusive ou discriminatoire de l’IA. Il est important de souligner que l’intelligence artificielle est un outil créé par l’homme. Sa conception, sa mise en œuvre et son utilisation sont entre nos mains. Cela signifie que nous avons la responsabilité de développer une IA éthique, respectueuse des droits de l’homme et bénéfique pour la société.

Alors, devons-nous avoir peur de l’intelligence artificielle ? Plutôt que d’avoir peur, nous devons être prudents, informés et engagés. L’IA représente une avancée technologique prometteuse offrant de nombreuses possibilités. Nous devons encourager sa recherche et son développement tout en restant conscients de ses limites et de ses conséquences potentielles. En veillant à son utilisation responsable, éthique et bénéfique pour l’humanité, nous pouvons jouer un rôle actif dans son évolution. 

[1] Un algorithme est une suite d’instruction permettant la collecte et le traitement massif de données.

Livres :

Cazals Chantal et Cazals François. L’intelligence amplifiée par la technologie. De Boeck Supérieur, 2020, 320 pages.

Sadin Éric. L’intelligence artificielle ou l’enjeu du siècle. L’échappée, 2018, 304 pages.

Rapports d’agences officielles françaises :

Villani Cédric et al. « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne. ». Rapport Officiel du Conseil national du numérique. 2018. Disponible sur: https://www.vie-publique.fr/rapport/37225-donner-un-sens-lintelligence-artificielle-pour-une-strategie-nation

De Ganay Claude et Gillot Dominique. « Pour une intelligence artificielle maîtrisée, utile et démystifiée ». Rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques. 2017. Disponible sur : https://www.senat.fr/rap/r16-464-1/r16-464-1.html

Pierre-Étienne Coudert

Ingénieur en pédagogie numérique à l’Université de Limoges (XLIM). 

Comment fonctionnent les casques de réalité virtuelle et de réalité augmentée ?

Les casques de réalité virtuelle ou de réalité augmentée permettent de créer une expérience immersive où les utilisateurs peuvent naviguer et interagir avec des environnements virtuels de manière réaliste. En forte croissance depuis quelques années, notamment dans le domaine du jeu vidéo, ces casques sont aussi de plus en plus utilisés dans l’industrie ou l’éducation.

À l’Université de Limoges, le Centre de simulation virtuelle en santé conçoit des environnements virtuels pour la formation des futurs personnels soignants, qui peuvent ainsi s’entraîner sans limite de temps ou de ressources avant de passer en conditions réelles.

Ces casques sont  des mini-ordinateurs intégrant un grand nombre de technologies différentes pour offrir une expérience immersive.

La première est l’affichage stéréoscopique, qui consiste à créer une illusion de profondeur et de relief en projetant deux images légèrement décalées sur chaque œil : notre cerveau va ensuite combiner ces images pour former une seule scène tridimensionnelle. De la même façon, un système de son spatialisé en 3D permet de produire une sensation d’immersion avec un son à 360°.

Un autre problème important concerne le suivi des mouvements du casque dès que l’utilisateur lève la tête, se tourne pour regarder dans une autre direction, etc. Les calculs nécessaires pour détecter un changement et modifier l’affichage doivent s’effectuer en un temps très court, de l’ordre de quelques millisecondes, de façon à obtenir un taux de rafraîchissement de 60 à 120 images par seconde. Si ce taux n’est pas atteint, le cerveau perçoit une anomalie qui peut entraîner une sensation de désorientation voire de nausée. On utilise pour cette tâche des capteurs similaires à ceux qu’on trouve dans les téléphones portables, comme les gyroscopes, les accéléromètres ou les magnétomètres qui mesurent en permanence les changements de rotation et de vitesse.

Des caméras sont également intégrées aux casques, avec pour fonction de détecter l’environnement réel autour de l’utilisateur. L’un des objectifs est de prévenir le risque de collision avec un mur ou des meubles dont l’utilisateur a peut-être perdu conscience en s’immergeant dans l’environnement virtuel. Dans le cas de la réalité augmentée, ces caméras vont aussi permettre de rajouter des éléments virtuels dans l’environnement réel grâce à des algorithmes de traitement d’images.

Enfin, la notion d’interaction avec l’environnement virtuel joue également un grand rôle. On utilise pour cela différents types de contrôleurs, le plus souvent des manettes dont la position dans l’espace est détectée en permanence (comme pour le casque). Cela permet à l’utilisateur de viser et de manipuler virtuellement un objet, ou bien de se téléporter dans une direction donnée.

De nouvelles technologies, comme les gants ou même les combinaisons connectées, annoncent des interactions de plus en plus complexes et de plus en plus proches de notre comportement dans le monde réel.

Institut national de recherche en sciences et technologies du numérique (INRIA), « Comment fonctionne la réalité virtuelle », 2021. Disponible sur : https://www.inria.fr/fr/comment-fonctionne-realite-virtuelle

Kim, Hojoong et al. “Recent Advances in Wearable Sensors and Integrated Functional Devices for Virtual and Augmented Reality Applications”. Advanced Functional Materials, 2021, vol. 31, no. 39. DOI : https://doi.org/10.1002/adfm.202005692

Trevor English. “VR Headsets Work through a Combination of Different Tracking Technologies”. Interesting Engineering, 2020. Disponible sur : https://interestingengineering.com/innovation/vr-headsets-work-through-a-combination-of-different-tracking-technologies

Angelov Vladislav et al. « Modern Virtual Reality Headsets ». International Congress on Human-Computer Interaction, Optimization and Robotic Applications, Ankara, Turkey, 2020.
DOI : https://doi.org/10.1109/HORA49412.2020.9152604

Heaney, David. “How VR Positional Tracking Systems Work”. UplaodVR, 2019.
Disponible sur : https://www.uploadvr.com/how-vr-tracking-works/

Vincent Mergnac

Ingénieur DSI à l’Université de Limoges.

Benoît Crespin

Enseignant-chercheur en informatique à l’Université de Limoges.

La technologie peut-elle sauver la planète ?

L’Homme, par son occupation de quasiment l’ensemble du globe et par sa technologie, a déjà largement modifié la planète et en particulier le climat de la Terre. Cependant, ces changements ont été réalisés sans volonté manifeste de mettre en danger la pérennité de l’écosystème planétaire. Aujourd’hui, face aux conséquences néfastes observées, il est tentant de trouver des solutions pour corriger ces dysfonctionnements et limiter les impacts. Dans le domaine du climat, c’est ce qu’on appelle la géo-ingénierie.

La géo-ingénierie consiste à agir sur l’un des éléments du système, tels que les gaz à effet de serre, en capturant et stockant le CO2, ou en agissant sur le rayonnement solaire en envoyant des micro-particules dans l’atmosphère pour intercepter une partie de ce rayonnement. Bien que ces solutions puissent sembler cohérentes avec les lois de la physique, l’ampleur de leur impact sur le réchauffement climatique n’est pas entièrement connue. Les conséquences qu’elles pourraient avoir sur l’ensemble du système Terre sont difficiles à prévoir, car toutes les composantes de ce système sont étroitement interconnectées.

Le GIEC [1], qui examine l’essentiel des connaissances sur le changement climatique, a analysé dans ses derniers rapports toutes les technologies associées au captage de CO2 et à la manipulation du rayonnement solaire. Les conclusions indiquent qu’elles ne sont, en général, pas à la hauteur pour résoudre à elles seules l’équation du bilan radiatif terrestre [2] et donc sa perturbation par les activités humaines. Si la captation de CO2 peut s’envisager sur les sites qui en produisent beaucoup, comme les cimenteries, elle ne pourra pas capter efficacement le CO2 émis de manière diffuse. Aucune solution n’existe pour capter le méthane, deuxième gaz responsable de l’effet de serre additionnel dû aux activités humaines.

Il y a consensus pour dire que la géo-ingénierie ne pourrait pas maintenir le climat à sa situation actuelle ni revenir au climat préindustriel. D’autre part, la modification du rayonnement solaire, pour neutraliser l’impact des gaz à effet de serre sur le bilan radiatif, ne résoudra pas le problème de l’acidification des océans et ses conséquences sur la vie marine.

Par ailleurs, le GIEC rapporte des études montrant l’apparition ou l’augmentation d’autres risques potentiels associés à la mise en œuvre de ces techniques, notamment sur la biodiversité, la production alimentaire ou le dérèglement de climats locaux. Ces risques pourraient annuler les effets positifs espérés.

Notons également que ces technologies auraient un effet limité dans le temps et , si elles étaient stoppées, cela entraînerait un réchauffement quasi immédiat (sur quelques années).

La géo-ingénierie ne paraît pas en mesure de contrôler le système Terre. Même si l’utilisation de diverses technologies, comme les énergies renouvelables, puisse aider à réduire les émissions de gaz à effet de serre et à s’adapter à un climat plus chaud, elles ne représentent qu’un accompagnement pour maintenir un climat favorable aux sociétés humaines pour les siècles à venir.

[1] GIEC : groupe intergouvernemental sur l’évolution du climat

[2] C’est la quantité d’énergie reçue par le système climatique Terre-atmosphère et la quantité d’énergie réémise vers l’espace.

GIEC. “Climate Change 2022 : Mitigation of Climate Change”. Contribution du Groupe de travail III au sixième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat. Chapitre 14, pp. 1489-1492. 2022. Disponible sur : https://www.ipcc.ch/report/ar6/wg3/downloads/report/IPCC_AR6_WGIII_SummaryForPolicymakers.pdf

Michel Galliot

Michel Galliot est ingénieur de l’École Nationale de la Météorologie. II a dirigé le centre météorologique de Limoges pendant 10 ans. Il a été chef de la mission scientifique française à Dumont d’Urville en Antarctique pour l’année 2000. Il a travaillé à l’Observatoire national sur les effets du réchauffement climatique (ONERC) où il a coordonné le premier plan national d’adaptation au changement climatique. Il est également président de Limousin nature environnement, la fédération des associations de défense de l’environnement.

Est-ce que le numérique est responsable de l’impossibilité de contrer le réchauffement climatique ?

Le réchauffement actuel et à venir du climat de la Terre est principalement causé par les émissions de gaz à effet de serre issues des activités humaines, lesquelles augmentent leur concentration dans l’atmosphère en s’additionnant à celle d’origine naturelle. On parle alors d’effet de serre additionnel. Ces gaz, par ordre d’importance de leur contribution actuelle au réchauffement, sont le CO2, le méthane, l’ozone, les gaz fluorés et le protoxyde d’azote N2O.

Pour limiter le réchauffement et le stopper, il faut donc diminuer ces émissions. Dans leur 6e rapport en 2022, les experts du GIEC ont indiqué les solutions à mettre en œuvre pour y arriver telles que la sobriété numérique, c’est-à-dire baisser nos usages, limiter la production de déchets électroniques et utiliser des énergies renouvelables.

L’usage des technologies numériques contribue au processus de réchauffement climatique, principalement en raison de l’énergie nécessaire à la fabrication des matériels et à leur utilisation. Si l’énergie est issue de ressources fossiles comme le charbon, le gaz ou le pétrole, elle génère des émissions de CO2. La fabrication des équipements (terminaux, serveurs, etc.) compte pour 79 % des impacts tandis que leur usage (qui comprend le réseau et les Data Center) ne représente que 21 %.

Actuellement, on considère que ces technologies concernent entre 3 à 4 % de l’empreinte carbone mondiale et 2,5 % de l’empreinte carbone de la France. Mais ce secteur est en croissance rapide et la tendance actuelle va conduire à une augmentation de 45 % de cette empreinte en 2030 en France.

Les technologies numériques et leur usage ne peuvent pas avoir une responsabilité plus grande que leur faible poids dans l’empreinte carbone. La question recouvre sans doute une autre inquiétude : l’essor du numérique.Le numérique, en s’imposant dans notre vie quotidienne, risque-t-il de nous détourner des bonnes décisions pour limiter le changement climatique ?

L’aspect quasi magique du numérique et de ses avancées comporte un risque : celui de croire qu’il résoudra la crise du réchauffement climatique, peut-être en créant un monde virtuel où nous pourrions piloter le climat à l’aide d’une manette de jeu. Dans cette optique, modifier nos modes de vie et adopter des comportements économes en énergies et en ressources semblerait inutile. Malheureusement, la réalité est bien différente et un retour brutal à celle-ci pourrait être douloureux.

La réponse à cette question est sociale plutôt que technologique. N’oublions donc pas de continuer à observer le monde réel avec nos propres yeux, en portant attention à la nature ainsi qu’aux individus qui nous entourent.

Bordage Frédéric. « Empreinte environnementale mondiale du numérique ». Étude GreenIT.
Disponible sur : https://www.greenit.fr/etude-empreinte-environnementale-du-numerique-mondial/

ADEME-ARCEP. Évaluation de l’impact environnemental du numérique en France et analyse prospective : analyse prospective à 2030 et 2050. 2022.
Disponible sur : https://www.arcep.fr/uploads/tx_gspublication/etude-prospective-2030-2050_mars2023.pdf

GIEC. “Climate Change 2022 : Mitigation of Climate Change”. Contribution du Groupe de travail III au sixième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat. 2022. Disponible sur : https://www.ipcc.ch/report/ar6/wg3/downloads/report/IPCC_AR6_WGIII_SummaryForPolicymakers.pdf

Michel Galliot

Michel Galliot est ingénieur de l’École Nationale de la Météorologie. II a dirigé le centre météorologique de Limoges pendant 10 ans. Il a été chef de la mission scientifique française à Dumont d’Urville en Antarctique pour l’année 2000. Il a travaillé à l’Observatoire national sur les effets du réchauffement climatique (ONERC) où il a coordonné le premier plan national d’adaptation au changement climatique. Il est également président de Limousin nature environnement, la fédération des associations de défense de l’environnement.

La généralisation de l’usage informatique cause-t-elle de nouvelles guerres, voire de plus en plus de cyberguerres ?

La société se digitalise dans tous ses aspects, encouragée par les politiques publiques à tout niveau afin d’améliorer la productivité et les rendements, de réduire les coûts économiques et éventuellement l’empreinte environnementale. Elle se généralise aussi pour offrir davantage de services et de meilleures qualités aux citoyens. Aucun acteur n’y échappe, des très petites entreprises (TPE) aux multinationales en passant par différents opérateurs et services locaux, territoriaux ou nationaux [1]. Les citoyens, eux-mêmes, s’équipent également avec de nombreux dispositifs connectés. Ce sont une diversité de cibles pour les ennemis d’une nation (États ou groupes d’influence).

Dans le domaine des infrastructures critiques, les cyberattaques peuvent avoir des conséquences dévastatrices. Par exemple, en 2015, lors d’une intervention militaire russe en Ukraine, des hackers soutenus par un État ont réussi à pénétrer les réseaux de distribution d’électricité. Cela a entraîné une coupure de courant majeure touchant des centaines de milliers de personnes. Cette attaque a mis en évidence la vulnérabilité des systèmes électriques face aux cyberattaques, ainsi que les motivations des États à déstabiliser leurs adversaires.

On peut aussi faire référence à l’affaire dite « Big Hack » (2014-2015) dans laquelle des pirates informatiques soutenus par l’État chinois auraient réussi à infiltrer les chaînes d’approvisionnement de plusieurs entreprises technologiques majeures en insérant des micro-puces malveillantes dans des serveurs. Cette attaque aurait permis aux pirates de potentiellement accéder à des données sensibles et de compromettre la sécurité de ces systèmes. Les micro-puces malveillantes étaient conçues pour être discrètes (taille d’un grain de riz) et exécuter des tâches spécifiques telles que l’exfiltration de données ou la création de points d’accès non autorisés. Cette attaque a suscité de vives préoccupations quant à la sécurité des infrastructures critiques et a renforcé le besoin de protéger les chaînes d’approvisionnement technologiques contre de telles menaces.

Globalement, ce qu’on constate, c’est que la digitalisation croissante permet surtout la massification des attaques et de leur impact.

Pour faire face à ces cybermenaces, l’État français a créé, en 2013, au travers de la loi de programmation militaire, la notion d’Opérateurs d’Importance Vitale dont la liste regroupent aujourd’hui plus de 200 opérateurs publics ou privés. Leurs activités sont indispensables au bon fonctionnement et à la survie de la Nation. En 2018, l’État français a transposé la directive européenne NIS (Network and Information Security) de 2016 pour définir la notion d’Opérateur de Service Essentiel pour l’Europe. Aujourd’hui, la directive NIS 2 de 2020 vient encore préciser les secteurs d’activité concernés et définir une meilleure granularité grâce aux notions d’entité « essentielle » et d’entité « importante ».

Est-ce que cela empêchera les cyberguerres ? Non car la cybersécurité est une course permanente entre les attaquants et les défenseurs. Toutefois, même si certains États avaient une longueur d’avance en matière offensive, la France et l’Europe, par exemple, prennent conscience des cybermenaces et mettent en place des politiques pour s’en protéger.

[1] Par exemple, les stations de traitement des eaux, les stations d’épuration, les mairies, les hôpitaux, les réseaux de transport, les réseaux bancaires, etc.

Electricity Information Sharing and Analysis Center (E-ISAC). “Analysis of the Cyber Attack on the Ukrainian power grid” [Defense Use Case]. 2016. Disponible sur : https://icscsi.org/library/Documents/Cyber_Events/E-ISAC%20-%20Analysis%20of%20the%20Cyber%20Attack%20on%20the%20Ukrainian%20Power%20Grid.pdf

Mehta Dhawni et al. “The Big Hack explained: Detection and Prevention of PCB Supply Chain Implants”. ACM Journal on Emerging Technologies in Computing Systems (JETC), 2020, vol. 16, no. 4, p. 1-25.
DOI : https://doi.org/10.1145/3401980

Verhoeven Yves. Directives NIS 2 : ce qui va changer pour les entreprises et l’administration françaises. Cyber.gouv. 2023.
Disponible sur : https://www.ssi.gouv.fr/directive-nis-2-ce-qui-va-changer-pour-les-entreprises-et-ladministration-francaises/

Damien Sauveron

Doyen de la FST et enseignant-chercheur à l’Université de Limoges (XLIM).

La réalité virtuelle va-t-elle remplacer nos écoles ?

Derrière cette question transparait la question de la peur du remplacement de l’homme par la machine. De nombreux domaines sont concernés dont celui de la formation.

La réalité virtuelle (VR) appartient au domaine de la réalité étendue qui va de l’environnement réel, natif, à la réalité virtuelle. La réalité mixte et la réalité augmentée se situent entre ces deux extrémités. La VR, quant à elle, peut être diffusée sous deux formes de contenus : une captation à 180° (peu coûteuse avec faible interactivité) ou la réalisation d’un univers virtuel modélisé (coûteux mais avec une forte interactivité).

La VR ne va pas remplacer nos écoles, il faut la considérer comme un atout transformant nos modalités d’apprentissage. Avec son caractère immersif (vue, ouïe), elle dépasse l’imagination et mobilise l’entière attention des apprenants. Ainsi, dans le cadre d’une situation d’apprentissage, les ancrages mémoriels sont renforcés.

La VR un excellent outil permettant de contextualiser des situations rares, dangereuses, coûteuses. L’apprenant peut répéter, où il veut, quand il veut et autant de fois qu’il le veut un geste ou une démarche. Grâce à l’interactivité, il est plongé dans un cadre d’un processus d’apprentissage actif propre à la pédagogie constructiviste. L’immersion des apprenants dans des environnements virtuels permet aussi de travailler les compétences non techniques (soft skills).

Cependant, la VR à elle seule ne peut pas remplacer la formation en présentiel et la transmission du savoir d’humain à humain. Elle est redoutablement performante lorsqu’elle est couplée à des modules en présentiel (apprentissage mixte). En effet, il ne faut pas oublier qu’il s’agit d’une technique de simulation et qu’à ce titre l’apprenant doit bénéficier d’un retour d’expérience ou de débriefing.

La VR présente également des limites telles que le coût, la mauvaise tolérance de l’expérience immersive (nausée virtuelle) ainsi que la péremption et les mises à jour sans cesse nécessaires.

Il faut former les formateurs à ces nouveaux usages et de repenser le parcours des apprenants. La VR est un outil pédagogique qui doit être intégrer au sein des curriculum des apprenants avec les autres modalités pédagogiques en fonction des objectifs à atteindre.

Gobin Mignot Émilie, Wolff Bertrand. Former avec la réalité virtuelle. Comment les techniques immersives bouleversent l’apprentissage, Avec la collaboration de Kempf Noémie. Éditions Dunod, « Hors collection », 2019, 192 pages.
DOI : https://doi.org/10.3917/dunod.ignot.2019.01

Fuchs Philippe. Théorie de la réalité virtuelle : les véritables usages. Presse des Mines, 2018,b368 pages.

Laurent Fourcade

Chirurgien pédiatrique et enseignant-chercheur à l’Université de Limoges. 

Y a-t-il des applications autres que le jeu à la VR ?

L’un des grands atouts de la réalité virtuelle (VR) est sa capacité à rendre perceptible pour le cerveau humain un évènement, un concept ou un objet, sous une forme virtuelle, libérée des contraintes du réel.

La VR est un outil de simulation dont nous allons voir les atouts. Or, le principe même de la simulation reste basée sur le jeu.

La réalité virtuelle est une formidable opportunité pour la conception d’expérience et de parcours apprenants, grâce aux possibilités suivantes :

–         Disponibilité à la demande (temps, lieux) comme beaucoup d’outils d’e-learning

–         Répéter un geste à l’infini (Chirurgie, SNCF, Peinture industrielle, KFC)

–         Libérer du risque et donner le droit à l’erreur (santé, situations dangereuses)

–         Interactivité (participation active de l’apprenant)

–         Parcours évolutifs grâce à l’IA (intelligence artificielle)

–         Mesurables (traces d’apprentissages, etc.).

 

Quelques exemples d’utilisation de la VR en dehors du jeu

Domaine de la santé – pour les patients :

–         Rééduquer de patients porteurs de troubles musculo-squelettiques;

–         Lutter contre les douleurs des membres fantômes (activation des neurones miroirs);

–         Thérapie de réminiscence pour les personnes atteintes de démence et d’Alzheimer : lorsque la technologie immerge les utilisateurs dans un lieu ou une activité familière, ils peuvent accéder à des souvenirs à long terme, ce qui leur serait autrement impossible;

–         Préparer des patients à un soin douloureux (distraction).

Domaine de la santé – pour les soignants :

–         Chambre des erreurs (outil de simulation pour prévenir les erreurs au bloc opératoire) couplées à un système d’eye tracking [1]. Cela permet d’apporter des résultats fiables : les mouvements du regard sont inconscients et reflètent précisément les processus cognitifs engagés dans un contexte réel d’utilisation;

–         Préparation d’une intervention (modélisation d’une tumeur);

–         Formation initiale des internes en chirurgie.

Développement de produits : 

–         Maquette produit (accélération du développement d’un nouveau modèle),

–         Test du produit à grande échelle,

–         Formations des employées travaillant sur une chaîne de montage,

–         Lutter contre les troubles musculo-squelettiques.

Formations en milieux hostiles :

–         Pompiers,

–         Maintenances centrales nucléaires.

Visites virtuelles d’un site :

–         Lever les fausses représentations,

–         Empowerment d’équipes[2],

–         Aménager des maisons, des entreprises, etc.

De nombreux domaines en dehors du gaming ont su s’approprier la VR, outil de formation devenu indispensable.

[1] L’eye tracking (ou oculométrie) permet de mesurer le mouvement des yeux et d’analyser les zones qui sont vues, lues, utilisées ou ignorées.
[2] L’empowerment des équipes est un type de management qui consiste à donner aux membres d’une équipe le pouvoir, l’autorité, la responsabilité et les ressources nécessaires pour prendre des décisions, résoudre des problèmes et accomplir des tâches de manière autonome.

Idriss Mohamad et al. “Rehabilitation-Oriented Serious Game Development and Evaluation Guidelines for Musculoskeletal Disorders. JMIR Serious Games, 2017, vol. 5, no. 3. DOI : 10.2196/games.7284

Pelaccia Thierry. Comment (mieux) former et évaluer les étudiants en médecine et en sciences de la santé ? De Boeck Supérieur, 2016, 480 pages.

Gobin Mignot Émilie, Wolff Bertrand. Former avec la réalité virtuelle. Comment les techniques immersives bouleversent l’apprentissage, Avec la collaboration de Kempf Noémie. Éditions Dunod, « Hors collection », 2019, 192 pages.
DOI : https://doi.org/10.3917/dunod.ignot.2019.01

Laurent Fourcade

Chirurgien pédiatrique et enseignant-chercheur à l’Université de Limoges.

Le développement du numérique peut-il nous permettre de diminuer notre empreinte carbone ?

L’empreinte carbone est calculée suivant une méthode d’évaluation environnementale basée sur l’analyse du cycle de vie. Elle prend en compte les émissions de gaz à effet de serre (GES) de chacune des étapes du cycle de vie des équipements concernés, de leur fabrication à leur fin de vie, en passant par la distribution et l’utilisation.

Pour les études d’empreinte carbone, le numérique est généralement décomposé par infrastructures :

– Terminaux : comprend les terminaux utilisés par les utilisateurs finaux tels que les ordinateurs, les écrans, les box TV et les objets connectés (notamment les capteurs, la domotique…)

– Réseaux/transmission : comprend les infrastructures réseaux pour les échanges de données entre les terminaux des utilisateurs finaux et les centres de données. Le réseau est composé d’un réseau fixe, d’un réseau mobile et d’un réseau dorsal.

– Datacenters : comprend les équipements liés à l’hébergement et au traitement des données (serveurs, disques, équipements réseau…).

D’après l’ADEME [1], l’empreinte carbone moyenne du numérique pour un français, en 2020, est de 253 kgCO2e/habitant [2], ce qui représente un total de 17,2 MtCO2e en France. Pour vous donner une idée, cela correspond à un trajet de 2 500 km en voiture avec moteur thermique. Ces émissions représentent 2,5 % des émissions totales de CO2 en France (et 4 % dans le monde) et pourrait augmenter jusqu’à 7-8 % en 2050.

En France, voici comment les émissions de GES sont réparties dans le domaine du numérique : 79 % proviennent des terminaux, 5 % des réseaux et 16 % des Datacenters. [1].

Le numérique pourrait contribuer à diminuer l’empreinte carbone, mais il est peu probable qu’il parvienne à le faire entièrement.

Pourquoi le numérique pourrait contribuer à diminuer l’empreinte carbone ?

Dématérialisation : Par exemple, la musique, les films, les livres et les journaux peuvent être distribués sous forme numérique plutôt que physique, ce qui permet de réduire la production, le transport et la gestion de supports matériels. Selon une étude de l’ADEME, la dématérialisation des médias a permis de réduire les émissions de CO2 de 1,4 million de tonnes en France en 2018 (émissions de GES en France : 408 MtCO2).

Réduction des déplacements physiques : La visioconférence et le télétravail réduisent la nécessité de voyager, ce qui entraîne une diminution des émissions liées aux transports. Selon une étude réalisée par l’Agence internationale de l’énergie (AIE ou IEA en anglais), les technologies numériques pourraient réduire les émissions de GES d’environ 1,4 gigatonne d’ici 2030 (actuellement, les émissions de GES dans le monde sont de 59 GtCO2e/an) en substituant les déplacements physiques par des communications à distance [2]. Par exemple, une réunion de 4 h à Paris (avec un aller-retour depuis Limoges, soit 800 km) pourrait être remplacée par une visioconférence. Pour mieux illustrer l’impact sur l’empreinte carbone, voici une comparaison :

– déplacement en voiture avec moteur thermique : l’empreinte carbone pour 1 km en voiture est de 218 gCO2e (192 gCO2e pour carburant – 26 gCO2e pour construction),

– déplacement en train : l’empreinte carbone est de 2 gCO2e/km,

– visioconférence en HD : 200 gCO2e.

Ainsi, une réunion de 4 h en visioconférence émettrait environs 200 gCO2e tandis qu’un déplacement en voiture thermique sur une distance de 800 km générerait environ 153 600 gCO2e et en train environ 1 600 gCO2e.

Optimisation des ressources et de l’énergie : Les technologies numériques, telles que l’Internet des objets (IoT) et les systèmes de gestion intelligents, permettent une meilleure utilisation des ressources et une optimisation de l’efficacité énergétique. Par exemple, la mise en place de capteurs intelligents dans les bâtiments permet de surveiller et de contrôler la consommation d’énergie, réduisant ainsi les gaspillages. Selon une étude de l’AIE, l’IoT appliqué à l’énergie pourrait réduire les émissions de CO2 de 0,9 à 1,6 gigatonne d’ici 2030 [2].

 

Pourquoi le numérique ne le fera pas ?

Depuis longtemps, les efforts pour économiser les ressources et l’énergie sont constants, mais les progrès technologiques sont souvent contrebalancés par une augmentation de l’utilisation et des changements de comportement. C’est ce qu’on appelle l’effet rebond.

Selon le scénario « Technologies Vertes » pour 2050, qui mise davantage sur le développement technologique que sur la sobriété, on prévoit une multiplication par cinq des équipements (dont une multiplication par quinze des objets connectés). Cela entraînerait une augmentation de 187 % de l’empreinte carbone, soit 49.5 MtCO2e, et une hausse de la consommation d’énergie de 79 %, passant de 52 TWh en 2020 à 93 TWh en 2050. [1]

Il est donc crucial de questionner la pertinence et l’utilité réelle des nouveaux services numériques tels que Netflix [3], ChatGPT, 5G [4], et autres, et de réfléchir à leur véritable valeur ajoutée pour l’humanité.

Pour conclure, l’empreinte carbone dû à des recherches numériques a été de 160 gCO2e [5], ce qui équivaut à l’envoi de 64 mails, ou à deux heures de streaming, ou à un kilomètre en voiture thermique ou à 80 km en train.

[1] ADEME : Agence de l’environnement et de la maîtrise de l’énergie
[2] L’équivalent CO2 (CO2e) est une unité de mesure visant à uniformiser l’effet climatique des différents gaz à effet de serre.

[1] Perasso Étienne et al. Évaluation environnementale des équipements et infrastructures numériques en France [Rapport]. 2022, 262 pages. Disponible sur : https://www.arcep.fr/uploads/tx_gspublication/etude-numerique-environnement-ademe-arcep-volet02_janv2022.pdf

[2] Digitalization and Energy. IEA. 2022. Disponible sur : https://iea.blob.core.windows.net/assets/b1e6600c-4e40-4d9c-809d-1d1724c763d5/DigitalizationandEnergy3.pdf

[3] Efoui-Hess Maxime. Climat : L’insoutenable usage de la vidéo en ligne. 2019. Disponible sur : https://theshiftproject.org/wp-content/uploads/2019/07/2019-01.pdf

[4] Ferreboeuf Hugues. Impact environnemental du numérique : tendances à 5 ans et gouvernance de la 5G. Mise à jour des scénarios prospectifs des impacts du numérique mondial et propositions pour le déploiement d’une 5G raisonnée. 2021.Disponible sur : https://theshiftproject.org/wp-content/uploads/2021/03/Note-danalyse_Numerique-et-5G_30-mars-2021.pdf

[5] Extension de navigateur Carbonalyser par The Shift Project. Cette extension permet de visualiser la consommation électrique et les émissions de gaz à effet (GES) associées à une navigation internet.
Disponible sur : https://addons.mozilla.org/fr/firefox/addon/carbonalyser/

Bruno Beillard

Enseignant dans le département Mesures Physiques de l’IUT du Limousin. Responsable du Parcours Mesures et Analyses Environnementales (enjeux environnementaux et énergétiques). Chercheur au laboratoire XLIM – pôle électronique/Antennes et Signaux CEM et Diffraction.

Quentin Lagarde

Diplômé d’un master Science de l’Océan, de l’Atmosphère et du Climat en 2019. Ingénieur de recherche au laboratoire XLIM. Travaille sur des projets énergétiques, notamment sur les réseaux énergétiques intelligents ou encore l’amélioration des durées de vie des batteries.


Usages numériques


Y a-t-il des cas où l’anonymat sur Internet puisse être levé ?

La question semble partir de la prémisse que l’anonymat sur Internet existe, et que le fait de lever cet anonymat est une exception. Or, comme nous allons le voir par la suite, c’est l’inverse. En général, l’utilisateur n’est pas du tout anonyme sur Internet (malgré l’illusion de l’être) sauf si un effort considérable est fait pour le rendre anonyme.

Qu’est-ce que l’anonymat ?

On peut distinguer deux types d’anonymats : l’anonymat d’activité et l’anonymat d’identité.

1 – L’anonymat d’activité :

L’anonymat d’activité concerne la dissimulation des actions en ligne d’une personne. Il peut être obtenu par différents moyens notamment à travers le mode incognito disponible sur les navigateurs. Ce mode permet :

– de ne pas conserver d’historique de navigation, assurant ainsi que les sites visités ne soient pas enregistrés localement sur l’ordinateur,

– de bloquer les cookies, empêchant ainsi les réseaux sociaux comme Facebook ou Twitter de reconnaître l’utilisateur et de suivre son activité.

Cependant, malgré ces précautions, la destination des communications peut être identifiée de différentes manières :

– à travers l’adresse du site visité, qui peut être connue par le moteur de recherche utilisé pour y accéder,

– par le fournisseur d’accès Internet (FAI), qui est conscient des requêtes effectuées par l’utilisateur et des sites auxquels il accède,

–         si un VPN (Virtual Private Network) est utilisé, le fournisseur du VPN peut également avoir connaissance des sites visités par l’utilisateur.

2 – L’anonymat d’identité :

L’anonymat d’identité vise à cacher l’identité réelle de l’utilisateur. Cependant, divers éléments matériels peuvent compromettre cet anonymat :

– le numéro unique de votre interface WiFi peut être découvert lors de chaque échange avec un point d’accès WiFi, exposant ainsi votre identité,

– votre téléphone mobile possède un numéro mondial unique, pouvant être récupéré par des attaquants à l’aide de dispositifs tels que les IMSI-Catchers qui maintiennent une communication radio constante pour vous localiser et potentiellement vous écouter,

– votre interface Bluetooth dispose également d’un numéro mondial unique, pouvant être découvert lorsque vous liez un nouveau périphérique Bluetooth.

En ce qui concerne l’utilisation de crypto-monnaies, bien que votre identité soit cachée derrière une identité cryptographique comme une adresse bitcoin, vos habitudes d’achat et les relations avec différents interlocuteurs peuvent révéler votre identité [1].

Pour contrer ces risques, des solutions cryptographiques sont envisagées :

– l’utilisation de plusieurs identités cryptographiques avec des crypto-monnaies comme Monero [2],

– Tor [3], un outil qui masque l’origine et la destination des transmissions en utilisant du chiffrement et des techniques de mixage, ce qui permet de cacher des informations telles que l’adresse IP de l’expéditeur et du destinataire,

– le chiffrement homomorphe, une méthode permettant d’effectuer des opérations sur des données chiffrées sans compromettre la confidentialité des informations initiales. Par, exemple, dans le domaine médical, cette technique permet aux chercheurs d’analyser des données chiffrées provenant de différents hôpitaux sans jamais accéder aux informations des patients.

[1] Ghesmati Simi et al. “Studying Bitcoin Privacy Attacks and Their Impact on Bitcoin-Based Identity Methods”. Business Process Management: Blockchain and Robotic Process Automation Forum. BPM 2021. Lecture Notes in Business Information Processing, vol 428. Springer, Cham.
DOI : https://doi.org/10.1007/978-3-030-85867-4_7

[2] Pour en savoir plus sur la cryptomonnaie Monero : https://www.getmonero.org/fr/get-started/what-is-monero/

[3] Döpmann Christoph, Tschorsch Florian. “Modeling Tor Network Growth by Extrapolating Consensus Data”. ARES, 2023, no. 29. DOI : https://doi.org/10.1145/3600160.3600164

[4] Pierrick Méaux. Hybryd fully homomorphic framework. Thèse de Doctorat. Université Paris sciences et lettres, 2017. English. Disponible sur : https://hal.science/tel-01665358v2

Pierre-François Bonnefoi

Enseignant-chercheur à l’Université de Limoges (XLIM).

Qu’est-ce qu’une blockchain ?

Selon la Commission Nationale de l’Informatique et des Libertés, une blockchain est « une technologie de stockage et de transmission d’informations, transparente, sécurisée et fonctionnant sans organe central de contrôle » [CNIL]. Autrement dit, une blockchain est une technologie qui permet à un nombre d’utilisateurs d’établir et de mettre à jour une vérité commune, par un processus transparent (tous les utilisateurs voient chaque mise à jour et chaque état intermédiaire), sécurisé (il n’y a pas moyen de modifier, ni d’effacer la vérité commune établie) et décentralisée (la sécurité et la visibilité du système ne dépend pas d’une seule entité).

Mais, on pourrait demander, la blockchain n’est pas un synonyme pour la cryptomonnaie ?

Non. La cryptomonnaie utilise une blockchain pour assurer un traçage transparent, sécurisé et décentralisé des transactions monnetaires effectuées. On peut donc dire que la cryptomonnaie est une application de la blockchain.

Pascal Lafourcade, Professeur des Universités à l’Université Clermont Auvergne et auteur du livre Les blockchains en 50 questions [DLT+22], explique le fait que la technologie blockchain a de très nombreuses applications en dehors de la cryptomonnaie, et on n’est qu’au début de découvrir le potentiel de cette technologies. Je peux citer par exemple des applications dans les schémas de vote électronique, où la blockchain stocke les votes [CYL+18], ou dans des schémas d’achat aux enchères [LNP+19] où la blockchain témoigne la séquence des offres (bids). La blockchain est également très souvent utilisée dans des contracts intelligents (smart contracts) : notamment des contracts qui peuvent être adaptés et mis à jour d’une façon adaptative. Dans ce cas d’usage la blockchain témoigne d’une façon sécurisée de la séquence d’événements et de mises à jour du contrat.

D’un point de vue cryptographique, la blockchain présente plusieurs défis techniques. Par exemple, on a la notion de séquence : comment peut-on s’assurer de la séquence de mises à jour de la block chain ? Une façon de réaliser cela est d’utiliser une fonction de hachage cryptographique résistante aux collisions, qui atteste une séquence correcte d’événements. Une autre question intéressante est : comment un nombre potentiellement très large des utilisateurs peuvent-ils se mettre d’accord sur une seule version de la vérité, et ceci, sans autorité centrale qui dicte la vérité ? Ceci demande l’établissement d’un consensus cryptographique. Finalement, comment s’assurer de la légitimité de chaque information transmise ? C’est là qu’on rencontre des concepts comme une preuve de travail (proof of work) ou une preuve d’intérêt (proof of stake).

Pour conclure : la blockchain est une façon distribuée, sécurisée et transparente de se mettre d’accord sur et de mettre à jour, une réalité commune.

[1] CNIL. Blockchain. Dans CNIL. Disponible sur : https://www.cnil.fr/fr/definition/blockchain

[2] Dumas Jean-Guillaume et al. Les blockchains en 50 questions : Comprendre le fonctionnement de cette technologie. Dunod, « Hors collection », 2022, 320 pages.

[3] Chaieb Marwa et al. “Verify-Your-Vote: A Verifiable Blockchain-Based Online Voting Protocol”. 15th European Mediterranean and Middle Eastern Conference on Information Systems. Oct 2018, Limassol, Cyprus. ⟨hal-01874855⟩

[4] Lafourcade Pascal et al. “Security Analysis of Auctionity: A Blockchain Based E-Auction”. International Symposium on Foundations & Practice of Security FPS 19. Nov 2019, Toulouse, France. ⟨hal-02412800⟩

Cristina Onete

Enseignant-chercheuse à l’Université de Limoges (XLIM).

Est-ce que ChatGPT est vraiment capable de répondre à une question ?

ChatGPT est un outil très puissant, avec une base de connaissances très significative, qui arrive à répondre à beaucoup de questions.

Il faut savoir qu’il y a certaines questions auxquelles ChatGPT ne tentera même pas de répondre, car il a été programmé pour agir d’une façon éthiquement responsable. Donc si vous voulez savoir comment assassiner votre femme, cherchez ailleurs.

Est-ce que la réponse est correcte à chaque fois ? Est-elle complète ?

Voici une petite expérience que j’ai faite avec ChatGPT. Mon domaine de recherche est la cryptographie. Dans la cryptographie moderne, il faut souvent effectuer des calculs sur des nombres très grands, parfois de plus de 100 chiffres. J’ai demandé à ChatGPT de multiplier deux nombres de 15 chiffres chacun. Il s’est trompé de résultat par un facteur de 1000 : le nombre qu’il a donné était au moins 1000 fois plus petit que le résultat correct. Dans ce cas précis, ChatGPT a fourni cette réponse sans me montrer son raisonnement, et il a eu tort. Cela signifie que la version actuelle de ChatGPT n’est pas vraiment adaptée à la cryptographie.

ChatGPT est limité, mais fait-il ce qu’on lui demande ?

Oui et non. J’ai demandé à ChatGPT de m’écrire un programme dans le langage Python qui faisait le produit des deux nombres de 15 chiffres dont je vous ai parlé. Une fois le programme écrit, je lui ai demandé de l’exécuter et de me donner le résultat. Le code que j’ai reçu était correct. Je l’ai exécuté sur ma machine et j’ai eu la réponse correcte pour le produit des deux nombres. Cependant, le résultat donné par ChatGPT après avoir, soi-disant, exécuté le code, a été le même que la première fois, c’est-à-dire, le résultat erroné par un facteur de 1000.

ChatGPT est un outil prometteur mais il présente encore des failles importantes. En dehors des produits de nombres très grands, il a du mal avec le raisonnement complexe logique. Il joue moins bien au MOTUS que vous, comme cela a été observé [1].

Réjouissez-vous donc, les jours de Skynet ne sont donc pas encore arrivés !

[1] Madden Michael. “ChatGPT struggles with Wordle puzzles, which says a lot about how it works”. The Conversation, 2023. Disponible sur : https://theconversation.com/chatgpt-struggles-with-wordle-puzzles-which-says-a-lot-about-how-it-works-201906

Cristina Onete

Enseignant-chercheuse à l’Université de Limoges (XLIM).

Comment le chiffrement fonctionne-t-il ?

À sa base, un schéma de chiffrement (incorrectement appelé « cryptage » de données) a pour but de garantir la confidentialité d’un texte clair. Shafi Goldwasser et Silvio Micali, détenteurs du prix Turing pour leurs contributions à la cryptographie moderne, ont formellement précisé en 1984 [1] ce que la confidentialité d’un message voulait dire : étant donné un texte chiffré qui est soit le chiffrement d’un mot A ou d’un mot B, les deux mots connus et choisis par l’attaquant, l’attaquant est incapable de savoir si le texte chiffré cache le mot A ou le mot B.

Ce n’est donc pas seulement qu’un texte chiffré cache le texte clair : le chiffrement ne doit fuiter ni même un bit d’information sur le texte clair.

Comment donc arriver à garantir cette propriété ?

Je voudrais partir d’un exemple, le fameux chiffre de Vernam, nommé ainsi par l’un de ses inventeurs, Gilbert Vernam [2]. Le chiffre de Vernam s’appelle également le chiffrement par masque jetable. Ce chiffre est un exemple de chiffrement à clé symétrique : la clé utilisée pour chiffrer un message est la même que celle utilisée pour le déchiffrer. Dans le chiffrement à masque jetable, à chaque fois que l’on veut chiffrer, on choisit une clé de la même taille et provenant d’un même alphabet que le texte clair. On appelle cette clé un masque, puisqu’elle nous aide à masquer le texte clair. Par exemple, si on veut chiffrer un mot écrit dans l’alphabet anglais de 26 lettres, alors la clé sera une chaine aléatoire des lettres du même alphabet, de la même taille que le mot. Ensuite, lettre par lettre, on masque une lettre du texte clair avec une lettre de la clé, en obtenant ainsi une lettre du texte chiffré. Le masquage lettre par lettre se fait en utilisant une addition modulaire, par exemple l’addition modulo 26 si on utilise l’alphabet à 26 lettres, ou l’addition modulo 2 si on parle de chaines binaires.

La confidentialité par ce système est une sécurité parfaite : un texte chiffré cache, avec une probabilité égale, tous les mots possibles de la taille donnée dans l’alphabet choisi. Malheureusement, le chiffrement à masque jetable est difficile à utiliser, pour deux raisons : la taille de la clé (égale au texte clair) et le fait de devoir changer le masque à chaque chiffrement.

C’est pourquoi, en général, on accepte d’utiliser des schémas de chiffrement qui ne donnent pas une sécurité parfaite, sinon une sécurité calculatoire : on exige que l’attaquant ne puisse pas casser la confidentialité des messages dans un temps raisonnable.

Aujourd’hui, il y a deux catégories principales de chiffrement : le chiffrement symétrique et le chiffrement asymétrique (ou à clé publique).

Pour le chiffrement symétrique, la même clé est utilisée pour chiffrer et déchiffrer. Il y a deux types principaux : le chiffrement par flot et celui par bloc.

Le chiffrement par flot ressemble à celui de Vernam, sauf que les masques ne sont plus indépendants, sinon on utilise une fonction mathématique dépendante de la clé pour générer les masques. Comme tout objet mathématique peut présenter des biais, cette fonction a une structure qui peut être exploitée pour prédire le masque — ainsi cassant la confidentialité du schéma. Un exemple de schéma de chiffrement par flot est le schéma ChaCha20.

Le chiffrement par bloc, en revanche, partage le texte clair dans des fragments de taille fixe, dits blocs, et chaque bloc est ensuite chiffré. La façon d’assembler le texte chiffré à partir du chiffrement des blocs s’appelle le mode de chiffrement. Certains modes présentent des vulnérabilités (par exemple le mode ECB), tandis que d’autres sont utilisés car ils sont prouvablement sécurisés — par exemple le mode compteur Gaulois (GCM). Un exemple de chiffre par bloc est le standard AES, basé sur le schéma de Rijndael.

Finalement le chiffrement à clé publique demande une clé publique pour chiffrer et une clé privée pour déchiffrer. En général le chiffrement à clé publique se fait dans une structure algébrique, souvent un groupe cyclique, soit sur une courbe elliptique, soit dans un espace vectoriel, soit dans un code correcteur d’erreurs, etc. Le chiffrement consiste à transformer un élément du groupe dans un autre. Pour garantir la confidentialité du texte clair, il faut que :

– la transformation du texte clair en texte chiffré soit efficace étant donnée la clé publique ;

– la transformation inverse, texte clair vers texte chiffré, efficace étant donnée la clé privée ;

– et la transformation texte clair vers texte chiffré difficile sans la clé privée.

Pour garantir cette dernière propriété nous nous basons souvent sur un problème dit « difficile » à résoudre, comme par exemple le problème du logarithme discret, le problème du vecteur court (shortest vector problem), etc.

[1] Goldwasser Shafi, Micali Silvio. “Probabilistic encryption”. Journal of Computer and System Sciences, 1984, vol. 28, no. 2, 1984, p. 270-299. DOI : https://doi.org/10.1016/0022-0000(84)90070-9

[2] Kahn David. The Codebreakers :The Comprehensive History of Secret Communication from Ancient Times to the Internet. Simon and Schuster, revised ed. 1996, 1200 pages.

Cristina Onete

Enseignant-chercheuse à l’Université de Limoges (XLIM).

Comment fonctionne le GPS ?

Tous les smartphones sont maintenant équipés de récepteurs GPS, et on ne peut plus s’en passer pour nos déplacements. Mais alors comment est-ce que cela fonctionne ?

GPS (Système de positionnement global) est le nom du système de positionnement développé par le ministère de la Défense américaine à partir des années 70. D’autres systèmes ont été développés depuis, comme le système européen GALILEO, ou encore Russe GLONASS, principalement dans le but de disposer d’un système de positionnement indépendant des États-Unis.

Le GPS américain utilise une constellation de 24 satellites orbitant à environ 20 000 km d’altitude, de sorte qu’au moins quatre d’entre eux soient toujours visibles de n’importe quel point de la Terre. Chaque satellite embarque une horloge atomique, et toutes les horloges sont synchronisées entre elles. Les orbites des satellites sont également parfaitement connues grâce à un réseau de stations au sol.

Un récepteur GPS sur Terre utilise le principe de triangulation pour connaître sa position de manière certaine par rapport au centre de la Terre. Cela consiste à mesurer sa distance par rapport à plusieurs satellites de la constellation GPS. Chaque satellite émet en permanence, en direction de la Terre, un message radio indiquant son identifiant, sa position exacte dans le ciel et l’heure d’envoi donné par l’horloge atomique. Le récepteur détermine le temps d’arrivée des messages de plusieurs satellites par rapport à sa propre horloge. Il est nécessaire de réceptionner les informations de quatre satellites au minimum pour déterminer la position du récepteur à la surface de la Terre, c’est-à-dire sa longitude, sa latitude et son altitude. En général, une meilleure précision de la position est obtenue en utilisant un plus grand nombre de satellites pour le calcul.

Chose amusante, le positionnement par satellite est tellement précis que l’on a besoin de prendre en compte les effets relativistes pour déterminer correctement la position du récepteur. Le fait que les satellites soient en mouvement sur leurs orbites d’une part, et qu’ils soient éloignés de la Terre d’autre part, génère un décalage de l’horloge atomique de 38.6 μs par jour, qu’il faut corriger régulièrement. Sans ces corrections, l’erreur sur la position déterminée augmenterait de plus de 10 km par jour !

[1] Abel J. and Chaffee J. « Existence and uniqueness of GPS solutions, ». IEEE Transactions on Aerospace and Electronic Systems, 1991, vol. 27, no. 6, pp. 952-956. DOI : https://doi.org/10.1109/7.104271

[2] Ashby Neil. “Relativity in the Global Positioning System”. Living Rev Relativ, 2003, vol. 6, no. 1. DOI : https://doi.org/10.12942/lrr-2003-1

[3] Merry Kristia & Bettinger Pete. “Smartphone GPS accuracy study in an urban environment”. PLoS One, 2019, vol. 14, no. 7. DOI : https://doi.org/10.1371/journal.pone.0219890

[4] Zangenehnejad Farzaneh & Gao Yang. “GNSS smartphones positioning: advances, challenges, opportunities, and future perspectives”. Satellite Navigation, 2021, vol. 2, no. 24. DOI : https://doi.org/10.1186/s43020-021-00054-y

Ludovic Grossard

Enseignant-chercheur à l’Université de Limoges (XLIM).

Qu’est-ce que la sobriété numérique ?

La sobriété numérique consiste à utiliser de manière réfléchie les technologies numériques afin de limiter leur impact sur l’environnement.

Quels sont les effets environnementaux du numérique ?

Le numérique a de forts impacts environnementaux sur l’empreinte globale de l’humanité. En moyenne, nous possédons 8 équipements numériques. À l’échelle mondiale, 40 smartphones sont vendus par seconde ! Chaque année, 400 millions de smartphone et 35 millions d’ordinateurs sont jetés dans le monde. Les vidéos représentent 80 % des données circulant sur nos réseaux.

En 2019, le numérique a représenté 4,2 % de la consommation d’énergie primaire ; 3,8 % des émissions de gaz à effet de serre ; 5,6 % de la consommation électrique ; 0,2 % de la consommation d’eau (utilisée pour la fabrication essentiellement). Cet impact global équivaut à deux à trois fois l’empreinte de la France ! Les impacts environnementaux du numérique proviennent principalement des terminaux utilisateurs[1] (63 % des émissions de gaz à effet de serre), de l’hébergement des données dans les datacenters (22 %) et du transport de l’information (15 %).

Nous consommons des terminaux et nous les remplaçons…trop souvent !

La fabrication d’un ordinateur nécessite l’extraction de 588 kg de matières premières, ce qui entraîne l’épuisement des ressources abiotiques (minéraux et métaux) : Cobalt, Beryllium, Graphite, Platine, Tungsten. Une ressource dont l’extraction peut parfois ne pas respecter les droits de l’homme, de l’enfance ou du travail.

Si rien n’est fait d’ici 2023, le trafic de données devrait être multiplié par 6 et le nombre d’équipements augmenter de 65 % (en raison de l’essor de l’IoT notamment).

Un numérique responsable : une démarche environnementale, sociale et éthique

Malgré ses aspects négatifs, le numérique peut également avoir des impacts environnementaux positifs, comme la réduction des déplacements grâce à la visioconférence.

La sobriété numérique : tous acteurs !

La sobriété numérique nécessite l’engagement de tous. Des pratiques simples permettent à chacun de contribuer et réduire cet impact environnemental.

Changer nos modes de consommation :

–         en évitant de renouveler du matériel non nécessaire,

–         en privilégiant des matériels réparables et maintenus dans le temps,

–         en réutilisant des matériels existants et/ou en achetant d’occasion,

–         en favorisant des matériels réparables et des logiciels maintenus dans le temps.

Même si les filières de recyclage se sont améliorées, le meilleur DEEE (Déchets d’équipements électriques et électroniques) est celui qu’on ne produit pas.

Changer nos usages :

–         en prenant soin de nos appareils (notamment les batteries),

–         en éteignant les appareils non utilisés et en réduisant la luminosité d’affichage,

–         en triant nos fichiers et en ne conservant que les fichiers nécessaires,

–         en réduisant nos usages vidéo (baisser la résolution, activer la vidéo que quand c’est nécessaire, utiliser l’antenne TNT plutôt que la TNT par réseau/box).

[1] Terminaux utilisateurs : écrans, ordinateurs, smartphones, tablettes, etc.

Agence de la Transition écologique. Pour une communication sensible aux enjeux de la transition écologique.
Disponible sur : https://communication-responsable.ademe.fr/

ADEME-ARCEP. Évaluation de l’impact environnemental du numérique en France et analyse prospective. Notes de synthèse réalisée par l’ADEME et l’Arcep. Janvier 2022.
Disponible sur : https://www.arcep.fr/uploads/tx_gspublication/etude-numerique-environnement-ademe-arcep-note-synthese_janv2022.pdf

ADEME-ARCEP. Évaluation de l’impact environnemental du numérique en France et analyse prospective : analyse prospective à 2030 et 2050. 2022.
Disponible sur : https://www.arcep.fr/uploads/tx_gspublication/etude-prospective-2030-2050_mars2023.pdf

Commission Européenne. Report lists 14 critical mineral raw materials. 2010.
Disponible sur : https://ec.europa.eu/commission/presscorner/detail/en/MEMO_10_263

EcoInfo-CNRS : Pour une informatique éco-responsable. Disponible sur : https://ecoinfo.cnrs.fr/

Green IT. Empreinte environnementale du numérique mondial.
Disponible sur : https://www.greenit.fr/etude-empreinte-environnementale-du-numerique-mondial/

Institut du Numérique Responsable. « Académie Numérique Responsable : MOOC Numérique Responsable ».
Disponible sur : https://www.academie-nr.org/

Combe Matthieu. Terres rares, production et consommation à gogo. Natura Sciences. 2012.
Disponible sur : https://www.natura-sciences.com/comprendre/terres-rares-production-consommation.html

Pourret Olivier. En Chine, l’exploitation des terres rares s’accompagne d’une pollution massive. The Conversation. 2022. Disponible sur : https://theconversation.com/en-chine-lexploitation-des-terres-rares-saccompagne-dune-pollution-massive-183676

Raphaël Nieto

Directeur de l’association ALIPTIC à Limoges.

Les demandes de crédit bancaire sont-elles réellement traitées par les machines ?

Le métier de banquier repose essentiellement sur la gestion du risque, une pratique soutenue depuis des décennies par l’utilisation de mathématiques, puis d’algorithmes, et aujourd’hui de l’intelligence artificielle, pour élaborer des modèles et des outils d’appréciation du risque que vous représentez. Et bien évidemment, surtout quand vous demandez un crédit.

Je dis bien « apprécier » car le droit français et européen exclue strictement la prise de décisions automatisées, donc par des machines, qui pourraient potentiellement affecter les droits des individus. Dans un processus formel et auditable, car sujet à contestation ou appel, une décision doit être prise par un être humain, qui en assume la responsabilité.

Cependant, cela n’empêche pas l’utilisation d’outils ou de renforts. Par exemple, lorsqu’un rader automatique prend une photo pour excès de vitesse, un gendarme valide la contravention. Ce processus n’est donc pas entièrement automatisé.

Pour les demandes de crédit, c’est presque pareil : en fonction des données que vous aurez consenti à l’organisme de crédit, vous serez évalué et un banquier approuvera ou non de vous proposer une offre de crédit

Cependant, il existe des situations plus insidieuses que les demandes de crédit bancaires. Les banques, tout comme les compagnies d’assurance, évaluent constamment votre niveau de risque, ce qui pourrait vous rendre à risque à un moment donné. C’est pourquoi il peut vous être gentiment demandé d’aller chercher des solutions ailleurs, ou non.

C’est là que réside le véritable enjeu et l’importance d’une réglementation du secteur, qui est déjà soumis à une certaine régulation.

Fulop Andras. L’IA et l’octroi de crédit aux particuliers. ESSEC Knowledge, 2020.
Disponible sur : https://knowledge.essec.edu/fr/economy-finance/intelligence-artificielle-octroi-credit.html

Tomasino Cathy. De quelle manière l’intelligence artificielle impacte-t-elle la banque de détail ? [Mémoire de stage]. 2019. Disponible sur : https://dumas.ccsd.cnrs.fr/dumas-02330811/document

Dupont Laurent et al. Gouvernance des algorithmes d’intelligence artificielle dans le secteur financier. Banque de France. 2020. Disponible sur : https://acpr.banque-france.fr/gouvernance-des-algorithmes-dintelligence-artificielle-dans-le-secteur-financier

Alexis Mons

Président de l’association ALIPTIC à Limoges.

Est-il vrai que dans les photos numériques sont cachées des données accessibles uniquement aux spécialistes ?

Lorsqu’on décompose une photographie, il y a premièrement les éléments visuels (visage dans un reflet, monument, bâtiment, etc.), qui peuvent dévoiler davantage d’informations que le sujet initialement immortalisé. Même partiellement capturés, soumis à l’œil d’expert ou d’outils spécialisés, ces éléments peuvent révéler des informations non désirées sur l’auteur de la prise de vue et/ou du sujet photographié.

Une photographie numérique, tout comme une image ou plus largement un fichier numérique, contient de multiples informations « cachées » dans les propriétés du fichier. C’est ce qu’on appelle les métadonnées.

Dans une photographie, ces métadonnées peuvent indiquer la géolocalisation de la photographie, des caractéristiques de l’appareil et des conditions de prises de vue. On peut également y trouver la marque de l’auteur et les droits d’utilisation (copyright), ou encore des informations sur l’édition de l’image (version et logiciel utilisé, horodatage de la dernière modification…). L’enregistrement de ces données dépendent de l’appareil et de sa configuration. Nul besoin de connaissances techniques en informatique pour les consulter.

Ces fameuses métadonnées auraient d’ailleurs permis de retrouver John McAfee, fondateur de la société de sécurité informatique éponyme. Une photo prise par un journaliste de Vice aurait révélé sa géolocalisation au Guatemala alors que l’homme en cavale était recherché pour meurtre.

Enfin, il est possible d’introduire volontairement des données dans une image numérique, de manière visible ou non selon la finalité :

– Il peut s’agir d’un filigrane, indiquant le propriétaire et les usages autorisés. Pour les sociétés spécialisées dans la photographie, le filigrane peut prévenir d’un usage non autorisé (visible sur la photo pour empêcher toute reproduction ou invisible pour tracer une fuite éventuelle).

– Il existe également des méthodes d’authentification d’image, à base de cryptographie ou de calcul d’empreinte. Les informations d’authentification peuvent être visibles ou non dans l’image. Elles permettent de détecter la modification non autorisée d’une image ou plus largement de lutter contre la désinformation.

– Des techniques dites de stéganographies permettent de camoufler des données dans une image, voire une image elle-même (ex : plan d’une base militaire). L’image est alors légèrement modifiée, de manière non perceptible à l’œil nu.

Les cybercriminels peuvent les utiliser pour dissimuler des données malveillantes, difficilement repérables par les outils de sécurité, ou pour exfiltrer des données dérobées.

L’ANSSI (Agence nationale de la sécurité des systèmes d’information) a d’ailleurs utilisé ces techniques pour cacher un challenge dans son logo publié en 2012. Il a été résolu en 2015.

Il est donc effectivement possible de dissimuler des informations dans une photographie avec des outils spécialisés. Cet usage est réservé à des personnes dans la confidence mais peut être décelé par un expert en sécurité informatique, on parlera alors de cryptanalyste ou stéganalyste. Dans tous les cas, attention à ne pas trop en dévoiler lorsque vous publiez une photo sur les réseaux sociaux ou sur des sites de seconde-main.

Bienaimé Pierre. Le challenge du logo ANSSI. 2015.
Disponible sur : https://blog.bienaime.info/2015/01/le-challenge-du-logo-anssi.html

Das Soumyendu et al. « Steganography and Steganalysis: Different Approaches ». 2011.
Disponible sur : https://arxiv.org/ftp/arxiv/papers/1111/1111.3758.pdf

Johnson Neil et Jajodia Sushil. « Exploring Steganography: Seeing the Unseen ». Computer, 1998, vol. 31.
Disponible sur : https://www.jjtc.com/pub/r2026.pdf

Signature cryptographique de photos : Dulai Shaminder. Finer Points : Why cryptographically signed photos matter. Digital photographie review. 2022.
Disponible sur : https://www.dpreview.com/opinion/9955873926/why-cryptographically-signed-photos-matter

Prakash Marakumbi & Khanapuri Jayashree. « A Study on Image Authentication Methods ». International Research Journal of Engineering and Technology, 2018, vol. 5, no. 12.
Disponible sur : https://www.irjet.net/archives/V5/i12/IRJET-V5I12321.pdf

Authentification d’image : Image authentification. Starlinglab.
Disponible sur : https://www.starlinglab.org/image-authentication/

La bourde qui a mené à l’arrestation de John McAfee. Le Monde. 2012.
Disponible sur : https://www.lemonde.fr/big-browser/article/2012/12/12/vice-de-forme-la-bourde-qui-a-mene-a-l-arrestation-de-john-mcafee_5986399_4832693.html

Geosetter, logiciel pour ajouter/modifier les coordonnées GPS d’une image.
Disponible sur : https://geosetter.de/en/main-en/

Gaël Le Dantec

Ingénieur Sécurité chez Formind (leader Français indépendant expert en cybersécurité).

Mon enfant a mis des choses sur internet et/ou les réseaux sociaux qui peuvent lui porter préjudice, y a-t-il un moyen de les effacer ?

Plusieurs interrogations émergent de cette question : Un enfant peut-il avoir accès aux réseaux sociaux ? Quelle est la minorité sur internet ? Qui détient la propriété des contenus publiés sur les réseaux sociaux, et que deviennent-ils par la suite ? Peut-on effacer ses traces ?

Concernant l’accès des enfants aux réseaux sociaux, il est important de rappeler que les mineurs sont sous la responsabilité de leurs parents. Bien que les plateformes autorisent généralement l’accès dès l’âge de 13 ans, il est crucial d’éduquer les jeunes aux règles de base de la sécurité en ligne. Cela inclut l’utilisation de pseudo (et pas de son vrai nom), de ne pas partager de photos personnelles, de ne pas accepter des demandes d’amis d’inconnus, d’avoir les parents comme amis pour pouvoir aider en cas de besoin, etc.

Les adultes eux-mêmes devraient être attentifs à leurs propres pratiques en ligne. Notons que le RGDP[1] institue une minorité à 15 ans dans l’espace européen, et qu’un mineur ne peut pas donner son consentement seul.

Si des contenus sont publiés sur des réseaux sociaux, à qui appartiennent-ils ? que deviennent-ils ?

Concernant la propriété des contenus publiés sur les réseaux sociaux, une fois que vous avez accepté les conditions générales d’utilisation, vous accordez généralement une licence d’utilisation à la plateforme. Cela signifie que d’autres utilisateurs peuvent partager vos contenus, mais cela ne garantit pas que cela soit légal, notamment si cela porte préjudice à votre réputation. Les contenus publiés sont considérés comme des œuvres, et vous en êtes l’auteur, donc vous avez des droits d’auteur à faire respecter. Par exemple, si la photo de votre enfant est utilisée par une marque sur Instagram, vous avez des droits et il faut les revendiquer.

Toute citation nominative ou photo qui montre votre enfant devrait requérir votre consentement. Et c’est aussi valable quand tata Delphine (amitiés à toute les Delphine) fait un selfie de toute la famille, le poste en public et tague les prénoms. Il y a des précédents de saisine et de condamnation RGPD à ce titre, y compris de jeunes majeurs qui ont obtenu que leurs parents suppriment des photos d’eux quand ils étaient petits (Autriche, 2018).

Vous avez le droit de vous opposer à la diffusion d’informations vous concernant, ainsi que celles de votre enfant. Pour exercer ce droit, vous devez contacter l’auteur via les fonctionnalités de la plateforme. Si cela ne donne pas de résultats, vous pouvez saisir le Délégué à la Protection des Données de la plateforme, voire la CNIL Cependant, il est à noter que seule la justice peut prononcer des condamnations.

Il y a des discussions pour accorder aux parents la possibilité de faire supprimer un compte sur un réseau social jusqu’à ce que leur enfant atteigne l’âge de 18 ans, mais cette mesure est encore en cours de discussion au Parlement.

Le RGPD a institué un droit à l’oubli. Il est donc théoriquement possible de disparaitre. Cependant, dans la pratique, cela nécessite de faire des demandes auprès des différentes plateformes.

Parents, prenez les devants, soyez vous-même des adultes responsables, accompagnez les pratiques de vos enfants.

[1] RGPD : Règlement général sur la protection des données.

ANSSI. « Guide d’Hygiène informatique : renforcer la sécurité de son système d’information en 42 mesures ». 2017.
Disponible sur : https://www.ssi.gouv.fr/guide/guide-dhygiene-informatique/

Le guide pratique du gouvernement et utile aux parents sur ce sujet : « Victime de harcèlement sur les réseaux sociaux ? Contactez le 3018 ! 10 Conseils et règles de sécurité. ». Disponible sur : https://e-enfance.org/informer/reseaux-sociaux/?gclid=EAIaIQobChMI_MrpvbKS_wIV2LHVCh1Y5AFBEAMYASAAEgIiPPD_BwE

Scaultz Célia. La protection du mineur à l’aune des réseaux sociaux. Mémoire de Master 2, Université de Grenoble Alpes, 2020. Disponible sur : https://dumas.ccsd.cnrs.fr/dumas-02960116/document

Binet Sophie. « Autorité parentale, réseaux sociaux et publication par le parent séparé de photographies de son enfant ». Village justice. 2023. Disponible sur : https://www.village-justice.com/articles/autorite-parentale-reseaux-sociaux-publication-par-parent-separe-photographies,28798.html

Cahen Murielle. « Les réseaux sociaux de photos et le droit d’auteur ». Disponible sur : https://www.murielle-cahen.com/publications/photo-reseau-social.asp

CNIL. « Comment faire respecter ses droits et notamment le droit à l’oubli ».
Disponible sur : https://www.cnil.fr/fr/cnil-direct/question/comment-faire-supprimer-des-informations-me-concernant-diffusees-sur-internet 

Berton Françoise. « Le droit à l’oubli numérique ». Berton & associés. 2022.
Disponible sur : https://www.berton-associes.fr/blog/droit-de-l-internet/droit-a-oubli-numerique 

Alexis Mons

Président de l’association ALIPTIC à Limoges.


Santé et éthique 


Face aux nouveaux outils numériques, quelle place pour la science dans les questions sociales ou démocratiques ?

L’essor croissant des outils numériques[1] suscite des préoccupations d’ordre social et démocratique, alimentant des inquiétudes quant aux libertés publiques et à la vie démocratique.

Ces questions sont légitimes quand on constate les progrès considérables des capacités de stockage et de traitement de l’information, de l’intrusion dans nos vies privées, et du poids sans précédent des sociétés privées qui possèdent et exploitent ces données. Les inquiétudes naissent, par exemple, de l’utilisation de systèmes de notation sociale (« crédit social ») en Chine ou, comme lors du scandale Cambridge Analytica, lorsque des données de Facebook ont été détournées pour influencer les votes de l’élection présidentielle américaine en 2016 [8][9].

Pouvons-nous trouver des réponses à ces craintes par la science ? Malheureusement, ou peut-être heureusement, non. Cependant, nous pouvons mieux y répondre accompagné de la science.

La science moderne, apparue à la Renaissance [1], désigne une connaissance universelle (qui s’applique partout), nécessaire (il ne peut pas en être autrement) et vérifiable. Elle s’appuie sur des raisonnements formels, grandement aidés par les mathématiques, et découle de l’observation, de l’expérimentation contrôlée. L’ensemble des connaissances accumulées et clairement établies constitue alors « la science » – connaissances acceptées comme telles lorsqu’elles ont été commentées, vérifiées et font l’objet d’un consensus au sein de la communauté scientifique.

Mais la science n’a pas vocation à régir notre comportement, à régler notre vie quotidienne, ou à remplacer notre représentation du monde. Elle peut dire ce qui est, mais pas « ce qui doit être ». La science ne propose pas de système de valeurs ou de morale. Sur ce qui est, elle peut nous renseigner si on a des questions précises sur des objets bien identifiés.

En ce qui concerne les outils numériques, il s’agira de savoir très concrètement quels outils, et quels usages, doivent être évalués. Les objets de Facebook ou de Wikipédia par exemple ne sont pas les mêmes. Leur modèle économique, leur gouvernance non plus. Ensuite, la science ne pourra pas répondre simplement « oui » ou « non » à la question de savoir si un réseau social donné est « dangereux. » Entre autres parce que la notion de danger dépend du contexte, peut être subjective, etc.

Malgré tout, comment la science peut-elle prendre part à ces questions ?

D’abord, les grands établissements nationaux de recherche (CNRS, INSERM, INRAE, etc.) disposent de comité d’éthique. Ils ont pour objet d’animer les réflexions éthiques autour de la recherche. Les impacts sociaux ne sont pas oubliés, ainsi, le comité du CNRS écrivait en 2015 [12] : « Il est du ressort des organismes de recherche de prendre en compte les thématiques qui inquiètent le public pour l’avenir de la société. ». Sur un exemple très concret, des chercheurs de l’INRIA proposent, dans un article, une méthode pour analyser des projets de reconnaissance faciale et faciliter un débat citoyen éclairé.

La science doit se « faire savoir », se mettre à la portée d’un large public. Cela peut se faire à travers les démarches de « science ouverte », poussées entre autres par une initiative de l’Union Européenne. On peut noter que la science ouverte utilise massivement des outils numériques pour diffuser des connaissances. L’autre méthode de diffusion est la vulgarisation scientifique, souvent portée par des chercheurs, dans des démarches individuelles.

La science est un outil à mobiliser pour essayer de réfléchir de manière éclairée : que ce soit dans des démarches individuelles de réflexion critique, dans des échanges « citoyens » ou dans des débats publics pour animer la démocratie.

On peut maintenant prendre quelques exemples et voir ce que la science peut apporter comme connaissance.

Si on examine les craintes sur « les caméras de surveillance », il faudra déterminer si on parle de fonctions d’identification (savoir qui est sur l’image), de traçage (suivre les déplacements d’un individu), ou d’authentification (vérifier si c’est bien M. X sur l’image) [5]. Si on parle d’identification, avant d’envisager un danger, on pourrait déterminer si « ça marche vraiment », au-delà des fantasmes, ou craintes. À l’heure actuelle, des études montre que non, ça ne marche pas toujours, surtout en conditions réelles ; et que la reconnaissance marche plus ou moins bien selon le sexe ou la couleur de peau [6]. Les algorithmes semblent ainsi « biaisés » et ne sont pas neutres.

On peut noter qu’un des articles cités en référence, rédigé par des chercheurs de l’INRIA, invite à des délibérations publiques et éclairées sur ces questions. Le débat devrait donc relever de la vie « en commun », et non pas de la science.

Nous avons cité en introduction le scandale Cambridge Analytica. Des sociétés privées ont utilisé des données de Facebook en 2016 pour influencer le vote d’électeurs américains. Le nombre de comptes dont les données ont été utilisées se chiffre en dizaine de millions. On peut remarquer que ce scandale a été révélé par des journaux – et rappelons qu’une presse libre est un des critères d’une démocratie vivante.

Sur ce scandale, les recherches scientifiques ne savent pas affirmer si la manipulation, avérée, a eu un effet réel, ni combien de voix auraient été « détournées » par ce biais.

Mais d’autres types de manipulation existent, en dehors des réseaux sociaux. Une étude a montré que la simple manipulation des résultats d’un moteur de recherche peut influencer les votes [7]. C’est-à-dire que les premiers liens mis en avant lorsqu’on interroge un moteur de recherche peuvent nous influencer. Ainsi, la façon dont le moteur nous présente la liste des résultats peut déterminer nos choix : pour des achats, mais aussi pour des sujets politiques.

Afin de pouvoir se protéger de ces influences, on peut interroger la science sur les algorithmes utilisés. Sur les réseaux sociaux, on sait qu’ils ont tendance à nous « enfermer » dans des opinions déjà acquises – on parle de « bulle de filtre » [10]. Les participants du réseau peuvent alors être entraînés par un de nos biais cognitifs bien connu, le « biais de confirmation », qui fait que l’on recherche avant tout des informations pour confirmer ce que l’on sait déjà.

Nous avons évoqué des risques ou des craintes sur les outils numériques. A contrario, n’oublions pas qu’ils peuvent représenter également un espoir de nouvelle forme démocratique pour certains. Les réseaux sociaux sont parfois des catalyseurs de mobilisation et d’action [11]. On peut citer les manifestations à Hong-Kong en 2019, sans leader affiché et organisées via ces plateformes. Autre exemple, les outils numériques permettent un partage du savoir, par exemple à travers les sites de sciences ouvertes ou de science participative.

Les technologies numériques questionnent, sur leur pouvoir de surveillance, sur la préservation de nos libertés, sur leur influence sur nos décisions, sur la vie démocratique. Ces questions, dont l’enjeu est fort, ne sont pas réductibles à une question scientifique.

Une démarche individuelle de réflexion critique, des échanges citoyens, des débats publics pour animer la démocratie, sont irremplaçables. Malgré tout, la science peut apporter sa contribution. Et elle le fait à travers des thématiques de recherches, à travers des politiques institutionnelles, ou à travers l’implication individuelle des chercheurs.

[1] Des exemples comme la reconnaissance faciale sur les caméras de surveillance, le vote électronique et l’influence des réseaux sociaux

[1] Fontaine Philippe. « Qu’est-ce que la science ? De la philosophie à la science : les origines de la rationalité
moderne ». Recherche en soins infirmiers, 2008, vol. 92, no. 1, p. 6-19. DOI : https://doi.org/10.3917/rsi.092.0006

[2] Arsène Séverine. « Le système de crédit social en Chine. La discipline et la morale ». Réseaux, 2021, vol. 225,
no. 1, p. 55-86. DOI : https://doi.org/10.3917/res.225.0055

[3] Ertzscheid Olivier. « Usages de l’information numérique : comprendre les nouvelles enclosures algorithmiques pour mieux s’en libérer ». Revue française des sciences de l’information et de la communication, 2015, vol. 6.
DOI : https://doi.org/10.4000/rfsic.1425

[4] Guchet Xavier. « L’homme, la technique et la vie dans la philosophie de Hans Jonas ». Alter, 2014, vol. 22.
DOI : https://doi.org/10.4000/alter.295

[5] Castelluccia Claude, Le Métayer Daniel. « Analyse des impacts de la reconnaissance faciale – Quelques éléments de méthode ». [Rapport de recherche] Inria Grenoble Rhône-Alpes. 2019. 
Disponible sur :  https://inria.hal.science/hal-02373093/document

[6] Kabbalan Abbas et al. « Reconnaissance faciale dans l’espace public – Une véritable révolution pour la sécurité ? » 2022. Disponible sur : https://controverses.minesparis.psl.eu/public/promo21/Reconnaissance%20faciale.pdf

[7] Epstein Robert and Robertson Ronald. “The Search Engine Manipulation Effect (SEME) and its possible impact on the outcomes of elections”. Proceedings of the National Academy of Sciences of the United States of America, 2015,
vol. 112, no. 33. DOI : https://doi.org/10.1073/pnas.1419828112

[8] Manokha Ivan, « Le scandale Cambridge Analytica contextualisé : le capital de plateforme, la surveillance et les données comme nouvelle « marchandise fictive » ». Cultures & Conflits, 2018, vol. 109.
DOI : https://doi.org/10.4000/conflits.19779

[9] Pérez Lagos Camila. « Rendre visibles les conséquences de la surveillance numérique ». Communication, 2020,
vol. 37, no. 2. DOI : https://doi.org/10.4000/communication.13252

[10] Claes Arnaud et al. « Algorithmes de recommandation et culture technique : penser le dialogue entre éducation et design ». tic&société, 2021, vol. 15, no. 1.
DOI : https://doi.org/10.4000/ticetsociete.5915

[11] Fassassi Idris. « Les effets des réseaux sociaux dans les campagnes électorales américaines ». Dans La démocratie connectée : ambitions, enjeux, réalité. Aix-en-Provence : DICE Éditions, 2018 (généré le 04 juin 2023).
DOI : https://doi.org/10.4000/books.dice.5947

[12] COMETS Comité d’éthique du CNRS. AVIS n°2015-31 « Les Sciences Citoyennes ». Disponible sur : https://comite-ethique.cnrs.fr/wp-content/uploads/2022/12/AVIS-2015-31-FR.pdf

Xavier Montagutelli

Responsable de la Sécurité des Systèmes d’Information à l’Université de Limoges (DSI).

L’addiction aux écrans, est-ce que ça existe vraiment ?

Les addictions sont référencées comme une pathologie sur le plan psychiatrique et sont donc étudiées à la fois sur le volet de la recherche mais aussi de la clinique. En consultations, Professeur Radek Ptak des hôpitaux universitaires de Genève, indique observer dans son exercice de la médecine clinique divers dépendances aux écrans parmi ses patients incluant : la dépendance au streaming (lecture en ligne et en continu de données multimédias), aux cyber relations, à la pornographie, aux jeux vidéo et même des dépendances à la recherche d’information (« addiction à Wikipédia »). Ces dépendances, bien que rapportées similaires aux addictions sur le plan symptomatologique et neurologique, ont-elles été reconnues comme des addictions, au sens médical, comme c’est le cas pour l’addiction aux substances ?

Parmi les sujets de dépendance aux écrans qui ont suscité le plus de recherches et d’avancées sur la question, l’on retrouvera l’addiction aux jeux-vidéo. Selon le Pr Ptak, l’addiction aux jeux-vidéo amène des arguments en termes d’impacts forts sur la vie personnelle (ex. modification de l’humeur ; tolérance grandissante, symptômes anxio-dépressifs et phénomène de sevrage) mais également des arguments neurologiques (implication du circuit de récompenses, changements structurels et fonctionnels sur des zones similaires aux addictions aux substances). Pour ces raisons, l’Organisation mondiale de la Santé (OMS) a décidé de reconnaître et intégrer dans sa classification de maladies cette décision. Elle définit notamment l’addiction aux jeux vidéo avec la notion de perte de contrôle sur le jeu et par le fait de donner une priorité accrue aux jeux plutôt qu’au quotidien.

Pour le DSM-5 [1], les arguments ne sont pas encore suffisants et d’autres recherches restent à mener pour valider ces faits. Le problème reste également que les méthodologies de recueil restent classiques.

Autrement dit, la dépendance aux écrans est observée sur le plan clinique, pour autant seule la dépendance aux jeux vidéo est reconnue comme addiction par l’OMS officiellement.

[1] American Psychiatric Association. Diagnostic and statistical manual of mental disorders (5th ed.). 2013. DOI : https://doi.org/10.1176/appi.books.9780890425596

Organisation Mondiale de la Santé (OMS) (2019). Classification statistique internationale des maladies et des problèmes de santé connexes CIM-11. Genève.

Kuss Daria & Griffiths Mark (2012). “Internet and gaming addiction: a systematic literature review of neuroimaging studies”. Brain sciences, 2012, vol. 2, no. 3, p. 347–374.
DOI : https://doi.org/10.3390/brainsci2030347

« Exposition aux écrans et impact sur le neuro-développement ? ». Conférence donnée le 1er mars 2023 dans le cadre du cycle « Parlon numérique », organisée par l’Université de Genève. Disponible en ligne sur : https://www.youtube.com/watch?v=xI6ycv9lylo

Zhor Raimi

Exerce en tant que Neuropsychologue à l’établissement et services de réadaptation professionnelle EPNAK Limoges.

Doctorante en 2e année de Psychopathologie Cognitive au laboratoire C2S de l’Université de Reims.

Quelles sont les conséquences du numérique sur les jeunes enfants ?

Lorsque l’on s’intéresse à l’impact du numérique, la crainte concerne notamment le lien entre les écrans et les jeunes enfants. De quel impact s’agit-il ? Toutes les utilisations des écrans par les enfants ont-elles les mêmes impacts ?
Ces questions sont en effet adressées par la recherche qui examinent les différents éléments en jeu pour pouvoir y répondre.

L’un des premiers éléments isolés, à l’origine des inquiétudes selon Serge Tisseron, est le facteur « temps ». En effet, le temps passé (par jour/ par semaine) devant les écrans a, par exemple, été observé en recherche, comme étant associé à un moins bon développement du langage, de la motricité ou à des risques d’obésité chez les jeunes.

Toutefois, si le temps doit être contrôlé, c’est aussi « l’utilisation » du numérique qui est à définir. C’est alors que l’on distinguera l’exposition de l’utilisation.
Ici ce sont, par exemple, l’âge de l’enfant et le cadre d’utilisation qui peuvent faire varier l’impact. Selon Serge Tisseron, l’on comprend ainsi facilement pourquoi il faudra éviter de proposer un écran à un très jeune enfant car c’est seulement à partir d’un certain âge que celui-ci ne sera plus simplement exposé mais pourra l’utiliser à des fins visées (voir les recommandations 3 – 6 – 9 – 12 du Dr. Tisseron consultable en ligne). Le cadre intervient ensuite pour permettre à cette utilisation visée de favoriser l’apprentissage à travers le contenu et les échanges autour du visionnage. Les interactions parents-enfants et l’utilisation des écrans par les parents eux-mêmes (ce qui indirectement prive l’enfant d’attention et d’échanges) est un facteur qui apparaît de plus en plus dans les études tant il est essentiel au développement de l’enfant et indirect à la question des écrans.

Aussi, le timing d’utilisation de l’écran (à quel moment de la journée est proposée l’utilisation) est également un paramètre étudié en recherche tant il parait à surveiller car une utilisation de l’écran trop proche de l’heure du coucher a été associé à une qualité de sommeil moindre. Il est important de noter que souvent ces résultats restent corrélationnels (on observe des associations plutôt que des causalités) et que les données sont souvent auto-déclarées, ainsi davantage d’information nourriront notre compréhension à mesure que les études expérimentales et observationnelles se développeront.

On retiendra que l’impact du numérique positif ou négatif dépend de plusieurs facteurs associés à celui qui utilise l’outil numérique et au cadre proposé de cette utilisation. Ces facteurs sont à définir et prendre en compte individuellement lorsqu’il faut décider d’une utilisation des écrans chez les jeunes. 

Mineshita Yui et al. “Screen time duration and timing: Effects on obesity, physical activity, dry eyes, and learning ability in elementary school children”. BMC Public Health, 2021, vol. 21, no. 422. DOI : https://doi.org/10.1186/s12889-021-10484-7

Karani, Nazeera et al. “The influence of screen time on children’s language development : A scoping review”. The South African Journal of Communication Disorders, 2022, vol. 69, no.  1. DOI : https://doi.org/10.4102/sajcd.v69i1.825

LeBourgeois Monique et al. “Digital Media and sleep in childhood and adolescence”. Pediatrics, 2017, vol. 140 (Supplement_2). DOI : https://doi.org/10.1542/peds.2016-1758j

Cordier Anne et Erhel Séverine. Les enfants et les écrans. Éditions Retz, « Mythes et réalités », 2023, 176 pages.

« Exposition aux écrans et impact sur le neuro-développement ? ». Conférence donnée le 1er mars 2023, dans le cadre du cycle « Parlons numérique », organisée par l’Université de Genève. Disponible sur : https://www.youtube.com/watch?v=xI6ycv9lylo

Zhor Raimi

Exerce en tant que Neuropsychologue à l’établissement et services de réadaptation professionnelle EPNAK Limoges.

Doctorante en 2e année de Psychopathologie Cognitive au laboratoire C2S de l’Université de Reims.

Comment le numérique peut-il être un support pour l’apprentissage et l’éducation et quelles sont les limites ?

Le numérique, et plus particulièrement les écrans, communément sujets d’inquiétude, sont étudiés pour connaître les conditions dans lesquelles ils favoriseraient l’apprentissage. C’est notamment l’objectif d’unité de recherche comme la TECFA (Unité de recherche en Technologie de Formation et Apprentissage) rattachée à l’Université de Genève et co-dirigée par le Dr. Mireille Bétrancourt.

Selon le modèle postulé par le Dr. Bétrancourt, lorsque l’utilisation des écrans est encadrée, pensée et ne constitue pas une exclusion des autres activités cognitives, les écrans peuvent soutenir l’apprentissage à travers leur capacité à permettre :

– le stockage et la réutilisation d’information,

– la collaboration et le partage,

– le traitement automatique et l’interactivité avec la machine,

– l’enrichissement des supports par le multimédia (ex. exploiter le son,
les images, l’espace, etc.).

Cette équipe de recherche donne notamment l’exemple en cours de développement du Projet SPAGEO. Il exploite les possibilités de la réalité virtuelle pour aller plus loin dans l’enseignement des compétences spatiales et géométriques.

Parmi les cas où les écrans peuvent présenter des limites dans l’apprentissage, on retrouve le cas où le temps passé sur l’écran, source attirante et attractive, remplacerait un temps dédié à l’apprentissage. Le contenu et la visée d’utilisation sont donc aussi de bons indicateurs pour préciser le rôle et l’impact de l’écran et sont ainsi distingués dans les études.

Enfin, l’âge de l’enfant est aussi à prendre en compte. Les capacités d’utilisation et non d’exposition passive ne sont possibles qu’à partir d’un certain temps dans le développement (plus d’information en ligne par Dr. Serge Tisseron).

Tricot André. Numérique et apprentissages scolaires : quelles fonctions pédagogiques bénéficient des apports du numérique ? [Rapport de recherche] Centre national d’étude des systèmes scolaires (Cnesco); Conservatoire national des arts et métiers (Cnam). 2020. ffhal-03249545f

Ras Eric, Whitelock Denise & Kalz Marco. “The promise and potential of e-assessment for learning”. In Reimann Peter et al. (Eds.), Measuring and Visualizing Learning in the Information-Rich Classroom (1st ed.). Routledge, 2015, 278 pages.

Hattie John & Yates Gregory. (2013). Visible learning and the science of how we learn. Routledge, 2013, 368 pages.

« Exposition aux écrans et impact sur le neuro-développement ? ». Conférence donnée le 1er mars 2023, dans le cadre du cycle « Parlons numérique », organisée par l’Université de Genève. Disponible sur : https://www.youtube.com/watch?v=xI6ycv9lylo

Zhor Raimi

Exerce en tant que Neuropsychologue à l’établissement et services de réadaptation professionnelle EPNAK Limoges.

Doctorante en 2e année de Psychopathologie Cognitive au laboratoire C2S de l’Université de Reims.

Les cyber-attaques vers les CHU et le risque de multiplication de ces pratiques ne pourraient-elles pas imposer de revenir à des gestions papier des données ?

Depuis plusieurs années, on observe une recrudescence de cyberattaques visant diverses organisations, et le secteur hospitalier n’est pas épargné.

En 2022, des dizaines d’attaques ont été répertoriées, certaines ciblant des institutions importantes telles que l’hôpital Sud Francilien et celui de Versailles. La plupart de ces attaques reposent sur l’utilisation d’un logiciel malveillant appelé « rançongiciel ». Ces programmes bloquent l’accès aux postes informatiques en chiffrant les données qu’ils contiennent. Il faut alors une clé de déchiffrement, pour retrouver l’accès aux données, fournie par les cybercriminels en échange d’une rançon. En France, elle n’est jamais payée car elle n’est pas considérée comme une solution envisageable.

Selon la gravité de l’attaque, le fonctionnement des hôpitaux peut être plus ou moins perturbé, les contraignant à passer en « mode dégradé ». Les conditions de travail évoluent alors pour s’adapter à la situation, et le recours au papier devient inévitable en attendant un retour à la normale. Cette transition est nécessaire car certains postes informatiques sont inopérants durant le temps de l’enquête, de la restauration des systèmes et de la sécurisation du réseau. Cependant, cette transition reste temporaire car l’utilisation du papier présente des inconvénients majeurs.

Contrairement aux données numériques, les données papier ne peuvent être facilement partagées, et ne peuvent être consultées à distance. Elles requièrent un espace de stockage important, et il est très compliqué d’organiser les documents pour les rendre accessibles lors de consultations futures. Le support papier a certaines limitations puisqu’il peut être perdu, endommagé voire volé.

À l’heure actuelle, tout est fait pour favoriser le numérique, notamment à travers le Ségur du numérique en santé, qui vise à généraliser le partage fluide et sécuriser des données de santé entre les différents professionnels de santé et les patients.

Pour toutes ces raisons, il est peu probable de revenir à une gestion des données papier sur du long terme, d’autant plus qu’il existe de nombreux moyens de prévention pour limiter les effets et la fréquence de ces attaques.

Les mises à jour (de sécurité du système, des logiciels, de l’antivirus), la configuration du pare-feu, la mise en place de sauvegardes, l’utilisation de mots de passe suffisamment complexes et changés régulièrement, mais aussi la sensibilisation du personnel, constituent une ligne de mesure préventive efficace. Dans les prochaines années, il y aura très probablement d’autres attaques de grande envergure sur les centres hospitaliers, mais le recours au papier ne sera toujours que ponctuel.

Alexandre Berujeau

Technicien hotline chez 3Si.

Est-ce que c’est vrai que la musique aide à se concentrer ? Et si oui, comment cela fonctionne-t-il ?

Il s’agit vraisemblablement d’un neuromythe, c’est-à-dire d’une croyance fausse à propos de notre cerveau. Une origine probable de ce neuromythe est une étude publiée en 1993 dans la revue Nature [1] qui semblait indiquer une amélioration des performances à un test du QI après l’écoute d’un morceau de Mozart. Cela a d’ailleurs été nommé « l’effet Mozart ».

Lorsque l’on fait de la science, il est fondamental de pouvoir reproduire les expériences d’une étude afin d’en vérifier les conclusions et d’éviter les résultats frauduleux ou les faux positifs. Dès que les expériences ont été répétées un assez grand nombre de fois, il est alors possible d’en faire une synthèse via une méta-analyse. À propos de l’effet Mozart, une méta-analyse de 2010 [2] montre que cet effet n’existe vraisemblablement pas. En effet, les résultats de l’étude de 1993 n’ont jamais pu être reproduit par d’autres équipes de recherche.

Au-delà de l’effet Mozart, la question de savoir si l’écoute d’une musique de fond a un impact sur la cognition a été étudiée de nombreuses fois. Une méta-analyse de 2011[3], montre qu’il n’y a globalement pas d’effet significatif de la musique sur la cognition. Cependant, l’étude souligne qu’il y a de nombreux soucis méthodologiques et théoriques qui empêchent d’apporter une réponse plus précise à cette question. Du point de vue méthodologique, beaucoup de variables sont à prendre en compte (volume, tempo, type de musique, langage, etc.) ce qui complique beaucoup l’analyse. Le contexte est également important puisque les études semblent indiquer que l’écoute d’une musique de fond a un effet positif lors d’une séance de sport. Par contre, il est moins clair que l’écoute d’une musique de fond pour étudier ou travailler soit bénéfique, car cela peu distraire notre attention et compliquer certaines tâches cognitives (ex. : cela peut compliquer la lecture).

Faut-il en conclure que la musique n’a pas d’effet sur notre cerveau ? À priori, non, et je recommande, au sujet des liens entre la musique et la neuropsychologie, la lecture des ouvrages cités dans la bibliographie [4, 5] pour en savoir plus sur les liens entre la musique et la neuropsychologie.

[1] McLachlan John. “Music and spatial task performance”. Nature, 1993, vol. 366,
p. 520-520. DOI : https://doi.org/10.1038/366520a0

[2] Pietschnig Jakob et al. “Mozart effect–Shmozart effect: A meta-analysis”. Intelligence, 2010, vol. 38, no 3, p. 314-323. DOI : https://doi.org/10.1016/j.intell.2010.03.001

[3] Kämpfe Juliane et al. “The impact of background music on adult listeners: A meta-analysis”. Psychology of music, 2011, vol. 39, no 4, p. 424-448. DOI : https://doi.org/10.1177/0305735610376261

[4] Lechevalier Bernard, Platel Hervé et Eustache Francis. Le cerveau musicien, neuropsychologie et psychologie cognitive de la perception musicale. De Boeck, 2017, 322 pages.

[5] Platel Hervé et Thomas-Antérion Catherine. Neuropsychologie et art – Théories et applications cliniques. De Boeck – Solal, 2014, 365 pages.

[6] Article prépublié le 10 novembre 2022 par la revue Nature, en anglais, présentant les résultats de l’essai de thérapie CAR-T cell sur des patients atteints de cancer : Foy Susan et collaborateurs, Nature, 2022, vol. 615.
DOI : https://doi.org/10.1038/s41586-022-05531-1 .

Olivier Prot

Enseignant-chercheur à l’Université de Limoges (XLIM).

La 5G, quels risques pour la santé ?

Avant d’apporter des éléments de réponses à cette question, quelques spécificités de la cinquième génération de téléphonie mobile (5G) peuvent être notées.

En effet, la 5G n’est plus « simplement » un système de téléphonie mobile mais elle propose des utilisations dans un large panel d’applications tel que les domaines de la télémédecine, des médias, des transports, de l’industrie de demain, etc.

L’apport technologique de la 5G s’appuie principalement sur le saut de performances proposé avec notamment, en comparaison à la 4G, une multiplication par 10 des débits de transmission et du nombre d’utilisateurs ainsi qu’une réduction par 10 des temps des réponses (latence du réseaux).
Le déploiement de la 5G porte sur trois nouvelles bandes de fréquences à savoir : 700 MHz, 3,5 GHz et prochainement la bande du 26 GHz.

Par rapport aux technologies actuelles, l’augmentation des usages et des équipements liés à la 5G pose toujours des questions sur l’impact énergétique et également sur l’exposition humaine. 

En ce qui concerne l’exposition des individus aux signaux de la 5G, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) a publié en 2021 un rapport d’expertise [1,2] (actualisé en février 2022) sur les effets potentiels de la 5G sur la santé.

Les premières conclusions de ce travail d’expertise collective indiquent qu’il n’existe pas à l’heure actuelle de preuve avérée d’effet sanitaire lié aux sources de champs électromagnétiques usuelles.

Concernant le déploiement de la 5G en particulier dans les bandes 3,5 GHz et 26 GHz, le rapport d’experts constate également le manque de données scientifiques.

Pour acquérir des nouvelles connaissances et répondre aux interrogations, 4 projets [3] d’envergure sur les effets des ondes électromagnétiques de la 5G sur l’humain et l’environnement ont été lancés en 2022, dans le cadre du programme Horizon de l’Union Européenne ainsi que plusieurs projets soutenus par l’ANSES en France.

[1] Anses. « Exposition aux champs électromagnétiques liée au déploiement de la technologie 5G ». Avis actualisé de l’Anses : Rapport d’expertise collective. Février 2022. Disponible sur : https://www.anses.fr/fr/system/files/AP2019SA0006RA-2.pdf 

[2] Anses. « 5G : pas de risques nouveaux pour la santé au vu des données disponibles ». 2021. Disponible sur : https://www.anses.fr/fr/content/5g-pas-de-risques-nouveaux-pour-la-sant%C3%A9-au-vu-des-donn%C3%A9es-disponibles

[3] Exposure to electromagnetic fields (EMF) and health. Environment and health (2021) (HORIZON-HLTH-2021-ENVHLTH-02).
Disponible sur : https://ec.europa.eu/info/funding-tenders/opportunities/portal/screen/opportunities/topic-details/horizon-hlth-2021-envhlth-02-01

Délia Arnaud-Cormos

Laboratoire XLIM

Philippe Lévêque

Laboratoire XLIM