Intelligence artificielle et digital chaos : L’Efrei et le Figaro Étudiant donnent leur 2ème conférence - Efrei

Ce module a été développé afin de rendre le site Efrei accessible au plus grand nombre.

Si malgré notre vigilance, vous rencontriez le moindre problème d’accessibilité sur notre site, n’hésitez pas à nous contacter à l’adresse site-groupe@efrei.fr ou par téléphone au +33 188 289 000.

Contrastes
Police (dyslexie)
Interlignage
Justification
Images
Visuel Tech Alert conférence IA et Digital Chaos avec l'Efrei et le Figaro Étudiant
11 Avr 2025
Pédagogie
  • Partager sur Twitter
  • Partager sur Facebook
  • Partager sur Linkedin
  • Partager sur Whatsapp

Intelligence artificielle et digital chaos : L’Efrei et le Figaro Étudiant donnent leur 2ème conférence

2 avril 2029, une intelligence artificielle prend le contrôle des objets connectés. Fiction ou réalité ? L’Efrei et Le Figaro Étudiant présentent la deuxième conférence du cycle Tech Alert : IA/Digital Chaos, pour décrypter les enjeux de l’IA.

Et si demain, une IA surpuissante s’emparait de nos smartphones, ordinateurs et systèmes domotiques ? Le chaos digital n’est pas qu’un fantasme – des algorithmes incontrôlés ont déjà provoqué des crises, comme lors du krach boursier de Chicago en 2013, où des traders impuissants ont assisté à la domination des algorithmes de trading haute fréquence. Mais alors, qui contrôle vraiment l’IA ? Faut-il limiter son pouvoir pour éviter une prise de contrôle inattendue ? Quelles tâches doit-on lui déléguer ?

IA et chaos digital : un scénario catastrophe plausible ?

À l’Efrei, le 2 avril dernier, trois experts de l’intelligence artificielle ont débattu de ces questions fondamentales :

  • Luc JULIA (Concepteur de Siri, Chief Scientific Officer – Renault Group)
  • Jospéhine CORCORAL HURSTEL (Secrétaire Général adjointe – Conseil National du Numérique)
  • David SADEK (VP Research, Technology & Innovation – Thales)

👉 Pour en savoir plus sur les formations en intelligence artificielle à l’Efrei ; nos majeures de spécialisation dans le programme Ingénieur, nos diplômes du Programme Experts du numérique

IA de confiance : éviter le chaos numérique

Imaginez qu’une intelligence artificielle contrôle votre prochain vol… Cette hypothèse n’a rien de théorique : 2 avions sur 3 dans le monde dépendent des systèmes Thales pour leur navigation. Une simple défaillance algorithmique pourrait avoir des conséquences dramatiques. Opérer dans ce cadre pose donc des exigences sur les technologies numériques que l’on développe. Chez Thales, l’IA de confiance repose sur quatre piliers stratégiques :

  1. Validité – L’IA doit faire exactement et uniquement ce qu’on attend d’elle.
  2. Sécurité – cybersécurisation des systèmes
  3. Explicabilité – Comprendre comment l’IA prend ses décisions.
  4. Responsabilité – Une personne ou une structure doit toujours être responsable.

Comme le souligne Joséphine Corcoral Hurstel :

L’excellence technique ne suffit pas ; une réflexion éthique approfondie doit guider la conception des systèmes d’IA, surtout lorsqu’ils impactent des aspects vitaux de notre quotidien comme la protection sociale.

Cette approche exige des garde-fous robustes : transparence des processus, possibilité de contestation des décisions automatisées, et résilience intégrée dès la phase de conception. Le principe juridique reste immuable : derrière chaque machine, c’est toujours une personne ou une organisation qui doit répondre de ses actes, rappelant que la technologie, aussi avancée soit-elle, reste un outil au service de l’humain et non l’inverse.

Réguler l’IA, un défi

L’Europe a pris les devants en matière de régulation de l’intelligence artificielle avec l’AI Act, entré en vigueur en 2024. Ce texte pionnier classe les systèmes d’IA selon une échelle de risque progressif, imposant des obligations proportionnées à chaque niveau :

  • Risque faible → Code de conduite volontaire
  • Risque modéré → Obligation de transparence
  • Haut risque → Autorisation préalable et contrôles annuels
  • Risque inacceptable → Interdits dans l’UE (ex : justice prédictive)

Luc Julia, co-concepteur de Siri et actuellement directeur chief scientific officer chez Renault Group , souligne cependant les défis de cette approche :

Poser un cadre est indispensable, mais une application trop rigide pourrait freiner l’innovation européenne face aux États-Unis et à la Chine.

Cette mise en garde pointe le délicat équilibre que l’Europe doit trouver entre protection des citoyens et compétitivité technologique.

IA et désinformation : comment lutter ?

Face à la montée en puissance des IA génératives comme ChatGPT, Bard ou Deepseek, capables de créer des contenus automatisés à grande échelle, la question de la désinformation prend une nouvelle dimension. Plutôt qu’une interdiction illusoire, la solution résiderait dans l’éducation critique des utilisateurs et la création de garde-fous démocratiques. Ainsi que le rappelle très justement Joséphine Corcoral Hurstel:

On peut garder l’ascendant sur les IA en dédiant des espaces collectifs pour en parler et décider collectivement ce qu’on veut faire de ces outils.

Cette approche participative apparaît essentielle pour développer l’esprit critique face aux contenus générés, établir des normes éthiques partagées, et concevoir des mécanismes de vérification adaptés à l’ère de cette hyperproduction informationnelle. L’enjeu n’est pas seulement technique, mais profondément démocratique – il s’agit de préserver notre capacité collective à distinguer le vrai du faux dans un écosystème en pleine mutation.

L’IA, un outil à s’approprier avant qu’il ne nous dépasse

La conférence Tech Alert #2 a révélé un constat clair : si l’IA n’est pas un danger en elle-même, notre manque de préparation pourrait poser problème. Entre régulation, éducation et éthique, l’humain doit rester aux commandes.

 

🔗 En savoir plus sur les événements Tech Alert : www.efrei.fr/le-futur-sapprend-ici

Rendez-vous le 12 juin prochain pour la dernière conférence du cycle Tech Alert, qui portera sur les signaux extra-terrestres.