Introduction
Ce lundi 10 et mardi 11 février 2025, Paris a accueilli l’AI Action Summit, un événement clé pour l’avenir de l’intelligence artificielle en Europe. Face à une domination des géants américains et chinois comme OpenAI et Deepseek, l’Europe affiche une ambition claire : s’affirmer comme un acteur incontournable de l’IA.
« Trop souvent, j’entends dire que l’Europe est en retard dans la course, tandis que les États-Unis et la Chine ont déjà pris de l’avance. Je ne suis pas d’accord. La course à l’IA est loin d’être terminée. En vérité, nous n’en sommes qu’au début. Les frontières bougent constamment et le leadership mondial est toujours à saisir. » – Ursula von der Leyen, Présidente de la Commission européenne.
L’organisation de ce sommet de l’action pour l’IA traduit cette volonté. Pendant deux jours, les discussions ont mis en lumière les tensions, mais aussi les pistes d’action pour un développement équilibré et inclusif de l’intelligence artificielle.
Dans cet article, nous revenons sur les enseignements majeurs du sommet auquel Dydu a assisté.
L’IA : Opportunité ou défi pour le monde du travail ?
L’intelligence artificielle est souvent perçue comme une révolution qui menace l’emploi, mais la réalité est plus nuancée. Plutôt qu’un remplacement massif des travailleurs, l’IA transforme profondément les métiers. Comme l’explique Gilbert F. Houngbo, Directeur général de l’Organisation internationale du travail : « Il n’y aura pas énormément de remplacement d’emploi, cependant de nombreux emplois seront perdus, et de nouveaux seront créés. »
En effet, ce phénomène n’est pas sans conséquence. Certains métiers, notamment ceux occupés majoritairement par des femmes, sont plus exposés à l’automatisation, accentuant ainsi les inégalités. De plus, l’impact varie selon les régions :
- Dans les pays développés, environ 2,3% des travailleurs seront touchés par l’automatisation.
- Dans les pays du Sud, ce chiffre grimpe à 5%, notamment en raison du manque d’infrastructures pour accompagner cette transition.
Au-delà de la transformation du travail, un autre défi émerge : les nouveaux emplois créés par l’IA seront-ils aussi bien rémunérés et protégés que ceux qui disparaissent ? Le risque d’une précarisation du marché du travail inquiète de nombreux acteurs du sommet. Néanmoins, ces problèmes ne sont pas dénués de solutions.
Vers une meilleure adaptation des travailleurs
L’une des solutions évoquées pour faire face à ces bouleversements est l’investissement massif dans la formation. Pour Denis Machuel, Directeur général de The Adecco Group : « Faire une montée en compétences à grande échelle est essentiel pour garantir l’employabilité des travailleurs. »
L’enjeu est double :
- Former les travailleurs actuels aux nouvelles compétences requises pour collaborer efficacement avec l’IA.
- Accompagner les transitions professionnelles pour ceux dont les métiers seront fortement impactés.
Afin d’éviter l’obsolescence des travailleurs dans le monde du travail, ces deux points sont essentiels. Cependant, l’IA peut également être une alliée dans ce cas. En effet, elle permettrait un meilleur suivi des travailleurs en termes d’évolutions des compétences et de carrière. Le groupe Adecco mentionne d’ailleurs investir dans l’IA pour faciliter l’insertion professionnelle des travailleurs en mettant davantage en valeur leurs compétences professionnelles sur leur CV grâce à l’IA. Elle peut aussi permettre d’accompagner les travailleurs dans le processus de formation et d’insertion professionnelle.
Cependant, la formation seule ne suffira pas. Christy Hoffman, Secrétaire Générale d’UNI GLOBAL, souligne un manque d’inclusion des travailleurs dans la réflexion sur l’intégration de l’IA dans leur quotidien : « Les employés veulent être informés et consultés sur l’IA. Mais aujourd’hui, ils ne sont pas assez intégrés dans la réflexion. »
Également, ces formations et reconversions nécessitent des moyens financiers difficiles à obtenir.
Un dialogue plus équilibré entre entreprises, gouvernements et syndicats semble donc indispensable pour éviter une adoption unilatérale de l’IA au détriment des travailleurs.
Gouvernance et régulation : quelle IA voulons-nous ?
Trouver un équilibre entre innovation et encadrement
Avec l’essor de l’IA, la nécessité d’un cadre réglementaire devient une évidence. L’Europe entend jouer un rôle central en mettant en place une régulation qui favorise une IA compétitive mais responsable. Pour Ursula von der Leyen, Présidente de la Commission européenne : « Nous devons bâtir une IA compétitive, éthique et conforme aux valeurs européennes. »
Mais comment trouver l’équilibre entre encadrement et innovation ?
- Une régulation trop stricte risquerait de freiner les startups et la recherche.
- Une absence de règles pourrait laisser le champ libre aux abus, notamment en matière de protection des données et de biais algorithmique.
Le débat sur l’Open Source et les modèles propriétaires prend ici toute son importance. Clément Delangue, PDG de Hugging Face, défend une approche ouverte : « L’ouverture des modèles d’IA permet une meilleure transparence et un partage équitable du pouvoir technologique. »
Cependant, certaines entreprises et gouvernements s’inquiètent des risques sécuritaires et de la souveraineté numérique liés à l’Open Source. C’est là que l’IA Act entre en jeu : cette réglementation européenne vise à encadrer l’usage des IA à haut risque tout en laissant une marge d’innovation.
Le débat sur l’IA Act reflète les divergences entre modèles réglementaires :
- Les États-Unis misent sur une déréglementation pour conserver un avantage technologique.
- La Chine contrôle strictement le développement de l’IA pour des raisons de sécurité nationale.
- L’Europe cherche un équilibre entre régulation et innovation, mais risque d’étouffer son écosystème IA en imposant des contraintes trop lourdes.
Comme l’a souligné Emmanuel Macron lors du sommet : « Il y a un risque que certains décident de ne pas avoir de règles, et c’est dangereux. Mais il y a aussi le risque inverse, si l’Europe se donne trop de règles. ». L’enjeu est donc de construire une régulation flexible et évolutive, à l’image du RGPD qui a su influencer les politiques mondiales en matière de protection des données.
IA et cybersécurité : un enjeu démocratique
L’un des sujets les plus sensibles abordés lors du sommet est l’impact de l’IA sur la sécurité et la stabilité des démocraties.
Selon Edgars Rinkēvičs, Président de la Lettonie : « Les deepfakes et la manipulation numérique posent un risque majeur pour les élections et la confiance dans l’information. »
Face à cela, plusieurs solutions sont envisagées. La CNIL et d’autres organismes de régulation insistent sur la nécessité d’une plus grande transparence. Marie-Laure Denis, Présidente de la CNIL, souligne ainsi que : « Les entreprises doivent être transparentes sur l’utilisation des données personnelles et sur les biais de leurs modèles. »
Mais l’IA ne se résume pas à une menace. Elle peut aussi jouer un rôle actif dans la préservation de la sécurité numérique et la lutte contre la cybercriminalité. Des systèmes de détection automatique de cyberattaques utilisent déjà l’apprentissage automatique pour repérer des comportements suspects et bloquer des intrusions en temps réel.
Enfin, un consensus semble se dégager sur la nécessité d’une coopération internationale renforcée pour éviter que l’IA ne devienne un outil de surveillance ou de désinformation massive. Meredith Whittaker, Présidente de Signal, met en garde : « Il est crucial que l’IA soit utilisée comme un outil d’innovation, et non de surveillance. » Les préoccupations sur l’IA ne s’arrêtent pas seulement aux sujets de son impact sur la cybersécurité, mais également de celle sur l’environnement.
L’IA est-elle compatible avec des objectifs durables ?
L’empreinte carbone de l’IA
L’une des grandes interrogations du sommet concernait l’impact environnemental de l’IA. Alors que l’intelligence artificielle devient omniprésente, sa consommation d’énergie explose. « ChatGPT consomme 10 fois plus d’énergie qu’une simple recherche Google. » – Kim Sang-Hyup, Global Green Growth Institute (GGGI).
Les data centers, nécessaires pour entraîner et déployer des modèles de grande ampleur, exigent des ressources énergétiques colossales. Cependant, plusieurs initiatives cherchent à réduire cet impact :
- Améliorer l’efficacité des processeurs utilisés dans l’IA;
- Optimiser la gestion énergétique des data centers;
- Encourager l’utilisation d’énergies renouvelables dans le stockage et le traitement des données.
Lisa Su, PDG d’AMD, met en avant l’un des leviers possibles : « L’IA peut aussi être utilisée pour optimiser la gestion énergétique et la maintenance des réseaux électriques. »
Un autre enjeu majeur abordé au sommet est la nécessité de fixer des normes mondiales pour limiter l’impact écologique de l’IA. Le Global Green Growth Institute (GGGI) propose ainsi la création d’une coalition internationale dédiée à l’IA durable : « Nous devons fixer des normes mondiales pour limiter l’impact écologique de l’IA. »
Construire une IA plus efficiente
Certaines avancées technologiques permettent d’optimiser l’efficacité énergétique des modèles d’IA. Parmi elles :
- L’utilisation de processeurs plus efficients, comme ceux développés par AMD, qui visent à réduire la consommation énergétique des centres de données.
- L’optimisation des architectures de modèles pour nécessiter moins de calculs tout en conservant une performance élevée.
- Le développement de systèmes d’IA dédiés à l’optimisation et à la maintenance des réseaux électriques, contribuant ainsi à une meilleure gestion de l’énergie, comme dit précédemment et bien d’autres.
En plus des solutions technologiques, un changement de paradigme est nécessaire. Faut-il vraiment tout automatiser ?
Abeba Birhane, chercheuse à l’AI Accountability Lab, le souligne bien : « Avant d’implémenter une IA, il faut se demander si elle est réellement nécessaire et adaptée au problème. »
Plusieurs experts préconisent de miser sur des modèles plus petits et spécialisés, plutôt que sur des IA générales ultra-consommatrices de ressources. Arthur Mensch, Co-fondateur de Mistral AI, insiste sur une approche plus précise : « Parfois, il faut des modèles plus petits et plus ciblés pour améliorer l’efficacité énergétique. »
Le sommet AI Action a donc mis en lumière un consensus clair : l’intelligence artificielle a un rôle à jouer dans la transition écologique, mais elle doit être déployée de manière stratégique et responsable.
Finalement, les débats du sommet ont permis de mettre en avant un équilibre entre les bénéfices potentiels de l’IA et ses défis environnementaux. Une IA durable est possible, mais elle nécessitera une coopération internationale, des avancées technologiques et une réflexion stratégique sur ses usages.
Conclusion : Une vision responsable et pragmatique de l’IA
Le Sommet de l’IA 2025 a mis en lumière des enjeux essentiels : l’intelligence artificielle ne doit pas être une course à la puissance, mais une quête de pertinence et d’efficacité. Chez Dydu, cette approche guide notre engagement au quotidien.
Nous estimons que l’IA générative ne doit pas être employée de manière excessive ou inappropriée, mais qu’elle doit être intégrée de manière réfléchie, en fonction des besoins réels des utilisateurs. C’est pourquoi nous avons fait le choix d’utiliser les LLM de manière mesurée, en trouvant le juste équilibre entre les besoins clients et les ressources nécessaires. Nous restons également en veille sur les modèles plus petits et spécialisés, qui pourraient, à terme, permettre de réduire l’impact écologique et économique tout en garantissant des performances adaptées à chaque usage.
Un autre point fondamental qui a émergé du Sommet et que nous partageons pleinement chez Dydu, est la nécessité d’automatiser sans déshumaniser. L’IA ne doit pas être pensée comme un substitut à l’humain, mais comme un allié qui le libère des tâches à faible valeur ajoutée. Dans le domaine de la relation client, cela signifie permettre aux collaborateurs de se concentrer sur ce qui compte vraiment : l’écoute, l’empathie et la qualité des échanges. En valorisant ainsi leur rôle, l’IA devient un levier pour rehausser l’expérience client et revaloriser les métiers.
L’intégration des LLM dans notre solution repose donc sur un équilibre maîtrisé : offrir la meilleure expérience utilisateur possible sans surconsommer des ressources coûteuses et sans jamais perdre de vue l’importance du facteur humain. Cette philosophie, partagée par de nombreux experts du Sommet, confirme que l’avenir de l’IA repose sur une innovation responsable et durable.
Chez Dydu, c’est cette vision que nous continuerons à porter. 🚀