Programme 2025 du Club France

Programme 2025 du Club France

Listes des réunions 2024-2025

 

  • Mercredi 4 Septembre 2024 : « Panorama des IA Génératives en avril 2024 » par Christophe Legrenzi et Georges Bressange.

Presque six mois se sont écoulés depuis notre dernière intervention du 8 novembre, où nous avions passé en revue de nombreux modèles de langage à grande échelle (LLM) et des solutions riches en applications dans le contexte professionnel. Depuis, le paysage de l'intelligence artificielle générative (IAG) a évolué à une vitesse vertigineuse, rendant le choix parmi les offres existantes encore plus complexe, notamment en raison de la concurrence accrue entre les modèles open source et les solutions propriétaires, chacun présentant des avantages et des inconvénients distincts.

Au cœur de cette évolution rapide, les architectures Mixture-of-Experts (MoE) tels Mixtral 8X7B, FLAN-MoE, GPT-4 et Gemini pro, promettent de meilleures performances, un entrainement du modèle plus rapide (et donc moins couteux) et des coûts d’inférences significativement plus faibles. Cette approche améliore considérablement la capacité du modèle à apprendre et à traiter des tâches complexes rapidement, promettant des applications plus diverses et plus puissantes dans des domaines aussi variés que l'analyse de contenu vidéo, audio, ou encore le traitement de grands corpus de texte.

En parallèle, l'écosystème de l'IA continue de s'enrichir avec les dernières versions des modèles tels que Claude, développé par Anthropic, qui se distingue par sa capacité à comprendre et à générer des réponses dans un cadre éthique et sécurisé. Cette orientation vers des modèles d'IA plus responsables souligne l'importance croissante de la sécurité, de l'éthique et de la fiabilité dans le choix des technologies d'intelligence artificielle.

Dans ce contexte en pleine mutation, la question de savoir quels sont les modèles les plus performants et surtout comment les choisir en fonction du cas d'usage considéré devient cruciale. L'exploitation des bases de données vectorielles et des moteurs de réponse à la génération d'adresses (RAG) ouvre également de nouvelles perspectives pour les applications professionnelles, permettant des recherches et des interactions plus naturelles et intuitives avec de vastes ensembles de données.

  • Mercredi 25 Septembre 2024 : « Pas d'IA raisonnable sans une gouvernance affirmée » par Philippe Nieuwbourg

En mars 2024, a été annoncé le nouveau modèle développé par OpenAI, afin de créer intégralement des vidéos réalistes, Sora. Interrogée par Le Wall Street Journal, Mira Murati, Chief Technology Officer chez OpenAI - rien que cela - a publiquement reconnu qu’elle n’avait aucune idée des données qui avaient pu être utilisées pour l'entraînement du modèle de Sora !

Elle a ainsi souligné au monde entier combien la mise en place de l'IA dans une entreprise impose de passer par la mise en place d'un cadre de gouvernance ad’hoc :

  • Cartographie des risques liés aux erreurs, aux biais, aux discriminations, aux hallucinations, ...
  • Mesure des risques liés à la non-qualité des données.
  • Mesure des risques liés à l'explicabilité et la reproductibilité des modèles.
  • Respect des règles de conformité établies au niveau local, sectoriel, national et international.
  • Statistiques des incidents détectés par le fournisseur et par les clients.
  • Existence d’une procédure de remonté des incidents et les suites qui leur sont données.
  • ….

Les entreprises clientes doivent veiller à ce que ces applications sont certifiés par un organisme connu et fiable et dans le cas de la mise en œuvre à grande échelle il est prudent d’effectuer un audit des risques et des mesures prises pour les réduires.

C'est un sujet dont les CIGO (Chief Information Governance Officer) comptent bien s'emparer. Ils ont déjà leur association, leur framework, leur lobby. Malheureusement pas encore très développés en France.

 

  • Mercredi 6 Novembre 2024: « Regards croisés sur les IA Génératives dans l’Enseignement Supérieur en Gestion : Panorama des pratiques et perspectives des IAG, une étude menée par la FNEGE » par Bernard Quinio

L’année 2023 a marqué des avancées majeures dans le domaine des intelligences artificielles génératives (IAG), transformant en profondeur les méthodes pédagogiques et les outils éducatifs. Le développement rapide de technologies telles que ChatGPT, intégrée par Microsoft dans Bing, et le lancement de GPT-4 par OpenAI, ont eu un impact significatif sur l’enseignement supérieur. Les préoccupations réglementaires et éthiques ont également émergé, avec des débats sur la protection de la vie privée, la désinformation et la sécurité des données. 

L’étude vise deux principaux objectifs :

  1. Dresser un état des lieux des pratiques actuelles liées aux IAG dans l’enseignement supérieur en gestion.
  2. Proposer des pistes de réflexion pour une adoption critique, positive, éthique et rigoureuse des IAG par les étudiants et les professeurs.
  • Mercredi 27 Novembre 2024 : « Les enjeux stratégiques de l'informatique des territoires» par Philippe Cases et Louis Montagne

 

En 2011, Marc Andreessen, inventeur du navigateur web et General Partner chez A16Z, déclarait que « le logiciel est en train de conquérir le monde » ("Software is eating the world"). Quinze ans plus tard, cette prédiction s’est concrétisée, impactant tous les secteurs. Usines, entrepôts et magasins interagissent désormais en temps réel avec des robots et des humains pour optimiser leurs processus, tandis que l’intelligence artificielle générative accélère cette automatisation.

Cependant, l'accès à ces technologies reste un privilège coûteux, réservé aux grandes entreprises et aux métropoles. Dans les territoires, les PME, notamment dans l’agriculture et l’industrie, ne pourront automatiser à grande échelle que si ces technologies sont mutualisées localement entre les entreprises. Cela leur permettrait de se moderniser et de rester compétitives. Le succès de la réindustrialisation des territoires dépendra donc de leur capacité à réinventer les interactions entre entreprises locales.

Pour les collectivités, le défi est similaire. Alors que les grandes villes ont déjà adopté le numérique, les petites communes, souvent regroupées sous le terme de « territoires », en sont encore à un stade précoce de leur transformation digitale. Leurs budgets informatiques sont souvent bien inférieurs à ceux des grandes villes, accentuant ainsi le fossé numérique.

Aujourd’hui, les territoires français sont au centre d’un enjeu technologique majeur. Leur attractivité et leur réindustrialisation reposent sur leur capacité à automatiser et digitaliser leurs écosystèmes locaux. Pour y parvenir, plusieurs actions doivent être envisagées :

  • Créer des clouds locaux pour garantir des temps de réponse rapides.
  • Mutualiser les ressources pour réduire les coûts technologiques.
  • Repenser les processus de coopération local en intégrant les technologies actuelles.
  • Encourager une coopération européenne pour développer des solutions durables.

Durant la présentation, nous approfondirons ces points et introduirons des approches telles que Tomorrow Territories pour répondre à ces défis et nous ferons un brainstorming pour penser à d’autres actions possibles.

  • Mercredi 18 Décembre 2024 : « Tentative pour comprendre les mécanismes de ChatGPT» par Jean Rohmer.

Comment fonctionne réellement ChatGPT et tous les systèmes d’Intelligence Artificielle Générative ? Ce n’est pas évident à comprendre et les développeurs comme OpenAI ne sont pas franchement communiquant sur ce sujet.

Dans ma présentation faite au Club le 5 Juin dernier : « L’avenir de l’Intelligence Artificielle Générative. Quelles voies et quels potentiels après ChatGPT ? », j'avais esquissé une tentative pour essayer de comprendre le fonctionnement intime de ChatGPT. Je vais poursuivre dans cette voie à tâtons, en insistant en particulier sur quatre points :

  • Regarder les LLM comme des algorithmes de compression. En gros ils compressent par exemple 50 téraoctets de documents en entrée en 500 milliards de paramètres numériques. Mais ceci amène trois questions :
    • qu'est-ce qu'on garde ?
    • qu'est-ce qu'on perd ?
    • qu'est-ce qu'on met en facteur ?
  • Ceci amène à se poser la question de la diversité des documents que l'on prend en entrée.
    • Est-ce que ce sont des faits, des connaissances (lois, règles), des raisonnements, des descriptions ?
    • Est-ce que le système va ingurgiter à la fois "Les Misérables", des études sur les Misérables, des résumés des Misérables. Comment s'y retrouver ?

On doit de même s’interroger sur la diversité des prompts : c'est très différent de faire des prompts assez courts de recherche d'information, ou d'utiliser des prompts très longs contenant eux-mêmes des connaissances (c’est le "few shot learning")

Enfin, on se sent obligé de rajouter au mode de fonctionnement pur des LLM une liste des "suppléments" de traitement comme les  Knowledge Graphs, les RAG (Retrieval Augmented Generation), … Qu’est-ce que ces adjonctions nous apprennent du fonctionnement du noyau des LLM ?

Mais peut-être que dans quelques semaines ou quelques mois le système Q* sera sorti et cela rebattra complètement les cartes

  • Mercredi 29 Janvier 2025 : « La Chine veut détrôner les Etats-Unis pour le leadership de l'Intelligence Artificielle» par David Fayon et Gilbert Révillon

Depuis le plan « Made in China 2025 » lancé il y a 10 ans mais aussi « Internet+ », la Chine a mis les bouchées doubles pour rattraper son retard et même dépasser les Etats-Unis dans l’ensemble des facettes du numérique. L’IA, qui est au cœur du numérique, n’y déroge pas et l’ambition est d’ici 2030 la Chine devienne le leader mondial.

L’Empire du milieu est devenu le pays qui dépose le plus de brevets au monde dans le domaine de l’IA, ce qui ne préjuge pas de leur qualité toutefois. Investissements publics, cadre juridique entre contrôle et initiative jusqu’à un certain point, y concourent. L’IA est devenue un enjeu de sécurité nationale et de développement du pays.

Avec les BATHX (équivalent peu ou prou des GAFAM) et une kyrielle d’autres acteurs, ils ont développé leurs propres outils (LibLib, au sein de Douyin, etc.) qui n’ont rien à envier à OpenAI ou à Anthropic.

190 LLM ont déjà été validées par les autorités et ce n’est qu’un début. De nombreuses entités de Chine sont impliquées dans ce « grand bond en avant de l’IA » notamment la Cyberspace administration of Chine (CAC). En effet l’IA générative soulève d'importantes questions de régulation et d’éthique avec par exemple mention des contenus générés par de l’IA.

Par ailleurs, la Chine développe une fusion entre ses activités de R&D pour les domaines civil et militaire avec le concept de MCF (Military-Civil Fusion) qui n’est pas sans rappeler qu’Arpanet, l’ancêtre du réseau Internet. Il est né de la fusion de Milnet d’origine militaire et d’Arpanet pour former qu’Internet. Cette fusion des réseaux est en Chine une réalité qui a démarré depuis le 13e plan quinquennal (2016-2020) du PCC (Parti Communiste Chinois). Ceci se traduit sur de nombreux aspects, outre la rapidité d’exécution, par des similitudes d’approches de méthodes entre Américains et Chinois.

En ce qui concerne la gouvernance de l’Intelligence Artificielle les autorités ont identifié 31 risques et 5 catégories. Ce sont les contenus :

  • violant les valeurs socialistes,
  • discriminatoires,
  • portant atteinte au droit commercial,
  • portant sur les droits individuels ,
  • ne respectant pas les obligations réglementaires en termes de sécurité.

Ces formulations suffisamment floues permettent à la Chine de continuer son double jeu : développement économique tant sur son marché intérieur qu’à l’export et mainmise du PCC.

  • Jeudi 20 Mars 2025 : « L'IA une nouvelle étape pour les villes intelligentes »parPierre Berger

L’élément de langage « ville intelligente » n’a pas eu le succès escompté. Pas plus que celui de « ville numérique » dans les années 2000. C’est que l’informatique d’une ville est éclatée entre des dizaines d’applications différentes, et que le caractère très personnel de bien des données exclut leur « désilotage ».

Est-ce que les IA Génératives vont permettre d’améliorer significativement la situation ?

Il est probable que l’IA en général et probablement les Intelligence Artificielle Génératives vont permettre d’augmenter la productivité et la qualité d’une bonne partie de ces applications, notamment grâce à des interfaces plus amicales et plus personnalisées pour le personnel comme pour les élus et les citoyens, y compris les moins familiers avec les outils informatiques.

Même le désilotage pourrait être permis par une utilisation fine de l’anonymisation et du secret statistique.

Mais bien sûr, ici comme ailleurs, les risques ne sont pas négligeables : suppression d’emplois, dénis de démocratie …  : un débat qui n’est pas propre aux villes, mais y prend une densité particulière dans leur cas. Comme tous les acteurs de la vie économique, sociale et politique, elles vont y aller. Les grandes villes y sont déjà mais cela risque d’être plus difficile pour les petites villes ou les villages.

C’est le moment d’en débattre. 

  • Mercredi 26 Mars 2025 : « Panorama des IA Génératives en mars 2025. Point semestriel sur les LLM » par Christophe Legrenzi et Georges Bressange

Six mois se sont écoulés depuis notre dernière réunion du Club le 4 Septembre consacrée à passer en revue les nombreux modèles de langage à grande échelle (LLM). Le paysage de l'intelligence artificielle générative (IAG) évolue très rapidement, rendant les choix difficiles. Les offres sont nombreuses et l’arrivée de Deepseek renforce la concurrence entre les modèles open source et les solutions propriétaires.

En ce début d’année on note sept évolutions importantes :

  • Le développement raide des LLM comme Deepseek avec les architectures associées incluant notamment celles dites de MoE, Mixture-of-Experts.
  • Les innovations importantes en matière d’Agents conversationnels qui vont impacter de nombreux métiers somme le SAV, l’assistance technique, le conseil aux clients et aux prospects, …
  • Le rôle croissant des Agents Intelligents comme Copilot ou Operator qui permettent aux professionnels de faire plus vite et plus efficacement leur travail.
  • Le développement de solutions originales Multi-Agents de type Flowise, Langchain, … Ces approches vont probablement se développer rapidement car ils sont plus souples et plus efficaces que les agents « classiques ».
  • On observe la multiplication des applications IAG multimodales qui permettent de traiter avec la même interface des images, du son et de la vidéo. Ce sont des outils puissants de production et de post-production qui vont impacter tous les métiers du graphisme, de la radio, de la télévision et du cinéma.
  • Les outils de développement se perfectionnent et changent les métiers de l’informatique allant du concepteur, de l’analyste, du programmeur, du testeur jusqu’à celui du mainteneur.
  • A cela s’ajoute l’apparition d’un certain nombre d’applications d’IAG originales et qui montrent l’étendue des possibilités d'utilisation. Elles sont considérables.

Dans ce contexte en pleine mutation, la question de savoir quels sont les modèles les plus performants et surtout comment choisir la bonne solution en fonction du cas d'usage considéré devient cruciale. Ces démarches ouvrent de nouvelles perspectives pour les applications professionnelles, permettant des recherches et des interactions plus naturelles et intuitives parmi des masses immenses de données.

  • Mercredi 30 Avril: « Mesurer la valeur des réseaux» « Qui se souvient de la loi de Metcalfe ? Avec quelques évolutions récentes elle est toujours vérifiée » par Georges Bressange.

La loi de Metcalfe tire son nom de Robert Metcalfe, l'un des inventeurs du réseau Ethernet et cofondateur de la société 3Com. En 1973, alors qu'il travaillait chez Xerox PARC, Metcalfe a énoncé une règle empirique sur la valeur des réseaux en fonction du nombre d'utilisateurs connectés.

La loi de Metcalfe stipule que la valeur d'un réseau de communication est proportionnelle au carré du nombre de ses utilisateurs connectés. Autrement dit, chaque nouvel utilisateur ajoute de la valeur à tous les autres déjà présents sur ce réseau. Cette loi souligne l'effet de réseau : plus il y a d'utilisateurs, plus le réseau devient attractif et utile pour chacun. Elle met en lumière les externalités de réseau qui augmentent considérablement avec la taille de la base d'utilisateurs.

La loi de Metcalfe a été très importante dans les années 1980-90 pour expliquer le succès fulgurant des grands réseaux comme Ethernet, Internet ou le téléphone. Elle a stimulé l'adoption massive de ces technologies. Elle été généralisée et « améliorée » dans divers contextes.

Aujourd'hui, la loi de Metcalfe et ses généralisations restent toujours éclairantes pour comprendre la puissance des effets de réseau sur la valorisation de plateformes numériques comme Facebook, Google, LinkedIn, etc. qui croient de façon exponentielle. Elle explique aussi l’effet réseau dans les systèmes d’IA collaboratifs. Elle trouve également un prolongement dans le contexte spécifique d’une entreprise et de la mesure de la valeur du réseau constitué de ses collaborateurs. Bien sur ces « lois » ont aussi des limites suivant le contexte.

  • Mercredi 21 Mai 2025: « Les cycles longs en informatique ou la "Loi des 30 ans"» par Jean Rohmer

L'effervescence actuelle autour du développement d'applications exploitant l'IA générative est impressionnante. A partir de la "magie" des outils comme ChatGPT, pour dépasser les limites du simple "chat", on a vu fleurir en quelques mois les RAG, les Knowledge Graphs, le fine tuning, et maintenant les agents, et multiagents, ainsi que toutes sortes d'outils d'ingénierie visant à gérer les données d'entrainement, contrôler la qualité des résultats, orchestrer l'ensemble,   comparer les différents modèles, aider à rédiger des prompts,  créer des "stacks IA", définir ce que doit être le "AI-ops", ...

Une telle concentration de changements de pratiques et d'innovations est rare en informatique. On peut dater la précédente effervescence de la même ampleur lors du "moment Web", au milieu des années 1990, avec l'apparition des outils autour de HTTP, serveur Apache, langages comme Javascript, formats CSS, l'apogée du Quatuor LAMP (Linux, Apache, MySql, PHP), venant radicalement simplifier et démocratiser le développement d'applications, par contraste à une précédente génération d'outils très professionnels et techniques comme les systèmes d'exploitation, le temps partagé, les langages de haut niveau sophistiques, les compilateurs, les bases de données, (et déjà la virtualisation) datant du "moment software engineering"  du milieu des années 1960.

Donc des précédents se situant il y a 30 ans, et 60 ans. Et si on extrapole en remontant le temps, on trouve il y a 90 ans les travaux de Turing, Church et Gödel sur la calculabilité, et il y a 120 ans, les idées d'axiomatisation des mathématiques par la logique de Russel et Frege.

Il y aurait donc une vague de changement de paradigmes et de pratiques tous les 30 ans -environ bien sûr- dans ce que l'on peut appeler le "traitement automatique de l'information", plus ou moins centrée sur les milieux des décades : 1905, 1935, 1965, 1995, 2025 ... Nous proposons donc d'explorer cette conjecture. Nous la complèterons par une conjecture duale : c'est qu'il existe la même périodicité de 30 ans -mais orthogonale- dans les développements des machines de traitement de l'information, décalée de 15 ans :

  • 1920 : mécanographie,
  • 1950 : ordinateurs de Von Neumann,
  • 1980 : microprocesseurs puissants,
  • 2010 : usage des processeurs graphiques pour les algorithmes de traitement des données.

Comme si ces deux phénomènes avaient chacun une période de 30 ans -une génération- mais se faisaient mutuellement la courte échelle à mi-période tous les 15 ans.

  • Mercredi 11 Juin 2025: « La réalité sur l’Open Source en Intelligence Artificielle Géné » par Philippe Cases

Les développeurs de systèmes d’IA Géné recourent de plus en plus à l’Open Source pour les créer. Cette démarche constitue un progrès important et c’est un levier d’innovation et de large diffusion de ces technologies. Toutefois, la réalité de la pratique de l’Open Source est moins parfaite que ce qui peut être affirmé.

Point positif : il existe de nombreux modèles et des frameworks disponibles en Open Source comme TensorFlow, PyTorch ou Llama. Ils offrent un accès plus simple aux technologies permettant de faire fonctionner rapidement des systèmes d’Intelligence Artificielle générative. C’est une opportunité inédite dans l’histoire de l’informatique. Cependant il faut savoir que ces modèles restent majoritairement contrôlés par quelques grandes entreprises. De plus, il est nécessaire d’une grande puissance de calcul pour entraîner les IA Géné avancées. Cela constitue une barrière à l’entrée, limitant l’autonomie des acteurs indépendants.

La gouvernance des modèles Open Source est un enjeu stratégique, notamment face aux usages malveillants. L’absence de standards clairs et la fragmentation des initiatives compliquent l’intégration de solutions dans des environnements commerciaux, industriels et administratifs publics et privés. Ainsi, malgré son potentiel, l’Open Source en IA constitue un certain nombre de défis de souveraineté, de sécurité et de soutenabilité économique qu’il est nécessaire d’évaluer correctement pour ensuite chercher à faire progresser ces systèmes.

  • Mercredi 2 Juillet 2025 : « Intelligence artificielle & intelligence collective : Duo gagnant pour les entreprises ? » par Christophe Legrenzi

Plongez au cœur des enjeux actuels de l'intelligence artificielle et de l'intelligence collective, deux leviers majeurs de transformation pour les organisations.

Découvrez les définitions clés et les différences entre intelligence individuelle et collective, ainsi que les facteurs qui distinguent la performance des groupes sur la base des dernières recherches, de la communication à la culture d'entreprise.

Explorez les grandes études qui ont façonné notre compréhension de l'intelligence collective, et les modèles comme la théorie des 5C.

Analysez les tendances récentes en matière d'intelligence individuelle, telles que l'effet Flynn inversé et l'impact des technologies sur nos capacités cognitives.

Évaluez les bénéfices et les risques de l'IA sur la créativité, la pensée critique, la collaboration et la dynamique des équipes.

Enfin, partagez avec des pistes concrètes pour intégrer ces avancées dans vos pratiques et renforcer la synergie humaine-technologique au service de la performance et de l'innovation.

  • Mercredi 3 Septembre 2025 : « Le monde du numérique en 2030. Essai de prévision à moyen terme» par Bernard Laur

« La prévision est difficile surtout lorsqu'elle concerne l'avenir » avait constaté en son temps Pierre Dac. C’est particulièrement vrai en ce qui concerne le monde du numérique.

Au cours des cinq dernières années nous avons vécu des bouleversements considérables notamment dans le domaine de l’Intelligence Artificielle et le passage de la programmation à l’apprentissage. L’apprentissage machine et l’Intelligence artificielle générative ont profondément impacté notre secteur avec des effets considérables sur les applications, les usages, l’informatique des entreprises, les marchés des logiciels et des services, notamment le cloud, … Qu’en sera-t-il dans 5 ans ?

De nombreuses questions se posent :

  • Est-ce qu’au-delà des IA génératives de nouveaux modèles et de nouveaux outils vont apparaitre capables d’effectuer de véritables raisonnements ? Est-ce que de nouveaux leaders vont surgir ? Dans ces conditions que va devenir OpenAI ?
  • Quelles applications vont être impactées par l’IA et comment vont elle être adoptées ? Quelle sera la formation des enseignants dans l’éducation ? Comment va évoluer l’assistance au diagnostic médical ? Comment se fera la généralisation de l’IA dans le secteur de la santé notamment de l’immunothérapie ? Quel sera le rôle des robots « pensants » dans l’industrie ? Comment va se développer l’automatisation de processus de bout en bout dans l’entreprise et l’administration ?
  • Quel impact sur les humains ? Quel sera le comportement des « jeunes » générations et notamment les alphas et les bêtas ?
  • Quel seront les impacts sur l’évolution du travail ? Est-ce la fin du travail ? Et que deviendra le télétravail ? Et par quoi sera remplacé le travail ? Le métier de programmeur est-il condamné ?
  • Quel sera impact sur le marché du numérique ? Va-t’on assister à des remises en question majeures ? Quels seront les leaders de demain ? Quel impact sur le cloud ? Que va-t-il advenir d’Intel face à Nvidia ? Quel sera l’avenir du neuromorphisme et du quantique hybride ? Quel sera l’impact sur le réseau Internet avec une baisse du trafic et une crise de l’activité publicitaire ? Que vont devenir les moteurs de recherches face aux moteurs de réponse ? Est-ce que Google va disparaitre ? Sans oublier l’avenir des droits d’auteur et des droits voisins ?
  • Est-ce qu’il y a un risque de vivre un nouvel « hiver de l’IA » ? Y-a-t-il un risque de ne pas pouvoir monétiser et donc de rentabiliser l’IA ? Quel sera l’ampleur de l’impact énergétique ? Restera-t ’on toujours impuissant face aux risques d’insécurité liés à l’IA ?
  • Quel rôle majeur vont jouer le législatif (RGPD, DSA, DMA, AI Act), la règlementation et la géopolitique ? Pourra-t-on résoudre les challenges posés par l’authentification, l’habilitation et l’explicabilité (c’est-à-dire la transparence) ? Entre le laisser-faire américain, la régulation sous contrainte chinoise et le foutoir européen, y aura-t-il un gagnant, un suiveur et un perdant ?

Ce sont autant de questions qui vont structurer l’avenir du monde du numérique. Si vous voulez connaitre les réponses à toutes ces questions rendez-vous le Mercredi 3 septembre à 18 h 30.

 

 

Thèmes de réflexion 2025

  1. La transformation numérique en pratique. Au travers d’un cas réel de transformation numérique d’une entreprise réelle montrer les changements de procédures et de méthodes qui ont été effectués. Il faut montrer les enjeux et les risques rencontrés. Quel est le rôle de l’informatique dans ces changements et celui de la DSI ? Et celui du management et notamment du DG ?
  1. Les véritables caractéristiques de la révolution numérique. Elle est en cours depuis plusieurs années. C’est un changement considérable qui bouleverse profondément le fonctionnement des entreprises :
  • Contrairement à ce que certaines personnes affirment ce n’est pas l’équivalent de la révolution industrielle. C’est un processus d’une autre nature.
  • C’est un changement considérable des relations des hommes avec les machines notamment les robots mais aussi des PC travaillant avec des systèmes à base d’IA.

Il est important de comprendre la nature de la révolution numérique et son impact économique.

  1. Point semestriel sur les développements de l’IA Générative. Comme nous l’avons déjà fait déjà depuis deux ans faire le point sur l’avancement des systèmes, les progrès réalisés, l’état du marché, les succès et les difficultés rencontrées.

 

  1. Quelle prise en compte de l'IA ? Où en est-on réellement aujourd'hui de l'IA (générative ou autre) en entreprise ? Après l'emballement déclenché par l'IA générative, on sent poindre la phase d'interrogation, voire de déception : retours désappointés des utilisateurs de ChatGPT en accès libre sans mode d'emploi, inflation des factures IA dans le cloud, .... Découverte de la faiblesse des données d'apprentissage entraînant le blocage de projets. Effet dévastateur de la médiatisation sur le moral des collaborateurs (grand remplacement, licenciement). Et quasi impossibilité de se faire une idée précise de ce marché et de son évolution face aux évolutions techniques et à l'inflation de fournisseurs, éditeurs, services. Alors, on fait quoi ?

 

  1. La mise en œuvre de l’IA Gene dans un service d’études informatiques. A partir d’un cas réel montrer les changements et les gains réels aux différentes étapes du processus de gestion de projets sur de vrais projets. Quel est la qualité du code ainsi produits ? Y’a-t-il de vrais gains de productivité ? Et la réduction des délais ? Ce serait la suite de l’exposé fait par Sébastien Méric en Février 2024 mais sur la base d’un cas réel.
  1. Est-ce que l’Intelligence Artificielle va sortir l’Europe de sa faible croissance ? Le récent rapport de Mario Draghi propose d’investir massivement dans l’Intelligence Artificielle pour rattraper le retard de croissance de l’Europe par rapport aux USA (The Future of European cometitiveness, tome 2, pages 77 à 85). Mais est-ce vraiment raisonnable ? Est-ce une véritable stratégie ? N’est-il pas déjà trop tard ?

 

  1. L’Intelligence Artificielle : les cinq prochaines années. Les développements de l’Intelligence Artificielle sont très rapides et les applications reposant sur ces différentes technologies se multiplient. Quels sont les facteurs expliquant ces progrès ? Quel sont les impacts sociaux et économiques ? Quel est le risque de créer un chômage technologique massif ? Quelles seront les conséquences sur les compétences et les qualifications des salariés ?
  1. Les applications de ChatGPT. Le succès des logiciels d’IA Générative dépasse l’imagination. Aujourd’hui un milliard de personnes se connectent chaque mois à ChatGPT. Mais une fois qu’ils ont fait écrire un poème ou une histoire pour endormir les petits enfants que peut-on faire avec ? Une étude de McKinsey identifie 63 « use case » notamment dans le marketing, la gestion des clients, la R&D des produits, le développement des logiciels, … Quelles sont celles qui sont réellement mises en œuvre ? Ont-elles un impact significatif ? Quelles sont celles qui sont peu rentables ?
  1. Tous sur le cloud ! D’année en année on constate la croissance particulièrement rapide du marché du cloud. En 2022, dans le monde, il est évalué à 545,8 milliards de dollars soit une croissance de + 22,9 % par rapport à 2021. Un vrai raz de marée. Dans ces conditions est-ce que les entreprises vont encore longtemps conserver des centres de traitements propres. Va-t’on assister à la fin du "on premise" ?
  1. Suis-je à niveau en cybersécurité ? Face à l'explosion des cyberattaques, en nombre et en technicité, boostées par l'IA, l'infrastructure, l'organisation et la stratégie déployées par les entreprises sont-elles suffisantes ? Les approches, les outils, les méthodes, les services proposés évoluent et se multiplient (le marché va progresser de 13,4% en 2024). Sans oublier la nécessité de conformité règlementaire : NIS2, CRA, Dora, ... Quelle trajectoire retenir pour faire évoluer l'existant ? Faut-il adopter (ou se préparer à adopter) ces nouveaux concepts qui nécessitent une évolution, une remise en cause de l'existant : zéro trust, Sase, SD-Wan, Passkeys, CAS, Privacy/security by design, ... ? Au vu des problématiques générées par le cloud, le télétravail, le mobile, l'externalisation est-elle une / la solution : nouveaux services (SOC), nouveaux systèmes (plateformes unifiées, data résilience) ?
  1. L’entreprise face à l'inflation règlementaire. Parler d'inflation règlementaire est largement en dessous de la vérité : Loi PACTE et RSE, CSRD, ESRS, RGPD, décret Biden et l’IA Act, décision d'adéquation CDP / DPF , loi anti gaspillage AGEC, NIS2, loi REEN visant à réduire l'empreinte environnementale du numérique (Green IT et IT for Green), contrôle de l'âge en ligne, impact éventuel de DSA, DMA, ..etc. Comment faire face à ce déluge ? Quelle organisation (obligatoirement) transverse ? Quels outils ? Quel(s) responsable(s) au-delà des RSSI, DPO, CDO, responsable RSE, ... pour assurer la coordination de l'ensemble ? Comment la DSI va-t-elle pouvoir fournir les données et les outils nécessaires à la formalisation de la conformité ?
  1. L’intégration des nouvelles approches de développement. Comment faire évoluer les méthodes et les outils de développement de systèmes numériques pour tenir compte de deux tendances. D'une part la "programmation sans programmer ni programmeur" (IA générative, Low code/No code, …) qui voit sa limite dès que la complexité d'une application augmente. D'autre part les nouveaux concepts induits en particulier par le nécessaire (re) développement d'applications complexes sur les infrastructures cloud, applications qui étaient jusqu'à présent sur des équipements traditionnels (mainframes, serveurs ) : cloud "natif" , "hybride", micro-services, super-applications, privacy/security by design, … assistés par d'autres outils d'IA.
  1. Les évolutions de l’infrastructure informatique. En moyenne 34% du budget informatique d'une entreprise est consacré à l'infrastructure numérique. Aujourd'hui des disruptions majeures imposent une évolution des stratégies d'équipement : Quelle infrastructure cible pour les postes de travail, les serveurs, les réseaux de l'entreprise ? Quelle trajectoire d'évolution ? Adoption et déploiement de PC-Intelligence Artificielle ? Abandon de Windows 10, passage à Windows 11 et capacité d'évolution vers Windows 12 ? Quels recours au cloud au-delà de ce qui a déjà été fait (Office, Teams, Salesforce, ... )? Quelles applications conserver en interne ? Comment assurer la résilience-en particulier des données face à l'augmentation des risques liés à la cybersécurité ? Faut-il adopter l'approche SD-WAN? Les serveurs d'IA doivent-ils être conservés en interne ou dans le cloud ? Quel impact global sur les Capex et les Opex ?
  1. Faire face à l'augmentation des coûts informatiques. Ils augmentent bon an mal an d’environ 3%. Les perspectives interpellent car 68 % des entreprises envisagent d'augmenter en 2025 très significativement leurs dépenses en IA, en sécurité et en réseaux. Le cloud avait été vu comme une possibilité de limiter les coûts d'infrastructure. En fait il n'en est rien car les coûts du seul cloud progressent plus vite (+3,6%) malgré la mise en place d'outils spécifiques de gestion (comme Finops). Et les retours ne sont pas bons : 32% des dépenses de services cloud seraient gaspillées ou dispersées en "shadow IT". Comment réagir sans pénaliser l'avenir ?

Thèmes des années précédentes

  1. Les facteurs d’inhibition de la transformation numérique. Les évolutions de la transformation numérique sont lentes et la distance entre les entreprises et les GAFAM ne cesse de croître. Dans ces conditions que peut-on faire ? Quels sont les facteurs de blocage et comment lever ces inhibitions ? Comment les directions générales des entreprises réagissent ou pourquoi elles restent passives ? Quelles sont les conséquences de ces attitudes ?
  1. Les jumeaux numériques. C’est une application métavers fondamentale. A partir des bases de données décrivant un produit ou un processus il est possible d’effectuer des simulations. Les entreprises industrielles ont conçu de nombreuses applications de jumeaux numériques pour améliorer la conception des produits, pour assurer la maintenance des équipements, pour mieux contrôler des processus de production complexes, … C’est un enjeux stratégique important.
  1. L’architecture des grands projets. Ils sont complexes et coûteux. Est-il possible de réduire la lourdeur de ces opérations en découpant les grands projets en un certain nombre de petits projets plus faciles à maîtriser ? L’idée est séduisante mais est-ce une démarche réaliste ? Ne risque t’on pas de perdre la vue d’ensemble du futur système ?
  1. La fin des consultants classiques. Jadis les consultants étaient des sortes de docteurs des entreprises, comprenant les difficultés et proposant des solutions adaptées. Aujourd’hui, le métier a changé et les entreprises attendent des consultants qu’ils mettent en œuvre. Ils se rapprochent des sociétés de services. Ils fournissent des équipes chargées de réaliser des systèmes d’information « clés en main ». C’est une évolution importante.
  1. Les grands enjeux de l'entreprise numérique (M2M, H2M, H2H). La transformation numérique des entreprises est en route. Elle s’est même accélérée avec les confinements et le télétravail. Mais est-ce que les résultats sont au rendez-vous ? Peut-on accélérer le processus et arriver à dégager les gains attendus ?
  1. La révolution digitale est différente de la révolution industrielle. Klaus Schwab, fondateur du Forum de Davos, considère dans « la 4ème Révolution Industrielle » que l’informatique et Internet sont la 4ème révolution industrielle. Mais en vérité il n’y a eu qu’une seule révolution industrielle : celle de 1760-1830. Il n’y a pas eu de 2ème, 3ème et a fortiori de 4ème révolution industrielle. Il y a eu des vagues technologiques. Il est certain que la révolution digitale ou plutôt servicielle et/ou informationnelle est radicalement différente de la révolution industrielle du 18ème-19ème siècle car elle change la nature même du travail.
  1. Stratégie d’entreprise – Stratégie des Systèmes d’Information. Beaucoup d’entreprises n’ont pas de stratégie. Parmi celles qui ont une stratégie on constate que très souvent la réflexion stratégique globale se fait indépendamment de celle concernant les systèmes d’information. De plus, fréquemment ce n’est pas la stratégie des Systèmes d’Information mais la stratégie de l’informatique. Ce n’est pas la même chose. Il est fondamental de développer simultanément les deux approches.

 

  1. Les limites de la modélisation. L’emploi des modèles se généralise et les dirigeants prennent des décisions importantes grâce à des modèles (Voir Hans Rosling « Factfullness »). Mais parfois ils se plantent et cela se traduit par des dérives. Il faut comprendre ce qui s’est passé. Deux exemples : les études d’Oxford sur l’impact de l’Intelligence Artificielle et le modèle de l’épidémie par l’Imperial College. Ceci peut être dû à plusieurs facteurs : l’absence de théorie, un choix de variables discutables, des paramètrages inadaptés et des données erronées.
  1. Le fantasme technologique. Certaines entreprises se lancent dans des projets irréalistes et quelques années plus tard, après avoir dépensé quelques millions voire des dizaines de millions d’euros, elles finissent par les abandonner. Pourquoi ? Il est probable qu’il y ait des phénomènes de mode largement poussés par l’industrie informatique. Il arrive aussi que les entreprises se lancent dans des technologies immatures mais dans de nombreux cas ces échecs sont dus à l’absence d’étude de faisabilité sérieuse et de fantasme technologique.
  1. Vie et mort des entreprises sous la pression de la transformation numérique. Certaines entreprises sont capables de saisir les opportunités lorsqu’elles se présentent. Mais ce n’est pas le cas général. Il existe une pression croissante sur les entreprises qui continuent leur « business as usual ». Cependant les dirigeants sont de plus en plus angoissés. De plus ils ont souvent des réponses inadéquates. Quel sera l’issue de cette crise ?
  1. L’impact des TIC sur l’emploi. Avant la révolution industrielle la vie d’un homme correspondait à 500.000 heures et il travaillait 200.000 heures (pour ceux qui travaillaient) soit 40 %. Après Taylor un homme vivait 700.000 heures et travaillait 70.000 heures soit 10 %. Avec la transformation numérique on va vers moins de 50.000 heures.

Copyright ©2025 CEGSI - Club Européen pour la Gouvernance des Systèmes d'Information


main version