Pour comprendre ce qu’est l’IA d’aujourd’hui et comment elle se met en œuvre, il faut s’attarder sur les étapes d’évolution qui l’ont précédé.

Si l’on éclaire le chemin parcouru depuis les années 60 pour aboutir au monde numérique d’aujourd’hui, on constate que la progression s’est faite par paliers d’environ 10 années chacun et que chaque palier y a laissé une empreinte persistante.

La notion de programme se diffuse

Les années 60 sont marquées par le développement de l’informatique sortie des labos dix ou quinze ans plus tôt. On parle alors d’informaticiens et de programme informatique. A cette époque lorsque l’on voulait automatiser un processus administratif, une entreprise proposait une équipe d’informaticiens et facturait la main d’œuvre. On n’achetait pas un produit mais un travail de programmation.

Si l’on observe aujourd’hui le rôle des ESN, les modalités sont encore les mêmes. Bien que leur nom indique une fourniture de service, elles ne fournissent en réalité pour la grande majorité d’entre elles uniquement des ressources facturées au temps passé. Il s’agit pour les consultants placés d’écrire des lignes de code en python ou en java comme on le faisait à l’époque en algol ou en fortran, ce mode de fonctionnement est persistant.

Le programme devient un produit

Les années 70 ont vu l’avènement du terme « logiciel » pour désigner un produit non matériel. Dès lors ont émergé des éditeurs. A partir de là, pour automatiser son processus administratif il devenait possible d’acquérir un outil de comptabilité par exemple. Bien sûr il y avait toujours un peu de main d’œuvre mais une partie notable du prix reposait sur les licences.

Beaucoup de spécialistes du secteur n’ont pas compris ce virage à l’époque et ont employé le terme logiciel comme synonyme du terme programme tout en poursuivant leurs prestations vendues à la journée : « on va vous construire votre logiciel » disaient-ils, comme un maçon vous dit « on va vous construire votre mur ». A tel point que les éditeurs ont dû pendant un temps inventer un nouveau mot « progiciel » pour désigner leurs produits et marquer leur différence.

Aujourd’hui encore, les professionnels parlent souvent de développer un « logiciel spécifique », une « application informatique », donc de faire de l’artisanat et non du produit. L’IA n’échappe pas à cette règle, bien au contraire.

Les méthodes fleurissent

Les années 80 ont été le théâtre de grandes réflexions sur les méthodes dans le but de rationaliser le métier d’informaticien. C’est, par exemple, le berceau de la conception orientée objet et de l’intelligence artificielle. A cette époque l’intelligence artificielle consistait à programmer sous forme d’une collection de faits et de règles, de façon plus rapide et plus élégante que d’écrire des lignes de code.

Ces techniques communément exploitées de nos jours ont eu du mal à s’imposer car elle se heurtaient à l’ordre établit. Rationaliser c’était « vendre moins de journées d’informaticiens » pour les ESN (que l’on nommait à l’époque SSII), donc synonyme de perte d’argent. Et c’était « réduire la taille de l’équipe » pour les CIO (que l’on appelait à l’époque DSI), donc synonyme de perte de pouvoir. Il a fallu attendre vingt ans pour que ces méthodes révolutionnaires pour l’époque finissent par s’imposer. Et ceci n’a pu se réaliser qu’en raison de l’explosion du marché entrainant une carence en ressources compétentes.

Le service émerge

Au cours des années 90, émerge la notion de service. On envisage d’utiliser les réseaux pour mettre à disposition des logiciels gérés à distance. L’ancêtre des APIs et du SaaS était né. Avec l’essor d’internet ce mode de consommation de l’informatique s’est considérablement développé.

Cependant les grands acteurs de ce marché tels que Google, Amazon, Microsoft ne proposent ces services massivement que depuis quelques années. Ici aussi vingt années ont été nécessaires pour que les opérateurs naissent et il en a fallu encore vingt pour que les habitudes de consommation changent réellement. Il n’y a pas si longtemps aucune grande entreprise n’acceptait de confier ses données sensibles à une solution cloud, cela commence à peine à changer.

L’open source foisonne

La décennie 2000 s’est constituée à l’aune du logiciel libre et du développement collaboratif. Ce changement de pratique accompagné par l’émergence des méthodes agiles, des espaces de partage du code, des projets collaboratifs entre les entreprises a permis d’accélérer nettement l’emprise du numérique dans la vie du citoyen.

De nombreuses startup sont nées autour de solutions et d’organisations radicalement nouvelles. Le numérique est devenu un bien de consommation courante. L’essor du téléphone portable apparu quelques années plus tôt a renforcé considérablement cette consommation des services informatiques en tous lieux. On a beaucoup parlé à l’époque de nomadisme. De nos jours c’est plutôt la sédentarité qui constitue un cas particulier.

Avec l’open source le concept de gratuité s’est développé rapidement, il est de plus en plus difficile pour une entreprise d’offrir des services payants, ouvrant la porte à des modèles économiques plus ou moins éthiques.

La data est mise en avant

Les années 2010 sont les années de la data. On commence enfin à comprendre que la data est plus importante que le programme. Il aura fallu 60 ans pour commencer à ébranler le sacro-saint programme. La part de la data dans le PIB du secteur ne représente encore qu’une faible contribution. Des études ministérielles estimaient il y a quelques années qu’en 2025 elle devait se situer autour de 25%. Le retard que prennent nos industries et nos administrations laisse à penser que cet objectif sera difficilement atteignable malgré les plans d’incitation successifs des gouvernements.

C’est paradoxal, les français sont réputés pour leurs innovations, leur capacité à imaginer des solutions aux problématiques. Nombre de GAFAM ne seraient pas ce qu’ils sont si à un moment de leur existence un français ne leur avait apporté son savoir-faire. Le père d’internet est un français. Les dernières médailles Field récompensant les recherches en mathématique ont été attribuées en nombre à des français. Et pourtant, à chaque palier, nous laissons notre industrie du numérique nous échapper un peu plus.

L’IA et les IoT s’imposent

Les années 2020 seront celles de l’intelligence artificielle et des objets intelligents connectés. Nous en constatons actuellement l’émergence. Mais de quoi sera faite cette nouvelle ère ?

Beaucoup d’entre nous font des projections à partir de ce qui émane des laboratoires aujourd’hui pour imaginer ce qui constituera la décennie prochaine. Mais si le buzz est fait sur ces technologies actuellement, elles aussi mettront vingt ans à s’imposer. Et même si le cycle s’accélère, même si des expériences prometteuses sont menées, même si des capitaux massifs sont injectés dans des startup sérieuses, ces principes émergeants ne constitueront notre quotidien au mieux que dans la décennie 2030.

Dès lors il est assez aisé de conduire des pronostics pour 2020 en se basant sur ce qui a émergé il y a quinze ans.

  • Dans la prochaine décennie notre PIB sera probablement encore constitué pour moitié par la main d’œuvre d’informaticiens qui écrivent des lignes de programmes dans des langages certes plus modernes et en y intégrant de plus en plus d’APIs mais ce ne sont tout de même que des programmes.
  • Un tiers du PIB sera produit par l’exploitation des services SaaS, le cloud et la vente de licences de logiciels.
  • Et le sixième restant par le commerce de la donnée.

Jean Pierre MALLE