Image
john-salvino-unsplash-ia)intelligence-artificielle

Olivier Ezratty : "L’IA va générer des applications dans tous les verticaux"

Par : Thierry Derouet
31 mai 2018
Temps de lecture : 14 min
Chapo

S’il est un observateur de l’IA, le blogueur et expert Olivier Ezratty en est très certainement un des plus avisés. Mu par une vraie curiosité et une passion pour l'innovation, le Centralien est un des plus actifs sur le sujet.  Sa ligne directrice ? Être en avance de phase sur les sujets qui lui semblent être les plus prometteurs. Il a été l’un des premiers à pressentir que l’intelligence artificielle allait de nouveau être au cœur de l’actualité. Et il se prépare à ce que d’autres sujets comme les télescopes et l’informatique quantique reviennent sur le devant de la scène. Entretien.

En partenariat avec
Body
olivier-ezratty-intelligence-artificielle

Pourriez-vous donner une définition de ce qu’est ou de ce que n’est pas l’IA ? 

L’expression a été inventée par John McCarthy en 1955 à l’occasion d’un Summer Camp aux Etats-Unis qui réunissait dix chercheurs. L’idée était de créer un nouveau champ d’investigation scientifique à la croisée des chemins d’une discipline entre les statistiques, les mathématiques et l’informatique. Un champ qui consistait à comprendre comment reproduire, à terme, tous les attributs de l’intelligence humaine dans une machine. Et à l’époque, ils étaient convaincus qu’ils pouvaient le faire en 10 ou 15 ans. C’est parti de là.

Nouveau call-to-action

Aujourd’hui, si l’on voulait donner une définition relativement exhaustive de ce qu’est l’IA, on rappellerait toutes les techniques qui ont été inventées depuis 60 ans qui imitent de près ou de loin l’intelligence humaine. Après, l’IA renvoie à une sorte de Graal, qui serait la parfaite imitation des mécanismes de réflexion ou du raisonnement humain.

Sans brique d’IA, peut-il y avoir encore de l’innovation ?

Le monde de l’informatique et du numérique, depuis les 35 ans où j’y baigne a toujours vécu avec des vagues technologiques successives. On a eu l’arrivée des interfaces graphiques dans les années 80, la venue du client-serveur dans les années 90, puis le web, le mobile, les réseaux sociaux, le cloud, les objets connectés, etc. Donc régulièrement, il y a une nouvelle mode qui apparait. Les start-ups ont besoin de mettre le logo de cette mode dans leur offre. Aujourd’hui, c’est l’intelligence artificielle qui joue ce rôle. Cela pourrait tout aussi bien être la blockchain. Cela ne durera peut-être pas. Mais l’impression que j’en ai, c’est que le potentiel technologique qui est derrière est énorme.

Il est impossible de tout comprendre d’un point de vue uniquement technique.

Plus l’on creuse le sujet, moins on a l’impression d’en savoir non ?

L’IA a cela de paradoxal que plus on rentre dedans, plus on creuse la technique, plus on se rend compte que l’on est ignare sur le sujet. C’est un domaine qui évolue extrêmement vite. Et c’est un domaine où le passage de la recherche à la mise en œuvre pratique est relativement rapide. Pourquoi ? Parce que les outils de développement et les outils matériels sont relativement connus et disponibles. Donc nous voyons rapidement tout ce que l’on peut faire avec et le champ est extrêmement vaste entre le traitement d’images, le traitement du langage, le traitement des données, les systèmes experts, etc. Le champ d’application de l’IA est donc immense. Il est impossible de tout comprendre d’un point de vue uniquement technique. On peut avoir une vision d’ensemble relativement vague des différentes techniques pour identifier les potentiels d’applications. Ils sont très importants. Mais c’est très difficile de maitriser la totalité de ce sujet.

Avons-nous aujourd’hui assez d’humains formés aux techniques de l’IA ?

Si l’on observe l’appel d’air autour des start-up et dans le monde de l’IA, on peut facilement voir qu’il y aura un déficit de compétences sur le marché, au même titre que nous avons déjà un déficit de développeurs. Nous savons que les start-up s’arrachent les développeurs des deux côtes de l’Atlantique ; on sait qu’il est compliqué de trouver des spécialistes compétents même dans le big data, qui est l’ancêtre du machine learning d’un point de vue pratique. Donc, on va être face à une pénurie de compétences.

Et d’ailleurs la grande question qu’il va falloir se poser, c’est : aura-t-on besoin de PhD, Bac +7 pour développer des solutions d’IA ou aura-t-on, comme en informatique, une espèce de gradation entre des gens qui ont fait un doctorat dans une discipline scientifique pointue et des gens ayant suivi des formations plus courtes Bac+2, Bac+3, l’École 42 qui pourront s’adapter à de nouveaux outils, qui apparaîtront et qui seront plus faciles à exploiter pour créer des solutions particulièrement banalisées comme c’est le cas par exemple avec les chatbots ? Je pense que l’on aura les deux type de profils. 

Pourquoi un pays comme le nôtre a-t-il besoin de produire autant de rapports sur l’IA ?

Tous les pays sont préoccupés par l’IA. Il y a des raisons économiques et liées à la compétitivité des entreprises. Toute nouvelle technologie aujourd’hui interpelle les pouvoirs publics. Il y a eu des rapports aux Etats-Unis, en Nouvelle Zélande, en Australie, en Angleterre, etc. La France n’est pas une exception.

Il est logique que les pouvoirs publics s’approprient le sujet : il y a un lien entre ce que peut faire l’IA et la vie privée des uns et des autres.

Il y a une autre raison pour laquelle il y a beaucoup de rapports à l‘initiative de la puissance publique, c’est que c’est un sujet éminemment politique qui pose des questions sur la régulation, sur la vie privée. Il y a un lien entre ce que peut faire l’IA et la vie privée des uns et des autres. Il y a des problématiques en matière de sécurité. Il est donc logique que les pouvoirs publics s’approprient le sujet. Après, quand on regarde les rapports, selon l’objectif qu’ils se donnent - le futur de la régulation, protéger les citoyens, protéger les Etats ou étudier la manière dont un pays va devenir compétitif d’un point de vue économique -, il y a des axes différents.

La France a commissionné deux rapports dont un au début de l’année 2017. Le premier, produit en deux mois par le gouvernement qui avait été initialisé par Axelle Lemaire et remis à Christophe Sirugue quand il était secrétaire d’Etat, visait à faire un premier dégrossissage de l’état des lieux dans la recherche, les entreprises, et les start-up pour voir quelles étaient les opportunités de création de valeur sur ce marché. Et d’essayer de nous benchmarker avec les autres pays en identifiant quelques pistes à lancer à l’échelon national. Mais c’est un rapport qui a été réalisé en deux mois... J’ai rencontré les personnes qui ont produit ce rapport : ils reconnaissent que c’est un point d’étape. Il est donc logique qu’il y ait une deuxième mouture de ce rapport afin de faire des choix car le premier partait un peu dans tous les sens. Si l’on veut établir une stratégie industrielle, il faut faire des choix. Et c'est l'objet du rapport remis par Cédric Villani : "Donner un sens à l'intelligence artificielle : pour une stratégie nationale et européenne"

Ce sont des outils qui vont permettre d’être plus efficaces et autonomes, à un coût modéré.

Faut-il forcément recourir à l’IA pour créer de la valeur ou réaliser des gains de productivité ?

L’IA, c’est 35 ans de prolongation de logiciels. Le logiciel dans les entreprises a permis d’être plus productif et réactif dans l’automatisation des tâches. L’IA n’est finalement que la suite de l’histoire. Ce sont des outils qui vont permettre d’être encore plus efficaces et autonomes, à un coût relativement modéré pour automatiser des processus ou les rendre plus intelligents. Cela peut réduire les coûts si l’on automatise les tâches et améliorer la relation client via des chatbots et des applications mobiles.

Cela permet parfois d’être plus créatif et même aussi, dans certains cas de figure, de créer des solutions que l’on n’aurait pas pu créer avec les technologies traditionnelles. Je pense en particulier au domaine de la santé.

Enfin, l’IA permet aussi de rendre des solutions métier plus largement disponibles qu’elles ne le sont aujourd’hui. C’est le cas en particulier de la santé où de très nombreuses solutions sont en train d’apparaître sur le marché dans l’imagerie médicale par exemple pour interpréter des radios, des fonds de l’œil ou tout un tas de captations d’informations génomiques.

Comment va évoluer le traitement de l’IA par exemple avec l’arrivée de processeurs spécialisés ?

On voit apparaître des processeurs spécialisés aussi bien du côté serveur que du côté de l’embarqué, donc dans des mobiles ou dans des objets connectés. Cela fait sens d’avoir une répartition des traitements entre l’embarqué et les serveurs. Il faut savoir que l’IA coûte très cher en matière d’entraînement : lorsque l’on veut entraîner un réseau de neurones avec des images ou avec de la voix, cela est extrêmement consommateur en puissance processeurs, d’où l’intérêt d’avoir des processeurs spécialisés. En règle générale, les processeurs qui gèrent l’entraînement sont du coté serveurs - parfois, on met des batteries de serveurs, des milliers de serveurs pour l’entraînement.

L’iPhone ou les appareils de chez Huawei vont pouvoir reconnaître des visages dans les photos mais également dans les vidéos.

Du côté des mobiles ou des objets connectés, on a intérêt à y mettre des processeurs spécialisés pour accélérer non pas l’entraînement d’un système d’IA, mais plutôt l’exécution : typiquement dans le cas d’un smartphone, cela sert pour reconnaître des images et des visages. Plus le réseau de neurones dans le mobile va tourner rapidement, plus le temps de réponse sera rapide. L’iPhone ou les appareils de chez Huawei vont pouvoir reconnaître des visages dans les photos mais également dans les vidéos. Une vidéo c’est quoi ? C’est 25 images par seconde. Donc, si l’on est capable d’analyser le contenu de 24 à 25 images par seconde grâce à un processeur neuronal, on peut imaginer tout un tas de nouvelles applications. Parfois, c’est pour réaliser des choses très bêtes comme améliorer la netteté des photos ou identifier les gens qui sourient dans une photo. Avec un processeur adapté, on ira encore plus vite.

Nouveau call-to-action

Que pourrions-nous imaginer demain avec le recours à l’usage de l’IA forte ?

L’IA forte est un mythe technologique : une espèce de machine, d’ordinateur ou de logiciel qui serait capable de raisonner comme un homme mais avec l’accès à la totalité du savoir humain disponible sur Internet.

L'IA permettra de faire des choses extraordinaires sans forcément basculer dans la science-fiction.

En revanche, dans des domaines extrêmement précis, on peut imaginer que l’amélioration de la capacité à raisonner qui serait entrée dans une machine permettra de faire des choses extraordinaires sans forcément basculer dans la science-fiction. Je pense aux améliorations dans le domaine de la santé, dans la simulation par exemple pour trouver des traitements contre les cancers. Pour déterminer de nouvelles immunothérapies ciblées contre le traitement des cancers, on a besoin d’effectuer beaucoup de simulations. Et cela passe par le biologique. Les simulations biologiques prennent du temps. La combinaison de l’intelligence artificielle et de certaines techniques matérielles à venir permettra de réaliser ce genre de simulations plus rapidement.

Avant même de faire de la prospective sur une sorte de big brother capable de résoudre tous les problèmes, il va y avoir des étapes intermédiaires. Je pense à un certain nombre de domaines comme les transports où l’on aura besoin de solutions très pointues pour optimiser le fonctionnement de systèmes complexes, pour faire du raisonnement, pour simuler le vivant, etc.

Concernant l’IA généraliste et à qui on pose n’importe quelle question et qui répond du tac au tac, pourquoi pas. Pour l’instant, nous n’en sommes pas encore là.

Qu’est-ce qui est le plus agaçant selon vous quand on parle d’IA aujourd’hui ?

C’est quand on raconte des histoires sur le présent qui sont fausses, que l’on extrapole sur un présent qui est faux pour inventer un futur qui relève de la science-fiction. Il faut savoir qu'en matière d’innovation, les solutions que l’on risque d’avoir dans la main dans 5 à 10 ans, sont en général le reflet de ce que l’on connaît dès maintenant en recherche fondamentale. Il y a rarement des solutions très innovantes scientifiquement parlant qui sortent du chapeau. Que cela soit le dernier iPhone, le dernier ordinateur ou la dernière solution logicielle, ces innovations sont le résultat de décennies de travail disséminé au sein de nombreux laboratoires. Donc tout ce qui va au-delà de cette fenêtre de tir de la recherche actuelle relève de la science-fiction.

Très souvent, les prospectivistes s’appuient sur une interprétation erronée de ce qui se passe aujourd’hui en termes de puissance des machines ou en termes d’application un petit peu tordue de la loi de Moore. On extrapole donc trop rapidement en sur-interprétant les annonces d’acteurs américains tels Elon Musk avec Neuralink. C’est en brodant avec force autour de ces solutions que l’on génère de la peur. Il faut être responsables, c’est-à-dire imaginer ce que l’IA pourra faire de mal sous contrôle des hommes et l’éviter. Mais, en même temps, si l’on se fait trop peur, on risque de bloquer les innovateurs qui font des choses utiles et de louper le coche de choses extraordinaires. Et donc ne pas être assez innovant à court et moyen terme.

Qu’est-ce qui est le plus fascinant ?

Ce qui me fascine dans l’IA, c’est la vitesse avec laquelle les chercheurs inventent de nouvelles méthodes, notamment autour du deep learning et des réseaux de neurones. Ce qui me fascine aussi, c’est la créativité dans le domaine du matériel parce que comme l’IA consomme beaucoup de ressources matérielles, tout ce qui est fait pour améliorer la puissance des processeurs, la puissance des serveurs et des systèmes embarqués joue un rôle extrêmement important pour développer l’usage concret des applications de l’IA.

Il y a un autre domaine qui me fascine qui relève plus du long terme et du matériel, c’est l’énorme potentiel des ordinateurs quantiques et optiques qui, dans les 5 à 10 années à venir, joueront un rôle très important pour rendre des choses possibles autour de l’intelligence artificielle.

Il faut donc être plus terre à terre ?

Il y a besoin d’éduquer le marché. Le deep learning et le machine learning sont des concepts fumeux pour les gens qui ne savent pas ce qu’il y a derrière. On ne peut pas se contenter de l’expliquer à un niveau trop bas, je trouve. Car si on l’explique en disant : "Voilà ce sont des réseaux de neurones avec plusieurs couches sans aller plus loin", je pense que l’on ne fait qu’effleurer à la fois l’originalité de la technique, ses caractéristiques, ses contraintes, son coût et ses applications.

Donc on vraiment besoin d’évangéliser les directions informatiques, les directions marketing, les gens qui s’intéressent au digital pour leur faire comprendre les tenants et aboutissants de ces différentes techniques.

Il va être de plus en plus important aussi de comprendre les offres elles-mêmes. Savoir faire la distinction entre les outils de développement proposés par IBM, Microsoft, Google, Amazon. Connaître les outils proposés par des start-up pour simplifier le travail des gens ou comprendre le rôle des acteurs du monde du service… est essentiel. Il va y avoir un énorme travail dans les 5 ans qui viennent pour s’acculturer à ce monde-là.

J’ai l’impression que l’on est avec l’IA un peu comme en 1996 avec Internet. En 1996, c’est à peine 1% de la population mondiale qui a accès à Internet. Les premiers développeurs de sites web commencent à apparaître. C’est même anecdotique. L’IA a déjà dépassé ce stade-là. Mais quand on voit le chemin qui a été parcouru avec Internet depuis 1996, en seulement vingt ans, on ce rend compte de ce qui nous attend pour l’IA, mais cette fois avec des embranchements dans tout un tas de dimensions.

On ne peut pas résumer par exemple le web au commerce en ligne. Si l’on résumait le web au commerce en ligne, ce serait la même erreur que résumer l’IA avec des chatbots. L’IA va générer des applications dans tous les verticaux, de l’avocat virtuel à la santé, au marketing en passant par l’industrie, le contrôle qualité dans les usines, la robotique, la voiture autonome, tout ce que l’on met dans un smartphone pour prendre de plus belles photos, etc. Le nombre d’applications est vertigineux. Pour moi parler d’IA aujourd’hui, c’est comme parler du logiciel il y a 30 ans. C’est un ensemble de technologies qui va révolutionner tout un ensemble d’activités.

Nouveau call-to-action

Profile picture for user ThierryDerouet
Thierry
Derouet

Journaliste / consultant en communication digitale, Thierry Derouet effectue une veille depuis son poste d’observation depuis plus d’une vingtaine d’années sur les évolutions technologiques et leurs applications au sein d’environnements B2C/B2B.