Intelligence artificielle : les défis que les entreprises vont devoir relever prochainement


Rédigé par Alain BIANCARDI le Jeudi 25 Février 2021 à 16:21

L’intelligence artificielle cristallise de nombreux fantasmes sur son utilisation et ses perspectives. Dans les faits, les chercheurs et les entreprises sont confrontés à des défis conséquents qu’il faudra régler dans un avenir proche et surtout des questions qu’il convient d’aborder pour dresser un des axes futurs de la recherche et développement en intelligence artificielle. Une tribune d'expert proposée par Alain BIANCARDI, Vice Président Sales & Marketing chez expert.ai


l’une des idées fausses les plus répandues autour de l’IA est que machine learning et IA sont synonymes, selon Alain BIANCARDI (photo Adobe Stock)
Il y a près de 4 siècles, le philosophe français René Descartes commençait son œuvre majeure à travers une mise en situation de nos connaissances. L’objectif du penseur est simple, démontrer que ce que l’on perçoit n’est pas nécessairement réel et qu’il convient donc de se méfier de nos perceptions. C’est le fameux exemple du bateau plongé dans un verre d’eau. Observé dans ces conditions, le bâton semble courbe alors qu’il ne l’est pas. En intelligence artificielle nous subissons le même bief cognitif. Le succès du « machine learning » et sa percée fulgurante dans notre quotidien nous donne à penser que cette technologie est le futur de l’intelligence artificielle. Dans les faits, les résultats sont plus mitigés.

Machine learning : les limites de la statistique

En juillet 2020, le cabinet Deloitte publiait la troisième édition de son étude sur l’intelligence artificielle. Selon celle-ci, près de 67% des entreprises utiliseraient des solutions intégrant des technologies liées à l’IA. Gain de productivité, simplification des process métiers et opérationnels, les bénéfices du machine learning sont indéniables pour ces professionnels. Par contre, les résultats sont beaucoup moins probants dès que cette technologie traite des fonctions plus complexes engageant un lien avec une compréhension du langage naturel. La raison de cette déperdition technologique est simple : le langage ne peut être traité de manière approximative. Le principe de fonctionnement du machine learning est avant tout statistique. Or le langage ne se comprend pas de manière statistique. Le sens est produit à partir de la connaissance.

Les enjeux liés à la création de bases de connaissance

Le projet Google Talk to Books de Ray Kurzweil est un très bon exemple de cette difficulté. Celui-ci a été conçu pour « répondre à n'importe quelle question en lisant des milliers de livres ». Cependant, ce modèle basé sur le machine learning ne pouvait pas toujours générer la bonne réponse à des questions simples telles que « Où Harry Potter a-t-il rencontré Hermione Granger ? ». Cette information n'est pas explicitement énoncée dans un livre et ne peut pas être déduite par manque de connaissances. La question des graphes de connaissance, qui modélisent la connaissance de manière à ce qu’elle soit comprise par la machine, est au cœur de cet enjeu. Pour qu’une intelligence artificielle puisse produire du sens, il est nécessaire de disposer d’ensembles de données structurées de manière adéquate et de taille conséquente.

Le dilemme de la pénurie des données

Les données alimentent tous les modèles d'intelligence artificielle. Les entreprises sous-estiment souvent le volume de données et le temps nécessaires pour démarrer un modèle de machine learning efficace. Pour de nombreuses organisations, ce besoin en volume important de données met le plus souvent un terme aux projets d'IA avant même qu'ils ne démarrent. En fait, 96% des organisations rencontrent des problèmes avec leurs projets de machine learning en raison de la rareté, de la qualité et de l'étiquetage des données. Dans le monde de l'entreprise, la pénurie de données est plus fréquente qu'on ne le croit. Il est donc important pour ces organisations de développer des modèles moins gourmands en données.

La flambée des coûts et l'empreinte carbone

Le coût et l'empreinte carbone nécessaires aux organisations pour former et maintenir des modèles de machine learning liés à des enjeux linguistiques sont immenses. En effet, ils ne sont viables que pour les organisations les plus riches. Selon les recherches d'Emma Strubell, pour former un modèle de langage efficace qui utiliserait près de 213 millions de paramètres basés sur un modèle d'architecture neuronal, le coût de son déploiement serait d’environ 1 à 3 millions de dollars. Son utilisation générerait l'équivalent de 284 tonnes de dioxyde de carbone soit la production carbone de cinq voitures sur toute leur durée de vie.
 
Les entreprises sont dès lors confrontées à des exigences difficilement soutenables en termes de données. Au-delà du coût et de l'empreinte carbone, un modèle d’intelligence artificielle linguistique nécessite également d’entraîner l’IA de manière adéquate. Un autre problème est que les systèmes d’apprentissage déployés doivent disposer d’une maturité suffisante pour offrir un rendu acceptable pour leurs utilisateurs. Ces enjeux ne doivent pas être perçus comme des impasses, bien au contraire, mais plutôt comme une incitation à explorer des technologies d’IA différentes, complémentaires du machine learning, capables de résoudre ces défis et de proposer à court et moyen terme des solutions qui permettent de démocratiser l’IA.

Alain BIANCARDI
Vice Président Sales & Marketing chez expert.ai





Dans la même rubrique :