Keley Consulting a accueilli le 29 juin dernier une conférence du Café Numérique Paris consacrée au thème suivant : "L’intelligence artificielle peut-elle créer un avantage concurrentiel ?". En voici le compte rendu.
Plus qu’un phénomène passager, l’intelligence artificielle a connu une évolution marquée par une succession de vagues d’accélération et de pertes de vitesse depuis le 20ème siècle. La première vague remonte aux années 50, sous Allan M. Turing. Père de l’IA, il publie l’article fondateur sur le sujet « Computing machinery and intelligence » en 1950. Malgré un âge d’or durant les années 80, qui voit déferler des investissements massifs dans le domaine, il faut attendre 2010 pour que des résultats probants se manifestent, notamment avec l’émergence du Deep Learning.
Le Deep Learning est la combinaison de deux évolutions clefs que sont, d’une part, l’accès facilité à de larges quantités de données et, d’autre part, les avancées des GPU (processeurs graphiques) permettant l’accélération des calculs. On atteint alors des niveaux de sophistication poussés et des applications encore plus vastes (chaînes de production, voitures autonomes, assistants intelligents, etc.).
Nous avons atteint la capacité de bâtir des systèmes complexes en les alimentant de larges quantités de données sans besoin de modéliser le fonctionnement du système au préalable. Ainsi, certains systèmes constituent encore des « boîtes noires » qui nous échappent encore. Alors que nous réserve l’Intelligence Artificielle pour les années à venir ?
Maîtrise et accélération, double enjeu pour l’intelligence artificielle
L’évolution de l’Intelligence Artificielle à moyen terme revêt deux principaux enjeux : d’une part améliorer le degré de compréhension des technologies mises en place, d’autre part accélérer les applications technologiques et business pour des usages toujours plus concrets.
[caption id="attachment_15130" align="aligncenter" width="603"]
D’après Jean-Claude Heudin, directeur de l’Institut de l'Internet et du Multimédia (IIM) et auteur du livre «Comprendre le Deep Learning : Une introduction aux réseaux de neurones » aux éditions Science eBook, les marqueurs forts de l’évolution de l’IA pour les années à venir seraient :
- L’explicabilité des systèmes : la capacité à développer une visibilité et une compréhension accrue des décisions prises par les systèmes est une des priorités de l’IA ces prochaines années.
- La maîtrise des biais : les systèmes démontrent aujourd’hui une tendance à développer des biais en fonction des données misent à leur disposition (par exemple, une prépondérance de données masculines résultera en un système sexiste). Maîtriser ces biais constitue un des enjeux majeurs pour l’IA.
- Le Machine Learning : cet autre type d’apprentissage, qui vise à permettre à une machine de remplir des tâches par un processus systématique, est un champ d’études de l’Intelligence Artificielle à fort potentiel de croissance dans les années à venir.
- Les chatbots : une multiplication de ce type d’applications est à prévoir notamment dans le domaine du e-commerce. Des acteurs tels que xBrain équipent déjà des acteurs majeurs de l’industrie automobile ou de l’assurance en chatbots et voicebots. Ceux-ci connaissent des taux de réussite probants sur le plan technologique et s’affinent à une allure soutenue. Laura Dupont-Courtade et Laurent Pantanacce, respectivement Customer Success Manager et Directeur Général de xBrain, étaient là pour en témoigner.
- L’Affective computing : une des voies qui sera certainement explorée très rapidement est celle de l’entrée, de l’évaluation et de l’expression des émotions par les systèmes d’Intelligence Artificielle. L’affective computing revêt un potentiel important car les émotions représentent un facteur d’engagement fort pour les utilisateurs.
Intelligence artificielle et avantage concurrentiel
Après plus de 650 deals et 5 milliards de dollars investis dans l’écosystème des startups et de l’IA en 2016, l’année 2017 marque un boom avec de nombreux méga-rounds et des investissements en R&D toujours soutenus par des acteurs tels que Microsoft ou Google. Dans l’Hexagone, on note des investissements importants de la BPI dans le domaine ainsi que le lancement du programme France IA.
Gourmande en investissements, l’IA s’impose dans de nombreux secteurs (santé, publicité, vente ou encore marketing) et est indéniablement devenue « hype ». Ainsi, il faut compter avec un certain scepticisme qui pointe du doigt des applications encore trop gadget ou peu réalisables à moyen terme.
« Néanmoins, des applications business bien réelles et rentables émergent, en particulier celles qui s’appuient sur l’Earth Observation », rappelle Benjamin Hannache, directeur associé chez Keley. L’interprétation d’images satellitaires par l’Intelligence Artificielle s’accélère rapidement grâce à trois leviers principaux :
- Le cloud
- Les évolutions software (stacks open source)
- La disponibilité d’images satellitaires peu coûteuses et régulièrement mises à jour
Avec, entre autres, le monitoring du stock de cuves à hydrogène ou encore l’analyse de flux de clients dans un supermarché par l’analyse de photos satellitaires de parkings, l’intelligence artificielle représente l’opportunité de créer un avantage concurrentiel pour certaines entreprises. L’interprétation puissante et automatisée de ces images constitue un renforcement sans précédent de la capacité d’analyse et de prévision des acteurs et observateurs économiques.
Et du côté obscur de la force ?
L’Intelligence Artificielle reste l’objet de toutes sortes de fantasmes ou de peurs : destruction d’emplois, auto-programmation des systèmes… Faut-il s’inquiéter et, si oui, de quoi ? A ce jour, l’impact majeur à prévoir concerne l’emploi. Mais plus qu’une destruction de postes, il faut plutôt s’attendre à une modification profonde de certains métiers. L’autre problématique qui se pose est celle de l’intégration des systèmes experts à l’environnement d’entreprise, notamment du point de vue de l’articulation entre les ressources humaines et artificielles.
Le risque d’auto-programmation des machines par elles-mêmes a en revanche peu de chances de se concrétiser. Bien que théoriquement possible, cela relève plus de l’exercice de pensée que d’une réalité.
Le chatbot Tay, lancé par Microsoft en mars 2016, devenu nazi et raciste en moins de 24 heures passées sur Twitter, pourrait inquiéter mais l’enseignement principal à tirer de cette expérience est que les systèmes experts sont conditionnés par les données qui les alimentent. Ainsi, l’acceptation et la maîtrise des données (notamment personnelles) sont les principaux garde-fous à de potentielles dérives.
Après des décennies, l’Intelligence Artificielle n’en finit pas de faire parler d’elle, d’alimenter les théories les plus fantasmatiques et d’éveiller scepticismes ou levées de boucliers.
Derrière la tendance « hype », l’Intelligence Artificielle muscle ses réseaux de neurones pour plus d’efficience et la création d’applications métier concrètes. L’enjeu de la maîtrise technologique et le rôle de nos sociétés sont cruciaux pour un développement de l’Intelligence Artificielle au service de l’Intelligence Humaine.