Voyage au cœur d’AI Paris 2019 et de l’intelligence artificielle
Les 11 & 12 Juin se tenait la 3ème édition d’AI Paris, événement clé de l'Intelligence Artificielle dont Atout DSI était partenaire pour la première fois. Vous n’y étiez pas ? Avec Jean-Jacques Lohéac, DSI de la communauté, nous avons construit une synthèse des conférences sur l'intelligence artificielle et rencontres qui l’ont le plus marqué. Un grand merci à notre DSI reporter.
Retour sur les conférences stratégiques d’AI Paris sur l’intelligence artificielle
Les conférences stratégiques sont ouvertes par Cédric O, secrétaire d’état en charge du numérique suivi de l’intervention de Christian Clot (www.adaptationexpe.com) autour d’une idée forte : l’IA et l’être vivant doivent collaborer pour réussir. Autrement dit, l’hybridation est la clé de la réussite des projets d’intelligence artificielle. La machine a besoin de l’homme pour apprendre et l’homme a besoin de la machine pour industrialiser. Il n’y a aucun antagonisme entre ces deux puissances.
En effet, l’Intelligence Artificielle “supervisée” reste “faible” et l’Intelligence Artificielle dite “forte” n’existera probablement jamais car nous n’avons pas la capacité à comprendre le fonctionnement complexe du cerveau dans des conditions nouvelles. Au MIT, on apprend: “il est plus facile d’envoyer un robot sur Mars que de demander à un robot de débarrasser la table du dîner”.
Il faut donc démystifier le sujet de l’IA. L’acculturation et l’évangélisation de l’IA dans les entreprises sont les maîtres mots en 2019, de même que l’éthique et la confiance.
L’intelligence artificielle n’existe pas, vive l’intelligence augmentée
Luc JULIA, VP Innovation de Samsung Electronics, qui est également le père de Siri et l’auteur du livre « L’intelligence artificielle n’existe pas » précise que l’IA qui n’existe pas est celle dont on nous parle constamment depuis 5 ou 10 ans, celle qui effraie. Une certitude : elle ne pourra jamais émerger via les méthodes statistiques et mathématiques actuelles. L’IA doit être vue comme une intelligence augmentée, plutôt qu’une intelligence artificielle : ce sont les outils qui nous « augmentent ».
Prenons l’exemple des voitures autonomes. La voiture autonome de niveau 5, c’est-à-dire celle circulant en autonomie complète, n’existera jamais. Aucune voiture autonome n’aura suffisamment de background sociologique pour traverser la place de l’Etoile, à 18 heures. Il est impossible de programmer tous les cas possibles. Au niveau 3.5/4 cela va arriver. De même, l’intelligence augmentée va produire d’excellents robots qui faciliteront les tâches humaines. Une chose est sûre : la machine n’est pas là avant nous, elle dépend de nous pour les données et les règles.
Intelligence artificielle : l’éthique et la gouvernance sont au coeur du débat
Les sujets d’éthique et de gouvernance restent à clarifier :
L’Ethique : aucune école n’a intégré des cours d’éthique et de philosophie pour comprendre le contexte dans lequel les intelligences artificielles sont créées. Il y a un manque global de recul sur le monde alors qu’il faut bien comprendre le contexte dans lequel sont intégrées ces intelligences artificielles.
La Gouvernance : Il n’y a pas de débat sur l’utilité de l’IA, en revanche, il ne faut pas créer l’IA pour “jouer” mais pour soutenir l’humain dans les décisions qu’il doit prendre. Or, certaines décisions juridiques sont déjà pilotées par l’IA. Des fonds d’investissements ont remplacé l’humain par de l’intelligence artificielle. N’oublions pas qu’à ce jour, l’IA est l’équivalent de l’intelligence d’un enfant de 2 ans ou d’un rat ! Cela reste de l’AI “faible”, malgré tout très efficace sur des données fiables et pertinentes.
Pour une IA de confiance
Nozha Boujemaa, Chief Science and Innovation Officer chez Median Technologies et membre du High Level Experts Group de la Commission européenne, le déclare sans détour : Les algorithmes sont le moteur, les données le carburant ! La dualité données et algorithme est donc très importante.
Les cas d’usage en matière d’IA sont et seront multiples : prévision des désastres naturels, transport/logistique, santé, énergie, agriculture, population… Il ne faut pas être techno-sceptique ou techno-enthousiaste, ce n’est pas l’eldorado et cela peut être très intrusif. Se pose alors la question : comment avoir un comportement responsable dans le déploiement de solution d’IA ?
Une volonté de transparence
Pour un client B2C ou B2B, l’enjeu est de créer de la confiance et de la transparence. Il faut réduire l’asymétrie informationnelle entre le fournisseur du service digital et son client pour éviter toute concurrence déloyale ou perte de souveraineté (lorsque le service émane d’un état). Le client doit alors disposer d’informations concernant le circuit des données et les traitements appliqués.
- pour pouvoir donner son consentement éclairé sur le partage des données confidentielles (ex: partage de la position GPS).
- pour éviter toute discrimination entre ceux qui comprennent les algorithmes (et peuvent «biaiser » le système) et ceux qui ne les comprennent pas.
- pour évaluer si les pratiques sont justes (on parle de justice prédictive) et comprendre les critères d’apprentissage données à la machine. Par exemple, pour l’obtention d’un prêt, dans le calcul d’un scoring de crédit et d’un indice de solvabilité.
Les modèles d’affaires doivent aussi être explicites même lorsqu’ils sont sous-jacents (comme par exemple sur les réseaux sociaux gratuits).
La maîtrise des biais algorithmiques
Si certains essaient de construire des algorithmes nativement transparents, par « equity by design », cette recherche fondée sur des modèles mathématiques qui réduisent l’influence des variables discriminatoires n’en est encore qu’à ses débuts.
Pour faire confiance à un algorithme prédictif, il faut aujourd’hui être particulièrement vigilant à la représentativité des données (qualification des données en entrée, complétude etc) afin de minorer les biais. Des interprétations erronées peuvent aussi introduire des risques, la plus significative étant la confusion entre causalité et corrélation.
L’IA et le futur du travail, résultats de l’étude Malakoff-Mederic / Humanis
Data et algorithmes sont au coeur des sujets de transformation. Dans la santé, notamment, les cas d’usage de l’IA ne se comptent plus. Il y a une prise de conscience générale sur l’importance du développement de l’intelligence artificielle et de son impact sur le travail. 83 % des dirigeants estiment connaître l’IA et 69 % d’entre eux estiment que l’IA aura des impacts importants sur leur entreprise. Pourtant, seuls 20 % d’entre eux s’y préparent, ce qui constitue un premier décalage important.
La plus grande valeur de l’IA reposera sur “l’hybridation” des activités existantes, c’est-à-dire sur une subtile combinaison entre de la technologie et de l’humain. Pas de prescription automatique mais un humain soutenu et aidé dans ces décisions et qui valide les recommandations issues de l’IA. Ainsi, depuis 2 ans, pour l’une des intelligences artificielles développées, Malakoff Médéric constate que la combinaison de l’expertise métier avec l’algorithme multiplie les performances par trois à cinq, comparée à l’utilisation de l’algorithme seul.
Cette approche (devant la suppression d’activités ou la création de nouvelles activités) implique aussi de faire évoluer les process et de se mettre en capacité d’accompagner les métiers.
Pour remettre en perspective les enjeux liés à l’Intelligence Artificielle, Jean-Christophe GARD, directeur associé senior au BCG, redonne l’échelle de temps d’un projet d’intelligence artificielle :
- 2 mois pour préparer les données
- 5 à 6 semaines pour valider l’algorithme
- 5 à 6 mois pour tester et comprendre son impact sur le processus
- Et de nombreux mois mois pour accompagner les équipes
Les RH doivent dans ce contexte traiter cinq enjeux, l’emploi et la gestion des compétences
- La gouvernance et le management
- La santé et La qualité de vie au travail
- L’éthique pour prévenir les biais qui pourraient être introduits par l IA
- La présence dans le dialogue social du thème de l’IA, et sa démystification pour lutter contre les appréhensions des salariés
Elles doivent s’adapter au degré de déploiement de l’IA dans leur entreprise :
- Premier niveau pour les entreprises passives : amorcer et établir un cadre de confiance
- Deuxième niveau, les entreprises investigatrices : accompagner, par exemple en structurant la filière data et en formant.
- Enfin dans les entreprises pionnières : tendre vers des processus hybrides, avec une gestion itérative et stratégique des compétences
Du point de vue des dirigeants et managers, la guerre des talents constitue l’enjeu numéro un, avec l’émergence de nouveaux métiers dans l’entreprise. Chez Malakoff Médéric, l’IA semble générer plus de recrutement que de licenciement. « La productivité ne constitue qu’un des leviers de l’IA. Il existe d’autres gisements d’amélioration de la performance de l’entreprise, par la segmentation des offres et la qualité de prise de décision. », selon Jean-Christophe Gard.
Une mine de retours d’expérience sur IA Paris concernant l’intelligence artificielle
Parmi une longue liste (plus d’informations auprès de l’équipe Atout DSI si besoin) :
IA et cancer : nouveaux développements à l’institut Curie
Le cancer du poumon est à l’origine de 20 000 décès par an soit l’équivalent d’un crash d’airbus tous les 3 jours.
Le Dr Alain Livartowski est à l’origine de la création d’une direction Data & IA Data scientist.
La Cancérologie s’étudie entre autres à partir d’imageries issues des Dermatoscopes. Grâce à l’IA basée sur des réseaux de neurones (CNN) de 100 000 images, la machine fait aussi bien voire mieux que l’homme. Dans certains cas la machine est capable de détecter un cancer du sein 14 mois avant les radiologues (Société Owkin).
Les biais restent une préoccupation majeure lors de l’échantillonnage lié au recrutement des patients pour l’apprentissage profond. Les sujets ethniques, sociaux, caractéristiques de la tumeur sont soulevés. Pour le monde médical, l’IA est un autre monde (algorithmes & data versus lecture humaine)
Quantmetry / MAIF
A noter le projet MAIF avec l’intégrateur Quantmetry, qui met à disposition une solution IA en Open Source pour la classification et le routage des emails entrants (projet baptisé Mélusine). Le traitement des 15.000 mails quotidiens reçus par MAIF reposant sur l’analyse du langage naturel permet d’orienter finement les emails à traiter vers le collaborateur le plus pertinent (par appétence). .
Le projet s’est déroulé en 3 étapes: Segmentation et Nettoyage, Extraction des mots clefs, Classification via réseaux CNN, RNN (Technique récente de NLP, RNN). La solution intègre une sur-couche de règle logique et un score de confiance.
Des solutions à suivre fondées sur l’intelligence artificielle
AI.AWARDS : Recital.ai & IAM.AI
Le AI Awards Paris est remporté par Récital.AI qui offre une technologie de traitement automatique du langage (solution de classification des emails).
J’ai également apprécié la solution de cartes IAM.AI qui propose un capteur autonome qui permet de détecter les variations de vibration sur un moteur grâce à une IA totalement embarquée dans un microcontrôleur. C’est un peu le Shazam des vibrations qui permet de détecter des anomalies sur des équipements industriel et d’anticiper des dysfonctionnements.
NVidia: Les réseaux GAN pour Generative Adversarial Network
Les réseaux GANs permettent de réaliser des images plus vraies que nature, les exemples de génération de visages avec des GANs se multiplient sur internet. Outre la qualité du résultat de celui mis au point par ces chercheurs Nvidia, c’est la finesse du contrôle des résultats qui est marquante.
Les GANs apprennent à générer de toute pièce des images qui imitent l’apparence de photos réelles. Cependant, elles offrent un contrôle très limité sur les images générées. NVidia a mis au point un générateur qui apprend automatiquement à séparer différents aspects de l’image sans la moindre supervision humaine. Après la phase d’apprentissage, NVidia combine ces différents aspects comme ils le souhaitent https://youtu.be/kSLJriaOumA. Ce ne sont PAS des photos de personnes réelles.
A propos du contributeur
Après avoir travaillé dans le secteur de l’aéronautique, Jean-Jacques Loheac rejoint Alcatel Business Systèmes dans les télécoms, puis intègre la société ILOG leader mondial des composants logiciel. Jean-Jacques a dirigé pendant plus de 15 ans l’ensemble des systèmes d’information du groupe B&B et est aujourd'hui fondateur de 4C-Consulting.
Commentaires0
Devenez membre pour lire ou ajouter un commentaire
Articles suggérés