Intervention
  En ligne . Ateliers . Conférence . Débat échange . Intervention

Comment peut-on faire confiance à l’IA ? De la boite noire à l’IA explicable

? En ligne et chez vous 🙂

Quand ? mercredi 18 novembre de 13:00 à 14:00 puis des échanges informels jusqu’à 14:30

 

Avec qui ? Dans le cadre du MOOC IAI https://classcode.fr/iai nous invitons

+ Ikram Chraibi Kaadoud, docteure en informatique spécialisée en intelligence artificielle et en science cognitive, qui fait des  recherches en interpretabilité et extraction de représentations implicites à partir de réseaux de neurones récurrents, chez onepoint et

+ Frédéric Alexandre, directeur de recherche Inria qui dirige une équipe qui modélise le cerveau comme un système de mémoires actives en synergie et en interaction avec les mondes interne et externe, en se basant sur des modèles issus des neurosciences et de l’apprentissage machine

aidé de l’équipe du  https://learninglab.inria.fr/ avec Aurélie, Marie-Hélène, aidées de Martine et Thierry.

Quoi ? C’est une rencontre interactive en ligne, où chacune et chacun est invité·e à partager ses interrogations, expliquer sa vision et questionner les experts invité·e·s; elle sera enregistrée.

Nourri·e·s par les échanges sur le forum du mooc IAI, nous les questionnerons ensemble sur tous ces aspects** plus particulièrement à partir de trois questions:

  – En quoi les mécanismes actuels sont-ils opaques et difficiles à interpréter, est-ce le cas de tous les outils d’IA ?
  – Quel est le degré de fiabilité de ces mécanismes, comment se positionner par rapport à la fiabilité humaine ?
  – Comment vont fonctionner ces calculs « interprétables » et « explicables » en pratique et quel impact pour nous ?
(**) En savoir plus surla rencontre :
  L’article grand public de  Marine Lhuiller et Ikram Chraibi-Kaadoud en trois volets  ​https://tinyurl.com/y37lw8zf  , https://tinyurl.com/y5hjyqfl et https://tinyurl.com/y4skxn3q.
  L’article de Frédéric Alexandre sur neuroscience et intelligence articificielle, symbolique et numérique https://tinyurl.com/y2aal6qt.
(*) Interprétabilité et explicabilité
L’interprétabilité consiste à fournir une information représentant à la fois le raisonnement de l’algorithme et la représentation interne des données dans un format interprétable par un expert.
L’explicabilité quant à elle consiste à fournir une information dans un format se suffisant à lui-même et accessible à un utilisateur, qu’il soit néophyte ou technophile, et quelle que soit son expertise.

(***) Le contenu 

    Rendez-vous sur le fil du forum où nous parlons la réunion, au sein de notre MOOC IAI. et voici nos planches de présentation.

Voici la vidéo de la rencontre et son clavardage :


[12:43] TADDIST JALIL : Bonjour tout le monde
[12:53] stefan : bonjour
[12:55] Thierry Viéville : Bonjour à toutes et tous
[12:55] Camille Beaumian : Bonjour !
[12:55] Ikram CK : Bonjour !
[12:56] Audrey Pépin : Bonjour
[12:57] Françoise Tort : Bonjour !
[12:58] WSophie : Bonjour!
[12:58] alain Thillay : Bonjour à tous
[12:58] Koos : Bonjour
[12:59] Laurie HENNARD : Bonjour
[13:00] alain Thillay : LA DNE est donc preneuse des stats ! 🙂 et d’un petit retour à date
[13:00] Tifenn : Bonjour
[13:00] Pat : Bonjour
[13:01] Rodrigo : Bonjour de Bruxelles 🙂
[13:01] Nabil : Bonjour
[13:01] Romain : Bonjour
[13:01] François BOCQUET : Bonjour à outes et à tous !
[13:01] François BOCQUET : à toutes
[13:02] raquin : bonjour
[13:02] schmidt sylvie : bonjour
[13:02] stefan : bonjour
[13:03] François BOCQUET : possible de placer les liens dans le chat ?
[13:04] Philippe Favrot : Bonjour
[13:04] Francoise : Bonjour à tous
[13:05] Yannick : Bonjour
[13:05] christine trabado : Bonjour
[13:05] Francoise : Le webinaire a t-il commencé? je ne vois ni n’entend rien
[13:05] Francoise : n’entends
[13:06] François BOCQUET : oui commencé
[13:06] WSophie : Oui cela fonctionne chez moi
[13:06] Camille Beaumian : Camille Beaumian en 3A de l’ENS de Cognitique, Bordeaux
[13:06] Aurélie Lagarrigue : Bonjour Francoise, nous en sommes aux présentation
[13:06] Francoise : Pb de connexion
[13:06] Gladys : Bonjour, je suis rédactrice web et je m’intéresse beaucoup aux algorithmes des moteurs de recherche mais pas que 🙂
[13:06] Suzel : Françoise,
[13:06] Suzel : avec F5, c’est mieux ?
[13:07] hassan kourrad : Bonjour je suis professeur agrégé en physique maroc
[13:07] François BOCQUET : Je me présente : je travaille à la Direction du Numérique pour l’éducation du MENJS dans l’équipe d’Alain Thillay (DNE/TN2). Je suis en charge de la veille et de la prospective et travaille sur les questions d’IA et de protection des personnes physiques et de leurs données à caractère personnel en particulier.
[13:08] WSophie : Tout le monde n’a pas de smartphone !
[13:09] Thierry Viéville : Bonjour François
[13:09] martine courbin : on ne voit plus les transparents 😉
[13:09] Marie-Hélène : c’est vrai, mais beaucoup en ont !
[13:10] Durand Eric : L’intelligence artificielle doit être une AIDE, mais jamais ne nous influencer, sinon risque de ‘lavage de cerveau’ ?
[13:10] François BOCQUET : ce qui peut être opaque ce sont les modèles et les données utilisées pour les entrainer qui peuvent générer des biais
[13:11] alain Thillay : plus de son ?
[13:11] Marc_K : on parle d’IA mais ne devrait on pas plutot parler de IntellgenceS (au pluriel) technolgiqueS?
[13:11] François BOCQUET : les arbres de décision c’est aussi ce que l’on appelle des « systèmes experts »
[13:11] alain Thillay : ok récupéré
[13:13] Camille Beaumian : Bonjour : De mon côté l’interface m’indique que la session n’est pas enregistré ! Est-ce normale ? Merci.
[13:13] stefan : bonjour je suis autodidacte et passionné des nouvelles technologies nota IA
[13:13] Gladys : Deep learning = apprentissage numérique?
[13:13] Marie-Hélène : je pense que l’enregistrement est independant de l’outil de visio et piloté par Thierry Vieville
[13:14] Camille Beaumian : Ok ça marche, merci Marie-Hélène ^_^
[13:14] Rodrigo : Je suis conseiller emploi dans la fonction publique en Belgique et je m’intéresse aux fonctionnements des sites de recherche d’emploi par les offres.
[13:18] Françoise Tort : Quand on cherche automatique
[13:19] Laurie HENNARD : Les IA développées actuellement sont-elles encore parfois des arbres de décision ?
[13:20] Françoise Tort : Tous les arbres de decisions apportent ils toujours des explications qui suffisent ? Parfois on ne sait pas trop pourquoi on obtient tel arbre…. et il nest pas forcement intelligible non ?
[13:20] alain Thillay : IA assistant en éducation arbre de décision facilement compréhensible pour l’enseignant vs quelle recommandation si deep learning ?
[13:21] François BOCQUET : mais l’expert applique bien un arbre de décision quand même (surtout le médecin)
[13:21] Françoise Tort : Je parle des arbres de decision quon produit automatiquement a partir dexemples… et sur lesquel parfois lexpert a du mal a expliquer
[13:22] raquin : est le fait que la contrusction deep learning est réservé à l’expert que les personnes avons pas confiance? Le fameux mouvement mondial actuel
[13:23] Pat : Quelle différence entre le machine learning et le deep learning ?
[13:23] stefan : le son n’est pas nikel ,merci
[13:24] François BOCQUET : ca n’est pas confus, c’est multifactoriel et dans un domaine complexe difficile à modéliser pour certain diganostics. C’est pour cela que l’on parle d’un art (comme pour l’enseignement d’ailleurs).
[13:24] Laurie HENNARD : On a donc des arbres de décision « construits » grâce à du deep learning ?
[13:25] WSophie : Un système basé sur un arbre de décision est-il vraiment une IA ? Qu’est-ce qui le distingue d’une simple machine (on appuie sur un bouton = tel comportement…)
[13:26] Gladys : La fiabilité des réseaux = critère de l’évolution positive de notre confiance en l’IA ?
[13:27] Gladys : Les IA sont-elles plus fiables qu’avant? Si oui comment?
[13:31] François BOCQUET : peut on repréciser la question de la confiance ? de quelle IA parle t’on et pour quelle application/prediction ?
[13:32] François BOCQUET : difficile de raisonner de façon globale sur des sujets aussi variables que la voiture autonome ou la reconnaissance de chats 😉
[13:33] schmidt sylvie : merci pour ces explications très claires Ikram
[13:33] stefan : IA et 5G sont en lien?
[13:34] François BOCQUET : quand vous évoquez les réseaux, évoquez vous aussi les processus d’entrainement des modèles et la qualité et la quantité des données utilisées ?
[13:34] bakkar : bonjour, au sujet de l intelligence artificielle que pensez du transhumanisme et de l amour ? Pourrait il etre liés un jour ? merci
[13:36] StfB : Le gorille…
[13:36] Durand Eric : L’intelligence artificielle doit être une AIDE, mais jamais ne nous influencer, sinon risque de ‘lavage de cerveau’ ? Comment éviter les effets pervers et les non-réponses justifiées que produit l’IA ?
[13:37] schmidt sylvie : L’IA peut elle apprendre seule entre machines sans intervention de l’humain?
[13:37] StfB : S’assurer de la représentativité du dataset…
[13:38] alain Thillay : La question des sources et des contextes (l’historien se réveille) pour des données fiables. Là encore comment expliquer simplement au éducateurs ce point et au grand public de ne pas oublier ce point ?
[13:38] François BOCQUET : ne confond on pas les biais cognitifs humains et les biais cognitifs des modèles liés à la qualité et à la quantité des données utilisées pour entrainer les modèles ?
[13:39] bakkar : l intelligence artificielle , le transhumanisme et l amour sont ils LIES ?!!!! MERCI
[13:39] alain Thillay : Pour autant comment ne pas jeter le doute (même positif) en même temps – pb des « fake » auxquels nous faisons face en classe…
[13:40] Gladys : Comment savons-nous que les données sont bien calibrées? Il faudrait inventer une IA pour cela 😉
[13:40] François BOCQUET : par exemple le biais de confirmation qui est lié à des circuits de récompenses neurochimiques n’est pas de même nature !
[13:40] StfB : Lorsqu’on fait de la recherche scientifique, on doit poser clairement ses présupposés, ce qui permet de mettre en lumière les aspects qui ne sont pas pris en compte / testés. Ce n’est pas la même démarche que celle de constituer un dataset à soumettre à un algorithme…
[13:41] StfB : D’où l’importance de la démarche : recherche ou entraînement de modèle.
[13:42] bakkar : lorsqu’on fait des recherches en IA, pense t on a l ESPERANCE DE VIE avec le TRANSHUMANISME ?
[13:42] Mathilde : Existe t il des outils de debiaisement des biais cognitifs humain pendant la conception d’une IA ?
[13:43] StfB : contre les « biais » = méthode scientifique
[13:43] François BOCQUET : les réseaux antagonistes permettent de travailler sur la qualité des jeux de données
[13:43] Frederic : Bonjour, est ce que le webinaire sera mis enligne svp, ça coupe énormément, et je ne parviens pas à suivre
[13:44] François BOCQUET : c’est ce qui est utilisé pour générer des visages humains suffisamment crédibles par exemple ce que vient de dire Thierry V.
[13:44] Tifenn : Il y a quelque chose que je ne comprends pas. Pour le Deep Learning, les hidden layers n’apparaissent pas de nulle part, quelqu’un les a bien décidées / programmées pour que l’IA arrive à une réponse. Comment arrivons-nous à ce concept de boite noire où on ne comprenons plus comment la machine arrive à cette réponse?
[13:44] WSophie : Contre les biais : contrôle soutenu et continu par intelligences vivantes multiples. Les biais montrent que les IA ne sont pas auto-suffisantes justement, non ? Contrairement à l’humain, elles ne vont pas se corriger.
[13:44] AlexandraLM : De mon côté aussi : son très très mauvais.
[13:45] Aurélie Lagarrigue : Nous vous pointerons un lien d’enregistrement du webinaire dans le Mooc
[13:45] Françoise Tort : Il y a des outils pour corriger les biais.
[13:45] bakkar : je pose la question de l esperance de vie et du transhumanisme et l amour sont ils liés ? MERCI pour votre réponse apportée qui pourrait nous eclairer
[13:46] Tifenn : Par tâtonnement donc?
[13:47] Tifenn : Merci pour la réponse, c’est déjà un peu plus claire.
[13:48] François BOCQUET : pour le moment on a vu beaucoup d’exemple d’apprentissage supervisé
[13:48] Olivier : A qui imputer la responsabilité d’un accident en voiture autonome? A qui imputer la responsabilité d’un diagnostique médical proposé par IA et au médecin qui suit, ou contredit l’IA? Quel recours en cas d’erreur? Que prévoit la nouvelle loi bioéthique?
[13:49] Marie-Hélène : @frederic oui nous mettrons le webinaire en lien – infos via le MOOC FUN
[13:49] Gladys : Du coup, peut-on faire confiance en l’IA ? Non en raison des biais et d’un manque de transparence?
[13:50] alain Thillay : IA sur fiabilité matérielle OK / sur apprentissage en éducation ?
[13:50] François BOCQUET : @Gladys : de quelle IA parle t’on ? le pilotage d’un avion de transport de passagers ou bien l’ia qui detecte les visages pour faire la mise au point sur les téléphones ?
[13:51] Mathilde : Si les questions d’explicabilité et de transparence sont au coeur des recherches actuelles, quelles sont les pistes les plus avancées dans le domaine ?
[13:52] François BOCQUET : @Alain : il faut le quantifier en évaluant avec des échantillons significatifs avec/sans IA
[13:53] bakkar : QUE PENSEZ VOUS DU TRANHUMANISME ET DE L AMOUR ET ESPERANCE DE VIE ? Merci beaucoup pour la réponse
[13:55] Gladys : @François : comment une IA est utilisée ne relève-t-elle pas de la responsabilité de celui qui l’utilise? Qu’en pensez-vous?
[13:56] Alexis B. : A ce jour L’IA n’ayant pas d’existence juridique, c’est l’humain qui devra valider les choix « préconisées » pas l’IA
[13:56] Olivier : merci pour la réponse. Les loi de bioéthique prévoit une « garantie humaine » experte. Ce serait donc elle qui prendrait la responsabilité?
[13:57] François BOCQUET : @Gladys : à mon sens la responsabilité incombe à celui qui la met à disposition et à celui qui accepte de l’utiliser et certainement pas à l’algorithme lui même
[13:57] Gladys : responsabilité ne signifie pas fiabilité technique
[13:57] WSophie : @Alexis B. Voulez-vous dire que juridiquement l’humain qui suit la décision proposée par une IA sera toujours responsable, alors que celui qui l’a programmée, jamais ?
[13:57] François BOCQUET : @Marie-Helève : cependant l’espérance de vie est directement liée à la faculté d’améliorer les dispositifs de santé !
[13:58] alain Thillay : Désolé de vous quitter déjà… les deux derniers éléments sont aussi des pounts clés pour l’enseignment.
A bientôt. merci aux intervenants et organisateurs 🙂
[13:59] bakkar : MERCI aux intervenants. C’était tres interessant.
[13:59] WSophie : Au revoir Alain!
[13:59] Alexis B. : @sophie, seul l’humain (ou L’entreprise) a une responsabilité juridique aujourd’hui
[14:00] François BOCQUET : mais il n’y a aucune décision prise par de l’IA en médecine ! ce sont juste des indications statistiques sont données aux médecins qui ont décider de finaliser le diagnostic le pronostic et le traitement…
[14:01] WSophie : @Alexis oui cela je saisis mais il y a l’humain à l’origine de l’IA et l’humain qui décide de se fier à cette IA (donc de se fier à celui qui l’a programmée..) .
[14:01] Olivier : alphago dans le duel qui l’a opposé au champion du monde de Go a mis un pion qui n’a été utilié qu’une vingtaine de coups plus tard. Et il a gagné. Si l’IA prpose de couper une jambe, ne faudrait-il pas lui faire confiance ?
[14:02] StfB : Le problème est que l’explicabilité se fait a posteriori !
[14:02] François BOCQUET : @olivier : je pense qu’il faut rester raisonnable : il n’y aucune décision prise par un algorithme sur des sujets aussi complexes que les décisions médicales.
[14:03] stefan : merci pour toutes ces explications sur l’IA
[14:03] Durand Eric : merci à un prochain Webinaire ?
[14:03] StfB : Et les biais sont à l’oeuvre tout autant si ce n’est plus
[14:03] Gael-Aubert Mukendi : quelles approches par exemple?
[14:04] Olivier : @ Francois, en radio, de plus en plus, des propositions de diagnostic de fractures, qui sont validées par des radiologues. Ou simplement avalisée par l’urgentiste seul la nuit…
[14:04] Françoise Tort : On peut revoir la derniere slide d ikram ?
[14:04] StfB : Pourquoi ne pas prendre en compte la recherche fondamentale ?
[14:04] Guillaume : merci d’avoir organisé ce webinaire, merci aux intervenant·e·s et bel après-midi à tou·te·s
[14:05] François BOCQUET : @olivier oui ce sont des indications qui sont données et c’est à l’humain de prendre la décision. Comme tout ce qui relève de l’analyse biologique ou de l’imagerie médicale
[14:05] François BOCQUET : ce sont des aides à la décision
[14:05] François BOCQUET : et pas des décisions automatiques
[14:06] François BOCQUET : la on entre sur des questions d’appreciation et d’acceptabilité -> c’est plus de la psychologie et de la sociologie que de l’informatique 😉
[14:06] bakkar : c’est une question D ETHIQUE LA RESPONSABILITE DE L INTELLIGENCE ARTIFICIELLE OU PAS
[14:07] WSophie : Hyper intéressante l’analyse de l’acceptation ou du refus de l’erreur en fonction de sa source!
[14:08] Thierry Viéville : Les slides seront partagées ensuite
[14:08] AlexandraLM : Quelles sont les solutions justement pour rendre plus interprétable ?
[14:09] bakkar : c’est une question D ETHIQUE LA RESPONSABILITE DE L INTELLIGENCE ARTIFICIELLE OU PAS
[14:09] Laurie HENNARD : Si on utilise une IA pour faire du recrutement, au bout d’un moment ne va-t-elle pas se « nourrir » de ses propres résultats ? et nous figer sur un modèle ?
[14:09] Rémy : en santé, Amélioration IA = Expertise humaine + exploitation de l’IA, et ne pas « opposer » ou choisir entre les 2
[14:10] Martine Andrieu : Webinaire très intéressant qui fait et fera beaucoup réfléchir
[14:12] raquin : merci très intéressant et je repars avec des notion nouvelles pour moi. A la prochaine fois
[14:12] bakkar : CNIL ? IA ?
[14:13] Françoise Tort : construire des processus de decisions dans lesquels IA et humain decident ensemble… et pas forcement ou lhumain cherche a comprendre lIA mais ou il suit son propre raisonnement et on equilibre les deux
[14:14] bakkar : Ethique et Intelligence artificielle | CNIL
[14:16] AlexandraLM : Merci Ikram
[14:17] bakkar : Merci à vous pour vos interventions eclairantes et inspirantes.
[14:17] François BOCQUET : oui à la coopération : c’est pour cela que certains auteur parlent d’intelligence augmentée (De Rosnay)
[14:18] Martine Andrieu : J’aime beaucoup la dernière intervention de Marie Hélène
[14:18] Thierry Viéville : +1
[14:19] Françoise Tort : modules du futur dans les formations universitaires ou professionnelles : comment decider avec une IA…
[14:19] François BOCQUET : le CHU utilisent déja des algorithmes de prediction en masse (accident cardiaques, réanimation, imagerie et diagnistoc, genomique, etc…)
[14:20] WSophie : « On vous a coupé la jambe parce qu’aucun algorithme n’est parfait, quelque peu élevé que soit son taux d’erreur » est une réponse transparente.
[14:21] WSophie : C’est la réponse humaine.
[14:21] François BOCQUET : oui Thierry : Pas le temps mais ca peut être aussi trop cher.
[14:21] François BOCQUET : oui mais ici encore on est dans la polemologie
[14:22] François BOCQUET : (sociologie et psychologie)
[14:22] François BOCQUET : tous les progrès en informatique n’y changeront rien
[14:23] Roselyne Le Bacon : Merci pour toutes vos interventions très éclairantes. Au revoir
[14:24] François BOCQUET : c’est donc que l’on fait confiance au moteur de recherche
[14:24] François BOCQUET : 😉 cqfd
[14:24] Marie-Hélène : Au revoir, merci de votre présence
[14:25] François BOCQUET : quel type d’éucation est prescrite pour préparer les génération montante à être dans un monde ou les algos d’IA seront pervasif ?
[14:25] Brigitte Brunel : Merci à vous tous pour ce débat très enrichissant.
[14:26] François BOCQUET : peut on éduquer à l’IA sans ensigner l’informatique ?
[14:26] François BOCQUET : je pense que si 😉
[14:26] Gladys : La fiabilité de l’IA serait liée à notre niveau d’acceptabilité collective?
[14:26] François BOCQUET : beau sujet de débat !
[14:27] bakkar : y a t il un comité d ethique IA ?
[14:27] bakkar : Des lectures ?
[14:27] François BOCQUET : voir l’execellent travail de Montreal également !
[14:27] François BOCQUET : il y a un comité d’éthique en éducation également
[14:28] WSophie : François Bocquet : polémologie, moteurs de recherche .. : je n’ai pas compris.
[14:28] Aurélie Lagarrigue : L’article grand public de Marine Lhuiller et Ikram Chraibi-Kaadoud en trois volets ​https://tinyurl.com/y37lw8zf , https://tinyurl.com/y5hjyqfl et https://tinyurl.com/y4skxn3q.
L’article de Frédéric Alexandre sur neuroscience et intelligence articificielle, symbolique et numérique https://tinyurl.com/y2aal6qt.
[14:28] bakkar : merci beaucoup
[14:28] Gladys : J’ai beaucoup aimé le MOOC 🙂 Merci pour ce webinaire très intéressant. Bonne journée
[14:30] François BOCQUET : quels sont les exemples de dérives ?
[14:31] StfB : Palantir…
[14:32] François BOCQUET : ben non c’est légal !
[14:32] Gladys : Est-il correct de dire que la fiabilité de l’IA serait interprétée par notre niveau d’acceptabilité collective de l’IA en connaissance des risques liés aux biais et à un certain manque de transparence?
[14:33] Marie-Hélène : @Gladys merci pour ce retour
[14:33] Audrey Pépin : Merci à vous
[14:33] Philippe-Didier : Merci pour ce débat très intéressant !
[14:33] François BOCQUET : @Gladys Intéressant
[14:33] WSophie : On ne peut pas comparer la mauvaise humeur d’un juge à la discrimination ethnique d’un algorithme
[14:33] Kacha2 : merci top
[14:33] MONTENEGRO Nicole : Merci beaucoup !
[14:33] Audrey Pépin : très instructif comme présentation et discussion
[14:33] Laurie HENNARD : Merci beaucoup, très intéressant !
[14:33] Jean-Marie : Merci
[14:33] bakkar : avez vous lu homodeus ?
[14:33] Solemane : Merci, très riche
[14:33] bakkar : merci
[14:33] Martine Andrieu : Merci pour ce webinaire
[14:33] hliwa : discussion intéressante
[14:33] bakkar : merci pour votre participation
[14:33] WSophie : Son coupé pour la fin!!
[14:33] WSophie : Merci à tout le monde
[14:33] jaeck : Merci pour ce webinar très enrichissant
[14:34] bakkar : son coupé
[14:34] François BOCQUET : OK merci beaucoup
[14:34] Tifenn : Merci à vous pour votre temps et vos connaissances. Les moments d’échanges ont été très enrichissants !
Merci également pour ce MOOC qui permet d’amorcer beaucoup de réflexions.
[14:34] Philippe-Didier : Merci !

Dernière modification : novembre 2020.
show post QRcode

Vous pourriez aussi être intéressé-e-s par :
…/…