Veille IA — 4 mai 2021

Image by Gerd Altmann from Pixabay

Je fais une veille quotidienne sur l’intelligence artificielle et ses conséquences, qu’elles soient philosophiques, éthiques ou sociétales. Je partage les articles intéressants sur ces sujets sur mon fil Twitter.

Vous retrouverez ici les articles que j’ai trouvés intéressants la semaine dernière et que j’ai regroupés en 4 thèmes : IA & Conscience, IA et Femmes, IA éthique et responsable, Données personnelles.

IA & Conscience

Le cerveau n’est pas fait pour penser mais pour prédire la réalité. Comme les IA finalement.

“Votre cerveau recrée le passé à partir de la mémoire en se demandant : “la dernière fois que j’ai rencontré une situation similaire, quand mon corps était dans un état similaire et préparait une action similaire à celle-ci, qu’ai-je vu ensuite ? Qu’est-ce que j’ai ressenti ensuite ?”. La réponse devient votre expérience. En d’autres termes, votre cerveau combine des informations provenant de l’extérieur et de l’intérieur de votre tête pour produire tout ce que vous voyez, entendez, sentez, goûtez et ressentez.”

“Les prédictions ne sont que votre cerveau ayant une conversation avec lui-même. Un tas de neurones font leur meilleure estimation de ce qui va se passer dans le futur immédiat, en fonction de la combinaison du passé et du présent que votre cerveau évoque actuellement. Ces neurones annoncent ensuite cette supposition aux neurones d’autres zones du cerveau, modifiant leur déclenchement. Pendant ce temps, les données sensorielles du monde et de votre corps s’injectent dans la conversation, confirmant (ou non) la prédiction que vous vivrez comme votre réalité.”

Ce qui manque aux IA, c’est l’intuition

Selon Laurence Devillers, professeur en intelligence artificielle, spécialiste de l’éthique et des interactions homme/machine, ce qui manque aux IA c’est l’intuition : “dans le vrai monde, dans lequel il y a des choses cachées, des choses qu’on peut voir sous différents aspects, l’humain a un sens de l’environnement qui lui permet d’interpréter les choses, même s’il n’en a qu’une vision partielle. Alors que la machine doit connaître tous les possibles pour les interpréter. Ce qui manque à la machine c’est l’intuition. Dans tout apprentissage, il y a une part d’intuition, de sens commun, de compréhension rapide des choses. Un enfant, après avoir vu quelqu’un faire quelque chose deux fois, sait le faire. La machine, il lui faut bien plus de temps pour arriver à la même performance. Nous avons aussi une partie innée aussi que n’a pas la machine. Et nous n’apprenons pas uniquement par le langage, mais aussi par tous les autres sens que n’a pas la machine.”

L’essor de l’IA cognitive

“Alors que l’IA contemporaine se rapporte au « système 1 » — intuitif, rapide, inconscient, le prochain défi pour les systèmes d’IA réside dans la mise en œuvre des capacités du « Système 2 » — lent, logique, séquentiel, conscient, afin de s’adapter à de nouvelles situations inconnues.”

[Ces 2 systèmes ont été imaginés et présentés par Daniel Kahneman dans son ouvrage “Système 1 / Système 2 : Les deux vitesses de la pensée” (Thinking, Fast and Slow) dont je recommande la lecture !]

L’apprentissage causal pour rapprocher les IA du niveau de compréhension humain.

“Nous n’avons pas de systèmes d’IA qui comprennent réellement, en tout cas rien qui ne se rapproche du niveau où les humains le font. Bengio a caractérisé la compréhension humaine comme : capturer la causalité ; capturer comment le monde fonctionne ; comprendre les actions abstraites et comment les utiliser pour les contrôler ; raisonner et planifier, même dans de nouveaux scénarios ; expliquer ce qui s’est passé (inférence, causes).

L’apprentissage causal se concentre sur la représentation des connaissances structurelles sur le processus générateur de données afin de permettre des interventions et des changements, ce qui facilite la réutilisation des connaissances apprises. Cette approche est considérée comme plus proche de la pensée humaine.”

L’IA ne peut pas détecter correctement les émotions

“L’IA ne peut pas détecter nos émotions parce qu’elles sont à la fois composées de composantes subjectives phénoménologiques, physiologiques, mentales, psychologiques, culturelles.”

Le test de Turing est obsolète

“Le directeur scientifique d’Alexa pense que l’ancienne référence pour l’informatique n’est plus pertinente pour l’ère de l’IA d’aujourd’hui. Dans les années qui ont suivi son introduction, le test de Turing a servi de boussole pour l’IA dans le milieu universitaire. L’objectif du test était de déterminer si une machine peut présenter un comportement conversationnel indiscernable d’un humain. Avec l’IA qui est maintenant omniprésente, intégrée dans nos téléphones, voitures et maisons, il est devenu de plus en plus évident que les gens se soucient beaucoup plus que leurs interactions avec les machines soient utiles et transparentes plutôt que du fait que les machines soient indiscernables d’un être humain. Par conséquent, il est temps de mettre à la retraite la tradition qui a servi d’inspiration pendant sept décennies, et de lancer un nouveau défi qui inspire les chercheurs.”

IA éthique et responsable

Un Afro-Américain envoyé en prison à cause d’une erreur de reconnaissance faciale

“Nijeer Parks, un Afro-Américain a été arrêté en février 2019, pour des crimes qu’il n’a pas commis et aurait passé onze jours en prison, selon ses dires. Les chefs d’accusation sont très graves: agression aggravée, possession illégale d’armes, utilisation d’une fausse carte d’identité, possession de marijuana, vol à l’étalage, abandon de la scène d’un crime et résistance à l’arrestation. Nijeer Parks est également accusé d’avoir failli renverser un officier de police avec sa voiture en prenant la fuite. Il risque plusieurs années de prison et une peine supplémentaire en raison de ses condamnations antérieures pour des faits liés à la drogue. Sauf qu’au moment des crimes commis dans un hôtel Hampton Inn à Woodbridge, Nijeer Parks était 48 kilomètres plus loin, en train d’envoyer de l’argent à sa fiancée, dans un Western Union.”

Des employés envoyés en prison à tort parce qu’une IA les a accusés de détourner de l’argent.

“Au cours des 20 dernières années, les employés de la poste britannique ont été confrontés à un logiciel appelé Horizon, qui présentait une faille fatale : des bugs qui donnaient l’impression que les employés avaient volé des dizaines de milliers de livres sterling. Cela a conduit certains employés de poste locaux à être reconnus coupables de crimes, voire à être envoyés en prison, car le bureau de poste a insisté avec obstination sur la fiabilité du logiciel. Après avoir combattu pendant des décennies, 39 personnes voient enfin leur condamnation annulée, après ce qui serait la plus grande erreur judiciaire que le Royaume-Uni ait jamais connue.”

Le paradoxe de la fiabilité des IA

Plus une IA est efficace, plus on lui fait confiance. Or, aucune IA n’est à l’abri de faire des erreurs, et on risque de passer à côté de celles commises par les IA trop performantes.

“Une des choses les plus dangereuses sur les solutions basées sur les mathématiques et les données, c’est que les non-experts leur font trop confiance. Ce n’est pas parce que vous n’avez pas encore vu d’erreur que votre système est parfait.”

De l’importance de l’explicabilité dans les IA (XAI)

“Les modèles complexes de « boîte noire » sont de plus en plus répandus dans les industries qui prennent des décisions à enjeux élevés. Comme l’IA joue un rôle de premier plan dans notre vie quotidienne, expliquer leur décision ne fera que prendre de l’importance par l’explication.

L’explicabilité peut se définir comme suit : «Des méthodes et des modèles qui rendent le comportement et les prédictions d’un modèle d’apprentissage automatique compréhensibles pour les humains.»

Alors que les chercheurs développent encore de nouvelles approches, l’application de diverses méthodes XAI dans la pratique présente ses propres défis. Une chose à garder à l’esprit : plus tôt dans le projet vous commencerez à penser au XAI, plus il sera facile de l’intégrer. Cependant, en ce qui concerne le XAI, Il n’existe pas d’approche universelle, c’est un processus plutôt qu’un seul produit.”

Les «moteurs de contextualisation» peuvent lutter contre la désinformation sans censure

“Les moteurs de recherche ont transformé la première décennie du millénaire. Les moteurs de recommandation ont révolutionné la deuxième décennie. Ni l’un ni l’autre dans leur forme actuelle ne sont suffisants pour lutter contre la désinformation. Ils se concentrent sur la découverte et reposent principalement sur la pertinence. Mais ils ne sont pas particulièrement utiles pour de nombreuses autres tâches d’information importantes, en particulier la contextualisation. Nous avons besoin de meilleurs outils pour aider les gens à contextualiser rapidement les médias qu’ils rencontrent en ligne. Ceci est particulièrement important pour aider les personnes occupées au quotidien qui ont besoin de comprendre rapidement le texte, les images et les vidéos chargés de désinformation partagés dans les discussions de groupe et les plates-formes en ligne.”

Livre blanc “IA de confiance” de Quantmetry

“Les entreprises trouveront un avantage à s’engager dès à présent dans la mise en œuvre d’une IA de confiance, s’inscrivant ainsi dans les exigences futures. Ce livre blanc expose ces enjeux et présente des orientations afin de concevoir et déployer une IA de confiance valorisée.”

Un guide pratique pour les data scientists pour les sensibiliser aux problèmes de biais dans les IA

“Le data scientist typique n’a pas assez de connaissances pour identifier les défis que posent les biais et il n’est pas toujours possible d’inclure un expert en éthique lors de la production de data science. Le but de cette étude est de fournir un guide pratique aux data scientists et de les sensibiliser davantage. Dans ce travail, nous avons passé en revue différentes sources de biais et les avons regroupées sous différentes étapes du cycle de vie de la science des données.”

Le fabuleux chantier — rendre l’intelligence artificielle robustement bénéfique

Un ouvrage de Lê de Science4all qui présente les défis posés par les IA pour que celles-ci soient bénéfiques.

IA et femmes

Sous-représentation des femmes dans l’IA et la Data Science

“Les femmes sont sous-représentées de façons significative dans les domaines de l’Intelligence Artificielle et de la Data Science, bien qu’elles soient plus qualifiées. Elles sont plus susceptibles de quitter leurs carrières plutôt que de progresser vers des rôles de managers ou de dirigeants.”

Pourquoi est-il important d’avoir une égalité femmes-hommes dans l’IA ?

“Une IA égalitaire, développée par des équipes mixtes, pourrait se révéler un levier fondamental pour la mixité. Une IA égalitaire qui serait utilisée pour le recrutement proposerait indifféremment des femmes et des hommes pour les postes à responsabilités. Elle enseignerait en se comportant de la même manière avec les garçons et les filles et proposerait des livres de cuisine ou des jeux de réflexion sans cibler un genre en particulier. Les outils dotés d’une IA égalitaire contribueraient à lever les biais de genre et au respect des droits de toutes et tous à tous les moments de la vie : de l’école à l’entreprise, à la banque, chez le médecin comme face à un site Internet.”

Femmes invisibles — comment le manque de données sur les femmes dessine un monde fait pour les hommes.

Un livre de Caroline Criado Perez à lire absolument !

Données personnelles

Réfléchissez avant de donner vos données !

“La donnée utilisateur a une grande valeur marchande. Vos données sont vendues, échangées, tous les jours pour mieux vous profiler et vous cibler : pour la publicité, évidemment. Votre donnée toute seule ne vaut pas grand chose : mais c’est le recoupement, le nombre d’informations, qui vont permettre de donner du sens, de vous profiler. Et donner la possibilité d’utiliser ces données contre vous.”

Fin des cookies tiers dans Chrome : Google veut-il vraiment votre bien ?

La fin des cookies tiers dans Google Chrome est vendue comme une protection de votre vie privée. La réalité est bien plus machiavélique.

Retrouvez tous mes articles sur https://langemarie.medium.com/ et suivez-moi sur Twitter : https://twitter.com/langemarie

Data practice Manager @Adone, Co-founder @AMASAI // 👩‍💻 Business, Data, IA, Project Management, Ethique, Tech

Data practice Manager @Adone, Co-founder @AMASAI // 👩‍💻 Business, Data, IA, Project Management, Ethique, Tech