Veille IA — 10 mai 2021

Marie Langé
8 min readMay 12, 2021

La semaine dernière, j’ai rédigé un premier article pour vous partager ma veille de la semaine passée autour de l’Intelligence Artificielle :

Ca vous avait bien plu, donc voici celle de cette semaine !

Au programme : IA en entreprise, IA et éthique, IA vs le cerveau humain, et diverses autres nouvelles autour de l’IA.

Dites-moi ce que vous en pensez !

IA en entreprise

Cas d’usages de l’Intelligence Artificielle

Une infographie qui illustre des usages concrets de l’IA dans divers secteurs d’activité.

Démocratisation de l’IA

Plus de collaborateurs seront sensibilisés au potentiel des IA, plus des innovations vont émerger dans l’entreprise. La démocratisation permet une réduction des barrières à l’entrée, une diminution des coûts, et augmente la vitesse d’adoption de la technologie.

Il y a 3 catégories de bénéficiaires de la démocratisation : les utilisateurs métiers, les power users, et les développeurs spécialistes. Chacune de ces cibles doit être adressée de façon adéquate et tous doivent être sensibilisés à l’IA responsable, de façon à limiter les externalités négatives et à générer de la confiance.

IA et éthique

Ethique de l’IA : bénéfices et risques de l’intelligence artificielle

La croissance de l’IA — en termes de taille des réseaux de neurones, de leur consommation d’énergie, de la taille des ensembles de données et de la prédominance de la technologie dans la société — soulève des enjeux de grandes questions éthiques : surveillance de masse, génération massive de carbone, grande consommation d’énergie, réplication de biais de la société, données personnelles, travailleurs du clic, deep fakes. Un article très complet sur le sujet :

Vous êtes inquiets concernant l’éthique de l’IA dans votre entreprises ?

Des startup peuvent vous aider.

L’IA explicable en pratique

Intégrez l’IA dans votre flux de travail :

  1. Mettez-vous d’accord sur l’objectif
  2. Explorez les données
  3. Commencez simplement
  4. Prenez du recul
  5. Rentrez dans le détail
  6. Contrôlez

7 questions éthiques que vous devez vous poser

Rapports sur l’état de l’art en éthique de l’IA

L’institut Montreal AI Ethics vise à démocratiser les connaissances en Ethique de l’IA et aprtage des rapports très complets tous les trimestres :

Est-ce que l’IA doit être compréhensible pour être éthique ?

Afin de garantir que les systèmes d’IA fonctionnent de manière éthique, nous devons comprendre comment ils parviennent à leurs conclusions. Cela nécessite que ces systèmes soient interprétables.

D’autant plus que les IA sont biaisées. En effet, chaque fois qu’une technologie importante — comme l’IA dans ce cas — décolle rapidement, son évolution et son comportement refléteront la bulle culturelle dans laquelle elle a été développée. La plupart des IA avancées sont développées dans des entreprises technologiques de la Silicon Valley. Ces entreprises ont des biais démographiques et politiques assez forts, c’est pourquoi il est important qu’elles fassent des efforts particuliers pour inclure des perspectives sous-représentées dans la technologie de la Silicon Valley, comme celles de certaines minorités (les non-asiatiques et les non-blancs sont sous-représentés dans la technologie par rapport à la population générale), les femmes (qui représentent 20% des employés de la technologie) et les conservateurs politiques (San Francisco et Mountain View sont passés de 80 à 85% de démocrates lors des 5 dernières élections générales).

Atelier Ethique et Morale le 28 mai

Si le sujet vous intéresse ne manquez pas l’atelier Ethique et Morale organisé par la chaire IA Responsable le 28 mai à 13h30.

Pour concevoir une IA éthique, il faut comprendre la notion d’ « éthique ». Afin de débroussailler un champ d’étude complexe, ce premier évènement pose les bases de notre approche pour créer une IA éthique. Il apparaît d’abord essentiel de savoir si l’éthique se distingue de la morale. Quelles sont les origines lointaines de la morale ? Le bébé a-t-il déjà un comportement moral ? L’animal est-il moral ? Quelles différences lorsqu’on passe de l’éthique à une éthique appliquée ? La pensée éthique en santé ou dans le secteur des affaires peut-elle servir de modèle pour l’éthique de l’IA ? Finalement, comment penser l’éthique en IA ?

IA VS le cerveau humain

L’apprentissage est surestimé : machine learning vs acquisition de connaissances

Il y a 2 types d’apprentissages : celui où l’information nous est juste transmise (Madrid est la capitale de l’Espagne) et celle qui requiert de la pratique (jouer à la guitare).

Si la plupart des connaissances qui comptent vraiment dans la construction de machines intelligentes capables de raisonner et de prendre des décisions dans des environnements dynamiques et incertains sont acquises et non apprises, alors il est clairement absurde d’ignorer «l’acquisition de connaissances» et de suggérer que le machine learning suffit pour accéder à l’intelligence artificielle générale. Des techniques d’acquisition de connaissances doivent être développées, et c’est bien évidemment plus compliqué que de simplement transmettre des informations à une machine.

Quelles structures métacognitives humaines font défaut à l’IA

Alors que les modèles informatiques ont besoin de grandes quantités de données pour identifier un mot, un enfant humain n’a besoin que de deux ou trois occurrences pour le comprendre. Alors qu’un algorithme comme Deep Minds prend des milliers d’heures pour apprendre à jouer à un jeu Atari, un utilisateur humain n’a besoin que d’une dizaine d’heures. Toutes ces différences montrent la supériorité de l’apprentissage du cerveau humain. Et cela vient d’une capacité cognitive que les machines n’ont pas encore : des connaissances métacognitives issues de millions d’années d’évolution.

Pourquoi nous regardons le cerveau de la mauvaise manière … avec des implications importantes pour l’IA

Beaucoup de nos facultés de raisonnement supérieures comme la pensée et la cognition peuvent en fin de compte être considérées comme des actions intériorisées.

L’intériorisation des actions a présenté aux humains le grand avantage évolutif d’imaginer un futur hypothétique. Les plans qui se déroulent dans notre imagination sont des séquences d’action hypothétiques qui n’ont pas besoin d’être jouées dans la réalité, mais qui peuvent plutôt être essayées dans une représentation interne simulée du monde. Cela permet à des cerveaux suffisamment complexes de choisir des actions basées sur des prédictions sur leurs conséquences, intégrant à la fois les expériences passées et les apports sensoriels de l’environnement.

Notre vision actuelle de l’action et de l’intelligence comme étant séparées et distinctes est certainement un sous-produit de la dualité cartésienne entre le corps et l’esprit. Il est temps de surmonter cette vision dualiste, considérant que l’action pourrait vraiment être au cœur de l’intelligence.

La recherche sur l’intelligence artificielle pourrait être dans une impasse

Les “ratés” dans les neurones peuvent être une caractéristique du cerveau, pas un bug — et c’est quelque chose que la recherche sur l’IA ne peut pas prendre en compte.

Stanislas Dehaene considère le modèle de l’intelligence vue comme un ordinateur comme «profondément faux», en partie parce que «l’activité spontanée est l’une des caractéristiques les plus souvent négligées». Contrairement aux ordinateurs, «les neurones non seulement tolèrent le bruit, mais même l’amplifient» pour aider à générer de nouvelles solutions à des problèmes complexes.
En conséquence, Dehaene pense que l’IA aurait besoin de quelque chose qui s’apparente à des fluctuations spontanées synchronisées pour être consciente.

Divers IA

Une IA a gagné un tournoi de mots croisés

Elle s’appelle Dr. Fill et n’a pas été autorisée à garder le prix de 3000$ :)

Un guide visuel pour comprendre la proposition de régulation de l’Intelligence Artificielle par la Commission Européenne

Cet article vise à clarifier les principaux éléments de la proposition et à aider à comprendre le futur cadre juridique.

LightOn lance PAGnol, le plus grand modèle IA de langue française

Avez-vous déjà imaginé qu’une intelligence artificielle puisse compléter vos pensées ?

Développé par LightOn AI Research (LAIR), PAGnol est un modèle de langage pour le Français. Tapez quelques mots, et regardez comment PAGnol les complète pour vous : https://pagnol.lighton.ai/

La peur de l’IA causée par 4 idées fausses

Erreur n°1 : L’intelligence artificielle “étroite” (narrow intelligence) est sur un continuum avec l’intelligence artificielle générale. C’est aussi faux que de croire que le premier singe à grimper dans un arbre faisait des progrès vers le fait d’aller sur la lune.

Erreur n°2 : Les choses faciles sont faciles et les choses difficiles sont difficiles. Or c’est plutôt l’inverse : les machines excellent pour automatiser des choses compliquées pour nous, alors que ce qui ne nous demande aucun effort (comme apprendre qu’un chat est un chat) est beaucoup plus compliqué à programmer.

Erreur n°3 : La sémantique. Lorsqu’on parle d’apprentissage, on réfère à 2 choses très différentes lorsqu’on parle d’un humain ou d’une machine.

Erreur n°4 : L’intelligence est dans le cerveau. Cette idée a propagé le fait qu’il suffit d’augmenter la puissance de calcul des machines pour qu’elles puissent atteindre une intelligence de niveau humain. Or l’intelligence humaine est fortement corrélée aux émotions, désirs, le sentiment de soi et d’autonomie et un bon sens dans la compréhension du monde.

[FUN] Les Mitchell contre les machines, un dessin animé Netflix à voir !

Le film réjouissant et délirant, suit une famille dysfonctionnelle qui finit par devoir sauver la Terre d’une révolte de robots lors d’un voyage en voiture.

Retrouvez tous mes articles sur https://langemarie.medium.com/ et suivez-moi sur Twitter : https://twitter.com/langemarie

--

--

Marie Langé

Data AI Strategist // 👩‍💻 Business, Data, IA, Project Management, Ethique, Tech