Humains vs Machines #4

Retrouvez une sélection d’articles passionnants que j’ai lus la semaine dernière sur l’IA et ses interactions avec nous, notamment en terme de conséquences sociétales et philosophiques.

Au programme cette semaine : les dangers de l’IA, IA & Ethique, IA & Emotions, IA vs le cerveau humain.

Les dangers de l’IA

Selon un prix Nobel, la domination de l’intelligence artificielle est inévitable

« Il est clair que l’IA va gagner contre l’intelligence humaine. Ce n’est même pas débattable. La manière dont les gens vont s’adapter à cela est un problème fascinant », déclare Daniel Kahneman.

J’ai lu une réaction intéressante à cette affirmation, de la part de Shannon Vallor, du Center for Technomoral Futures :

“Je vais le répéter. L’IA c’est des gens. Juste des gens. Jusqu’au bout. Pour les temps à venir. Donc, si vous le formulez comme une guerre que l’IA gagne, vous dites que certaines personnes vont gagner cette guerre contre d’autres personnes. Ne prétendez pas que les machines combattent qui que ce soit”.

Les pirates informatiques étaient des humains. Bientôt, les IA vont pirater l’humanité

Comme des génies rusés, les IA exauceront nos souhaits, puis les pirateront, exploitant nos systèmes sociaux, politiques et économiques comme jamais auparavant.

“S’il y a des problèmes, des incohérences ou des failles dans les règles, et si ces propriétés conduisent à une solution acceptable telle que définie par les règles, les IA trouveront ces hacks.”

“Alors que les humains comprennent le plus souvent implicitement le contexte et agissent généralement de bonne foi, nous ne pouvons pas spécifier complètement les objectifs d’une IA. Et les IA ne seront pas en mesure de comprendre complètement le contexte.”

Kate Crawford (USC, Microsoft) affirme que l’IA n’est ni artificielle ni intelligente et qu’elle présente un certain nombre de risques

“Nous avons vu des recherches axées trop étroitement sur les correctifs techniques et les approches mathématiques liés aux biais, plutôt que sur une vision plus large de la façon dont ces systèmes s’intègrent à des institutions sociales complexes et à enjeux élevés comme la justice pénale, l’éducation et les soins de santé. J’aimerais que la recherche se concentre moins sur les questions d’éthique et plus sur les questions de pouvoir. Ces systèmes sont utilisés par des intérêts puissants qui représentent déjà les plus privilégiés du monde.”

“Soyons clairs : la prévision statistique est incroyablement utile ; tout comme l’est une feuille de calcul Excel. Mais il vient avec sa propre logique, sa propre politique, ses propres idéologies dont les gens sont rarement sensibilisés. Et nous comptons sur des systèmes qui n’ont pas le type de garde-fou auquel vous vous attendez pour quelque chose d’aussi influent dans la vie de tous les jours. Nous sommes confrontés à une urgence réglementaire : il existe des outils qui causent des dommages qui ne sont pas du tout réglementés.”

IA et éthique

L’IA éthique est de notre responsabilité

Selon une enquête réalisée en 2019 sur l’éthique dans l’IA, Capgemini a constaté que 62% des consommateurs ont déclaré qu’ils feraient davantage confiance aux marques s’ils percevaient leurs interactions en matière d’IA comme éthiques. Cependant, jusqu’à 47 % d’entre eux ont répondu qu’ils avaient rencontré au moins deux incidents d’IA créant des résultats éthiques douteux durant les 3 dernières années. Les cadres supérieurs partageaient ce sentiment, 90 % estimant que l’utilisation des systèmes d’IA posait des problèmes éthiques.

Dans la planification et l’exécution de projets, nous avons tendance à répondre aux exigences qui génèrent des résultats commerciaux immédiats, comme le retour sur investissement, les fonctionnalités utilisateur, les performances, etc. Les fonctionnalités avec des retours difficiles à quantifier, comme le test, la sécurité, la compliance, la protection de la vie privée, ou l’IA responsable, sont dépriorisées. Beaucoup de choses peuvent conduire à des incidents éthiques avec l’IA, mais nous pouvons les ramener à quatre causes majeures : la prise de conscience de potentiels soucis éthiques avec l’IA, le budget, le temps, la gouvernance.

IA : les armes de Google et Facebook pour faire la chasse aux biais

“Biais liés à la couleur de peau ou au genre, erreurs d’algorithmes dans la modération des discours haineux, des fake news… Les Gafa sont régulièrement interpellés sur l’éthique de leurs IA. Conçues par des data scientists majoritairement jeunes, blancs et de sexe masculin, mais aussi entraînées sur des jeux de données parfois viciés, elles peuvent introduire des biais.”

Facebook a dévoilé son projet Fairness Flow, un outil visant à détecter les prédictions erronées d’un modèle de machine learning, qu’elles soient liées à l’origine, le sexe ou l’âge des individus.

Google de son côté a lancé PAIR et What-if-tool.

Twitter abandonne un algorithme biaisé contre les femmes noires

Twitter a établi que son algorithme qui recadre les photos est légèrement biaisé en faveur des personnes blanches et des femmes, et préfère désormais se passer de cette technologie automatisée.

5 raisons importantes pour lesquelles l’IA explicable est un besoin essentiel pour l’humanité

L’IA explicable (XAI) fait référence aux techniques et méthodes de création d’applications d’IA permettant aux humains de comprendre «pourquoi» ils prennent des décisions particulières.

Cependant, plus les techniques d’IA sont évoluées, et moins elles sont explicables. Elles sont plus fiables (meilleure Accuracy), mais ce sont des boites noires (faible Explainability) :

Or, nous avons besoin plus que jamais d’explicabilité. L’article évoque 5 raisons à cela :

  1. Les systèmes d’IA sont de plus en plus utilisés sur des sujets sensibles
  2. Les progrès exponentiels de l’IA peuvent créer des menaces existentielles
  3. Le règlement des différends liés à l’IA nécessite un raisonnement et une explication
  4. L’élimination des biais historiques des systèmes d’IA nécessite une explicabilité
  5. La prise de décision commerciale automatisée nécessite fiabilité et confiance

Il n’existe pas d’«IA éthique»

Les technologues croient que les défis éthiques de l’IA peuvent être résolus avec du code, mais les défis sont beaucoup plus complexes.

Alors qu’il existe «une convergence mondiale émergeant autour de cinq principes éthiques (transparence, justice et équité, non-malfaisance, responsabilité et vie privée)», ce que signifient précisément ces principes est une toute autre question. Il subsiste «des divergences de fond quant à la manière dont ces principes sont interprétés, pourquoi ils sont jugés importants, à quels problèmes, domaines ou acteurs ils se rapportent et comment ils devraient être mis en œuvre. Les codes éthiques, en d’autres termes, ressemblent beaucoup moins à des codes informatiques que leurs créateurs ne le souhaiteraient. Ce ne sont pas tant des ensembles d’instructions que des aspirations, formulés en des termes qui soulèvent plus de questions qu’ils ne répondent. Ce problème ne va pas disparaître, en grande partie parce qu’il n’existe pas un ensemble unique de principes éthiques pouvant être rationnellement justifiés d’une manière que tout être rationnel acceptera.

Véhicules autonomes: morale contre machine?

Un grand dilemme est resté jusqu’à nos jours: à qui la vie des véhicules autonomes doivent-ils sauver, en cas de devoir tuer telle ou telle personne? Ce type de situation n’est pas considéré comme rare en matière de sécurité routière.

Les véhicules autonomes doivent avoir une morale et les utilisateurs attendent de la part de ces machines une plus grande rigueur morale que celle attendue des humains. Il semble que nous soyons prêts à sympathiser avec les réactions soudaines humaines et à pardonner même si elles ne sont pas les meilleures. Cependant, pardonnerons-nous aux machines conçues pour favoriser et discriminer selon certaines caractéristiques ?

Et si l’humanité tout entière décidait démocratiquement de ces principes moraux ? Problème : les valeurs morales varient selon les régions du monde…

Un consensus social sur toutes ces questions est pourtant nécessaire. Si nos sociétés ont su se développer et s’entendre sur des principes constitutionnels et même proclamé une Déclaration universelle des droits de l’homme, ne pouvons-nous pas penser aux principes moraux des voitures autonomes et aux innovations technologiques en général ?

IA et émotions

Nous devons arrêter de faire de la reconnaissance des émotions par l’IA

La technologie de reconnaissance des émotions ne fonctionne pas. Et c’est effrayant quand vous voyez le nombre d’entreprises de technologie qui l’incluent dans des produits, comme HireValue, qui analyse les visages et les voix de candidats à un emploi et les compare aux employés très performants.

“Il n’est pas possible de déduire avec confiance le bonheur d’un sourire, la colère d’un air renfrogné ou la tristesse d’un froncement de sourcils, comme la plupart des technologies actuelles essaient de le faire en appliquant ce que l’on croit à tort être des faits scientifiques.” Une fiabilité limitée a été trouvée (les émotions ne génèrent pas toujours les mêmes mouvements du visage), un manque de spécificité (les paires émotion-mouvement du visage ne présentent pas de mappages uniques) et une généralisation limitée (les facteurs culturels et contextuels n’ont pas été suffisamment documentés).

Et si vous voulez tester par vous-mêmes à quel point ça fonctionne mal, je vous invite à vous amuser avec cette petite app proposée par le Financial Times :

IA vs le cerveau humain

Quelles structures métacognitives humaines font défaut à l’IA

La supériorité actuelle de l’apprentissage du cerveau humain par rapport aux IA vient d’une capacité cognitive que les machines n’ont pas encore : des connaissances métacognitives issues de millions d’années d’évolution.

Contrairement à ce que l’on pourrait penser, les bébés humains, ne naissent pas sans aucun savoir et n’apprennent pas à partir de rien. Ils grandissent déjà dotés de règles innées de métacognition (par exemple, pour toujours privilégier le modèle mental le plus simple), qui leur permettent de raisonner logiquement et d’optimiser leur apprentissage des langues à grande vitesse. Plus que cela, ils partent d’hypothèses sur le monde qu’ils ont déjà acquises et sélectionnent et éliminent ces hypothèses grâce à un raisonnement inductif continu.

En effet, les bébés de quelques mois savent et prédisent dès la naissance comment un objet se comporte et qu’il a besoin d’une cause externe pour se déplacer. Les très jeunes enfants sont surpris par des événements qui contredisent leurs intuitions des lois de la physique. Ils ont par ailleurs un sens inné de l’arithmétique et un sens naturel pour les probabilités.

Les bébés ont non seulement une intuition naturelle pour les objets et le langage, mais aussi pour les animaux et les humains. Dès que les chercheurs soulignent qu’un objet est un «animal», ils ne sont pas surpris quand ils le voient enfreindre les lois de la physique par un mouvement auto-généré. Ils ne le perçoivent que comme l’intention de l’animal de se déplacer sur son chemin. Ainsi, lorsque l’objet vivant ne fait pas de mouvement intentionnel, ils essaient de faire des inférences sur sa véritable motivation.

Comme vous pouvez le voir, le cerveau humain est naturellement doté de structures métacognitives qui servent de base à un apprentissage accéléré. Ce sont ces règles de raisonnement abstraites qui leur permettent de tirer des conclusions sur les modèles observés avec beaucoup moins de données qu’un réseau de neurone artificiel.

L’IA neurosymbolique pour nous doter de machines avec un vrai sens commun

“Les chercheurs veulent que l’IA ne reconnaisse pas seulement les objets, mais soit capable de comprendre ce qu’elle voit et d’appliquer un raisonnement pour agir en conséquence dans une nouvelle situation.”

“Un défi majeur est que les réseaux de neurones ne peuvent pas expliquer comment les objets sont liés les uns aux autres. Comme ils s’appuient sur les données disponibles, ils ne peuvent pas raisonner — ils ne peuvent pas avoir de bon sens. «Le bon sens est l’ensemble des connaissances implicites que nous avons et qui ne sont jamais écrites nulle part», déclare Cox. “Je sais que si je prends une tasse et la mets sur la table, la table la soutiendra. Et même si nous ingérons un corpus géant de langage naturel dans une machine, nous n’allons pas trouver beaucoup d’exemples de quelqu’un affirmant ce fait.” Malgré toute leur génialité, les réseaux neuronaux ne fonctionnent pas comme le font les cerveaux humains — et ne le feront probablement jamais.”

“Pour aider les machines à raisonner comme nous, Gutfreund a cherché à mélanger l’IA symbolique du passé avec des réseaux neuronaux, fusionnant logique et apprentissage. Selon lui, les réseaux neuronaux amélioreraient les systèmes d’IA symboliques en divisant le monde en symboles — reconnaissant les images et traduisant les pixels en une représentation symbolique. Et les algorithmes d’IA symbolique injecteraient dans les réseaux neuronaux un raisonnement de bon sens et une connaissance du domaine. Ils appliqueraient un raisonnement logique et sémantique pour décrire les relations entre les objets, prédire diverses interactions, répondre à des questions et prendre des décisions — tout comme le ferait un humain.”

“Les humains naissent avec une compréhension approximative préprogrammée du monde, analogue à certains égards aux moteurs de jeu utilisés pour créer des jeux vidéo immersifs interactifs. Ce «moteur de jeu dans la tête» offre la possibilité de simuler le monde et nos interactions avec lui, et sert de cible de perception et de modèle du monde qui guide notre planification. Fondamentalement, ce moteur de jeu apprend à partir des données, dès l’enfance, pour être en mesure de modéliser les situations réelles — la gamme infinie de «jeux» — dans lesquels nous nous trouvons. Les chercheurs pensent qu’il est possible de reproduire ce type de système dans une machine en intégrant des idées et des outils issus de la conception de moteurs de jeu dans des cadres pour l’IA neurosymbolique et la modélisation et l’inférence probabilistes connues sous le nom de programmes probabilistes.”

“Selon la DARPA, l’absence de bon sens est la barrière la plus importante entre les applications d’intelligence artificielle étroitement ciblées d’aujourd’hui et les systèmes d’IA plus généraux, de type humain, espérés à l’avenir.”

La grande illusion

Selon Musk, les avancées dans les technologies de jeux vidéos nous ont permis de passer de la boule carrée de pong au quasi photoréalisme des graphismes modernes. Si elles continuent à progresser comme ça, il est inévitable qu’une sorte de jeu simulé soit indiscernable de l’expérience que nous appelons réalité.

De nombreux travaux fondamentaux sur la cognition développementale ont montré que nous apprenons en créant des modèles du monde qui nous entoure grâce à la découverte de modèles. Si cela vous rappelle le machine learning, vous êtes sur la bonne voie.

Ce que suggèrent des découvertes en sciences cognitives, c’est que nous ne «voyons» pas simplement le monde qui nous entoure tel qu’il est. Nous en créons une simulation. La rétine de nos yeux est plate, en 2D, mais nous apprenons la profondeur. Le son qui atteint nos oreilles est une onde continue, mais nous apprenons à séparer les mots, les haut-parleurs et les différents types de sons. Nos cerveaux sont ce qui ajoute des règles qui créent du sens à ce que nous ressentons. C’est ce qu’on appelle la perception. Ce que nous percevons, c’est le modèle simulé auquel nous avons entraîné notre cerveau. Il peut être difficile de penser à la façon dont nos esprits sont des simulations lorsque nous y vivons. C’est un peu comme être à l’intérieur de la matrice. C’est tout ce que vous savez. C’est réel et ce que nous vivons est réel. Eh bien, c’est le cas, et ce n’est pas le cas. C’est vraiment ainsi que notre cerveau fonctionne probablement, mais ce que vous vivez est le vôtre et celui de personne d’autre. Je pense que nous comprenons tous ce sentiment. Mes pensées et mes sentiments sont les miens et les vôtres sont les vôtres. Il est cependant beaucoup plus difficile de comprendre que le monde que nous voyons, entendons et ressentons n’est pas non plus le même.

La manière dont nos cerveaux construisent une certaine compréhension du monde dépend du codage dans chacun de nos cerveaux, du câblage des neurones. Ils diffèrent tous dans une certaine mesure, ce qui signifie qu’aucune personne ne partage le même modèle du monde. Ils peuvent obtenir leurs informations du même monde, mais la façon dont elles sont comprises est différente. C’est notre propre simulation personnelle unique, la grande illusion ultime.

Plus nous découvrons comment cela fonctionne, plus nous comprenons que notre esprit est une sorte d’ordinateur. De même que l’ordinateur manipule les pixels et les bits juste assez bien pour créer l’impression d’un monde entier dans un jeu, nos cerveaux peuvent faire de même avec la grande quantité d’informations du monde réel. La simulation n’est pas tout autour de nous. C’est nous.

Votre esprit n’est pas confiné à un corps

Le concept de l’esprit étendu, inventé par les philosophes Andy Clark et David Chalmers, postule que notre esprit est dans un état d’externalisme actif. Notre environnement et la manière dont nous l’utilisons sont le moteur des processus cognitifs. De cela, nous obtenons également une cognition étendue. C’est notre capacité à utiliser des objets physiques externes pour renforcer nos capacités cognitives : nous nous reposons sur nos téléphones ou des notes, nos états mentaux sont influencés par les réseaux sociaux, etc.

L’esprit n’est pas confiné dans nos crânes. La théorie de l’esprit étendu va au-delà du dualisme car nous incorporons des modules externes dans l’esprit. Si notre esprit est un ordinateur, alors ces modules externes sont des clés USB et d’autres programmes.

Les états mentaux, les croyances et les connaissances peuvent exister en dehors de notre corps. Alors que nous nous dirigeons vers les interfaces cerveau-ordinateur, cela devient une question importante à laquelle il faut répondre. Les implants peuvent permettre aux personnes paralysées d’utiliser les ordinateurs avec leur esprit. La stimulation cérébrale profonde et d’autres types de thérapie par neuromodulation modifient l’état du cerveau.

Finalement, ces implants peuvent être proposés à des personnes en bonne santé. C’est là une question centrale de la neuroéthique. Comment un accès facile à des téraoctets de connaissances affecte-t-il le sens de soi ou de la personnalité ? Si nous augmentons la vitesse de nos calculs, comment cela change-t-il la façon dont nous percevons le reste du monde ?

Allons-nous fusionner avec les IA ?

Divers

Pourquoi les développeurs en IA adorent ces CAPTCHA ennuyeux

Les CAPTCHA sont ces tests proposés par de trop nombreux sites internet pour vérifier que nous ne sommes pas des robots tentant de pirater ou spammer. Il existe des alternatives moins pénibles pour l’utilisateur : pourquoi ne sont-elles pas utilisées ? Parce que les CAPTCHA ont une autre fonction : fournir de la main-d’œuvre gratuite pour les développeurs en IA. Quand vous reconnaissez des chiffres ou lettres tordues, vous aidez les IA à mieux détecter ces caractères dans des images ou scans. Quand vous reconnaissez des passages pour piétons, des collines, des feux de route ou autre dans des images, vous aidez les IA à mieux les repérer.

Cloudflare estime que l’humanité fournirait 500 ans de travail chaque jour sur les CAPTCHA…

3 signes qui montrent que votre projet d’IA est voué à l’échec

1 — Des attentes non réalistes

Parfois, l’équipe ne se soucie pas de résoudre de vrais problèmes métiers avec l’IA. Au lieu de cela, ils sont intéressés par l’optique : ils veulent pouvoir dire des choses tape-à-l’œil sur leur «entreprise alimentée par l’IA». Ils n’ont pas de normes et ils ne se soucient pas de savoir si cela fonctionne. Ils veulent juste lancer une IA parce que c’est tendance. Tout serait mieux si les équipes étaient honnêtes (au moins avec elles-mêmes) sur leurs vrais objectifs pour les projets IA et structuraient leur stratégie autour de ceux-ci. Ajoutez l’éblouissement marketing plus tard.

2 — Pas de respect pour la diversité de compétences

Il faut un village pour créer des solutions d’IA (surtout si nous parlons de solutions critiques à grande échelle) et si votre équipe manque l’une des compétences requises, le tout s’effondrera. Si vous n’avez pas la capacité de travailler avec des équipes interdisciplinaires, vous aurez des difficultés à appliquer l’IA… car c’est ce qu’il faut pour faire le travail. Même si vous trouvez une licorne magique qui a toutes les compétences (quelqu’un qui est à la fois l’ingénieur parfait, le parfait chercheur en apprentissage automatique, le concepteur UX parfait, le statisticien parfait, le chef de produit parfait, le chef d’équipe parfait, l’analyste parfait, l’expert du domaine parfait, le décideur d’affaires parfait, et tout le reste… le tout dans un seul corps), il y aura trop de travail pour elle seule et elle sera obligée de se spécialiser.

3 — L’équipe ne sait pas qui est responsable

Lorsque le projet n’a pas de leader, de sponsor et de décideur qualifié, il y a de fortes chances que l’effort de l’équipe soit gaspillé… ou pire.

Retrouvez tous mes articles sur https://langemarie.medium.com/ et suivez-moi sur Twitter : https://twitter.com/langemarie

Data practice Manager @Adone, Co-founder @AMASAI // 👩‍💻 Business, Data, IA, Project Management, Ethique, Tech

Data practice Manager @Adone, Co-founder @AMASAI // 👩‍💻 Business, Data, IA, Project Management, Ethique, Tech