L'intelligence artificielle Introduction Le terme « intelligence artificielle » est largement utilisé depuis quelques années et recoupe plusieurs réalités. La notion « d'intelligence » est par ailleurs assez difficile à définir et donc les expressions « intelligence artificielle » et « IA » sont souvent utilisées à tort. Voici un texte introductif publié par Yann Le Cun pour le collège de France :

Qu’est-ce que l’intelligence artificielle ?

Qu’est-ce que l’intelligence ? Est-ce la capacité à percevoir le monde, à prédire le futur immédiat ou lointain, ou à planifier une série d’actions pour atteindre un but ? Est-ce la capacité d’apprendre, ou celle d’appliquer son savoir à bon escient ? La définition est difficile à cerner.
On pourrait dire que l’intelligence artificielle (IA) est un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux.
Les tâches relevant de l’IA sont parfois très simples pour les humains, comme par exemple reconnaître et localiser les objets dans une image, planifier les mouvements d’un robot pour attraper un objet, ou conduire une voiture. Elles requièrent parfois de la planification complexe, comme par exemple pour jouer aux échecs ou au Go. Les tâches les plus compliquées requièrent beaucoup de connaissances et de sens commun, par exemple pour traduire un texte ou conduire un dialogue. Depuis quelques années, on associe presque toujours l’intelligence aux capacités d’apprentissage. C’est grâce à l’apprentissage qu’un système intelligent capable d’exécuter une tâche peut améliorer ses performances avec l’expérience. C’est grâce à l’apprentissage qu’il pourra apprendre à exécuter de nouvelles tâches et acquérir de nouvelles compétences. Le domaine de l’IA n’a pas toujours considéré l’apprentissage comme essentiel à l’intelligence. Par le passé, construire un système intelligent consistait à écrire un programme « à la main » pour jouer aux échecs (par recherche arborescente), reconnaître des caractères imprimés (par comparaison avec des images prototypes), ou faire un diagnostic médical à partir des symptômes (par déduction logique à partir de règles écrites par des experts). Mais cette approche «manuelle» a ses limites.

L’apprentissage machine

Les méthodes manuelles se sont avérées très difficiles à appliquer pour des tâches en apparence très simples comme la reconnaissance d’objets dans les images ou la reconnaissance vocale. Les données venant du monde réel – les échantillons d’un son ou les pixels d’une image – sont complexes, variables et entachées de bruit.
Pour une machine, une image est un tableau de nombres indiquant la luminosité (ou la couleur) de chaque pixel, et un signal sonore une suite de nombres indiquant la pression de l’air à chaque instant.
Comment une machine peut-elle transcrire la suite de nombres d’un signal sonore en série de mots tout en ignorant le bruit ambiant, l’accent du locuteur et les particularités de sa voix ? Comment une machine peut-elle identifier un chien ou une chaise dans le tableau de nombre d’une image quand l’apparence d’un chien ou d’une chaise et des objets qui les entourent peuvent varier infiniment ? [...]
Apprentissage profond et réseaux neuronaux Description Il existe plusieurs types de programmes informatiques que l'on pourrait qualifier « d'intelligence artificielle » (logique flou, algorithmes génétiques, apprentissage profond, etc.). Les plus médiatisées (et les plus prometteurs à l'heure actuelle) sont les IA basées sur les réseaux de neurones et l'apprentissage profond.
À la base des réseaux de neurones artificiels se trouve le perceptron qui est en fait une fonction qui, à partir de plusieurs arguments, renvoie des valeurs comprises entre $0$ et $1$. Ce type de réseau neuronal permet de classifier c'est-à-dire d'affirmer si un jeu de données appartient à un ensemble ou non (réponse donnée parfois avec une probabilité).
Considérons un réseau de neurone qui permet de dire si un chat est présent sur une image ou non. L'image numérique, qui est un ensemble de nombres, permet de créer une liste de nombres (à l'aide d'un algorithme) que l'on passe en paramètres de notre réseau de neurones. Celui-ci renvoie un nombre entre $0$ et $1$ qui correspond à la probabilité que l'image contienne un chat.
Mais comment le réseau de neurones procède-il pour donner une telle réponse ? En surtout comment les réseaux de neurones arrivent-ils à être performants dans ce type de tâches ?
Dans un premier temps la fonction créée pour donner la probabilité contenait des coefficients définis au hasard. Elle n'était donc pas performante. On l'exécute avec les données correspondant à une image de chat et on regarde sa réponse (qui a priori est fausse). On modifie alors par une méthode mathématique la valeur des coefficients de la fonction. On effectue cela des milliers, voir des millions de fois. Après toutes ces corrections (c'est-à-dire après un apprentissage) le réseau de neurones (notre fonction) est capable de détecter la présence d'un chat sur une photo, même si c'est la première fois que celle-ci est évaluée. Analyse Efficacité des IA actuelles Les programmes informatiques appelés « intelligences artificielles » sont loin de pouvoir tout faire comme un cerveau humain. Les IA sont généralement programmer pour effectuer une tâche et seulement celle-ci : reconnaissance de caractères dans une image, reconnaissance de forme dans une image, reconnaissance vocale, conduite de véhicules, faire marcher des robots bipèdes, proposer des publicités ciblées, diagnostic médical (à partir de radios, scanners, prise du son du coeur etc.), classification des courriels en spams ou non spams, prédiction d'évolution du cours de certaines actions en bourse, discuter avec des clients par une interface web (chatbot), etc.
Nous sommes encore loin des droids ou robots multitâches de la science-fiction, mais ce n'est que le début de l'utilisation des IA à grande échelle et nous ne pouvons réellement prédire l'évolution de ce domaine. Qui possède les IA les plus performantes ? Nous avons vu, pour les IA les plus utilisées (les réseaux de neurones), qu'il fallait passer par une étape d'apprentissage à l'aide d'un nombre de données souvent colossal. On parle de « deep learning », d'apprentissage profond. Ainsi, seules les entreprises possédant un nombre immense de données peuvent développer des IA performantes. C'est pour cela que les économistes parlent des données, du « big data » comme d'une ressource stratégique à la hauteur des ressources énergétiques.
Ce sont donc Amazon, Google, Facebook, Apple, IBM, Intel, Microsoft qui sont à l'heure actuelles les entreprises les plus à même de développer des IA qui auront bénéficié d'un apprentissage à l'aide de millions, voir de milliards de données. N'importe quel développeur peut programmer un réseau de neurones, mais ce n'est pas n'importe qui qui pourra le « nourrir » avec assez de données pour qu'il devienne efficace. Problèmes éthiques Avant même l'invention concrète des intelligences artificielles, l'être humain s'est interrogé sur la problématique des « robots ». L'écrivain de science-fiction Issac Asimov énonce, dans son cycle des robots (à partir de 1950) les « lois de la robotique ». Celles-ci sont toujours célèbres et font encore référence dans de nombreux débats sur l'IA.

Les lois de la robotique d'Asimov

La problèmatique de l'intelligence artificelle est donc pleinement éthique et ce même si les IA développées aujourd'hui ne sont pas encore implantées dans des robots humanoïdes. Il est cependant d'une importance capitale d'anticiper le futur, de s'interroger et de légiférer.
Un cas concret d'une telle application se rencontre avec les voitures autonomes, notamment avec le dilemme moral ci-dessous extrait du site Huffingtonpost :

Les voitures autonomes doivent-elles vous sacrifier pour sauver un enfant ou un chien?

Imaginez, vous êtes assis dans votre véhicule, quand tout à coup un enfant traverse. Seul moyen de le sauver : faire une embardée et écraser une personne en pleine forme. Mais vous n'êtes pas au volant : c'est une voiture autonome. Alors, que doit-elle faire ? Eh bien, la réponse n'est pas la même si c'est un Américain ou un Français qui y répond. A vrai dire, la France est un cas à part.
C'est l'une des nombreuses conclusions d'une gigantesque étude, publiée dans Nature ce mercredi 24 octobre 2018. Les chercheurs ont ainsi récolté le choix moral de plusieurs millions de personnes. Au global, 40 millions de scénarios ont été joués sur un site internet dédié, partout dans le monde.
Femme ou homme, enfant ou personne âgée, groupe ou individu seul, personne en surpoids ou en forme, riche ou pauvre, piéton ou passager, homme ou animal... À chaque fois, les internautes étaient appelés à se prononcer : quel choix doit faire une voiture autonome ? Au global, quelque 26 millions de possibilités.
Cela peut sembler théorique et étrange, mais cette réalité pourrait bien nous tomber dessus très rapidement. L'accident mortel d'un Uber autonome nous a donné un aperçu de ce futur possible (même si ici, l'erreur serait liée à la programmation et à un choix de la société). Les réponses apportées par les chercheurs font réfléchir sur le plan philosophique, culturel, et pourraient bien servir à façonner les lois de demain pour encadrer cette possible révolution.

Source

Cependant d'autres problèmes se posent notamment au niveau de la collecte des données qui permettent de nourrir les réseaux de neurones en phase d'apprentissage. Devons-nous laisser les GAFAM et autres grandes entreprises collecter et vendre autant de données et être les seuls à proposer des IA réellement utiles, sans contrôle éthique, ni accès aux codes sources utilisés ? D'autant plus qu'à chaque connexion à internet, de nombreux services enregistrent des données provenant de l'utilisateur : mot clés saisis pour les recherches, position gps, personnes connectées à proximité et utilisant certains services (Facebook qui propose de devenir ami avec un personne que l'on a croisé dans la journée), achats effectués, pages web visitées etc. Ces possibilités de sauvegarde des données utilisateurs sur les serveurs des GAFAM ou d'autres entreprises (comme Discord par exemple) sont effectives dès l'emploi des services ou l'installation des logiciels et ne peuvent parfois ne pas être empéchées par l'utilisateur.
Par ailleurs, de nombreux spécialistes estiment également que la généralisation des IA pourrait détruire ou modifier un certains nombres de métiers regroupant plusieurs millions d'employés et dont les tâches sont pour la plupart automatisables. Les secteurs les plus menacés seraient la banque, l'assurance, la comptabilité, le secrétariat, le libre service ou encore la manutension. On estime que les métiers de prises de décisions comme en radiologie, en marketing ou en droit pourraient voir un certains nombres de missions être affectées à des IA. Cette crainte a renforcé chez certains la volonté d'instaurer un revenu universel pour permettre aux IA de se développer et de réduire le risque de grande pauvreté causé par un chomage de masse. Cette idée est cependant loin de s'imposer même si quelques pays ou villes, comme la Finlande ou aux Pays-Bas, commencent à effectuer des tests sur sa mise en place. Voici un article de ZDNet à ce propos :

Tim Berners-Lee : l'IA pourrait amener au revenu universel de base (11 mai 2017)

"Et oui, j'ai inventé le Web", dit-il en guise de présentation face à une assistance conquise. S'exprimant au Dell EMC World, l'inventeur du Web (en 1989 au Cern) a mentionné dans une keynote ses craintes entourant l'IA, y compris l'idée que les algorithmes, l'intelligence de la machine et les robots poussent un nombre croissant de personnes dans une situation de perte d'emploi et de chômage.
"Je ne suis pas de ces gens qui pensent que l'ordinateur ne pourra jamais faire ce que les hommes font. Dans les années 80 on pensait que jamais l'ordinateur ne parviendrait à jouer correctement aux échecs" rappelle t-il. Une situation qui a bien changé, même dans l'opinion publique.
"Parlons des robots qui remplacent les emplois, des robots qui prennent mon travail. Si vous parlez à un journaliste, ou si vous parlez au maire d'une ville, la première chose que vous aurez sur le sujet de l'AI c'est 'Les robots vont prendre tous les emplois des gens'".
"Ce sera "un véhicule autonome va prendre mon travail", ou "un tracteur très intelligent qui ne nécessite pas de conducteur va prendre mon travail", ou "l'usine va être automatisée au point que très peu de gens sont nécessaires pour la faire marcher, et ce ne sera pas moi" a déclaré Tim Berners-Lee.

"Le cycle technologique est plus fort que jamais"

Une solution à cette situation à mettre en place un revenu de base universel, système où tous ont droit à une rémunération mensuelle faible, mais inconditionnelle. De quoi se nourrir et se loger, de quoi aussi avoir une activité pas forcément bien rémunérée, mais dont l'intérêt à une dimension sociale et/ou personnelle.
De nombreuses voix considèrent le revenu de base universel (qui se présente sous des formes diverses) comme un moyen possible de faire face aux pertes d'emplois entraînées par l'automatisation accrue de nombreux domaines professionnels. Si les suppressions d'emploi n'étaient plus liées à la question de la rémunération, elles ne seraient plus un problème sociétal expliquent les tenants de cette solution.
"Nous allons arriver au point que les machines occuperont un grand nombre d'emplois" assure Tim Berners-Lee. La veille, questionné sur l'impact de l'automatisation, Michael Dell avait donné son point de vue : "La technologie a toujours crée et détruit des emplois" disait-il. "Cela représente un défi encore plus important aujourd'hui parce que le cycle technologique est plus fort que jamais".

Remplacer les journalistes, les avocats ou encore les médecins

Tim Berners-Lee a également souligné le fait que la sophistication croissante de l'IA a des conséquences non seulement sur les emplois peu qualifiés, mais aussi ceux des cadres. "Il suffit de regarder ce qui se passe lorsque les machines deviennent plus intelligentes. Elles commencent à remplacer, par exemple, les journalistes, les avocats ou encore les médecins" dit Tim Berners-Lee. "Les journalistes arrêteront peut-être d'écrire, et feront du fact checking. Les IA écriront pour eux" professe t-il.
L'IA est un sujet compliqué avec beaucoup d'implications de grande envergure et qui doit être traité avec précaution assure également l'inventeur du Web. "Nous devons être responsables" assure t-il. "L'économie sera en croissance grâce à l'automatisation, mais beaucoup d'emplois seront menacés. Il faudrait que tout le monde puisse avoir de l'argent pour consommer alors que quelques uns seulement auront des emplois. Et nous devrons respecter les personnes qui feront autre chose, et les aider à se respecter elles même."

Source
Quelques outils mathématiques Une fois qu'un réseau de neurones a été entraîné il peut être utilisé. Il ne faut cependant pas lui faire confiance aveuglément et considérer que le jeux de données ayant participé à son apprentissage peut être biaisé ou trop peu important pour donner des réponses de confiance. Régression linéaire Nous avons étudié les régressions linéaires dans le chapitre 2. On peut considèrer que la fonction affine obtenue a subi un apprentissage par les données fournies, et que la réponse apportée (la fonction affine) est un lien de corrélation entre deux phénomènes. Un supermarché possède le tableau suivant représentant le chiffre d'affaire journalier du rayon crèmes glacées en fonction de la température maximale journalière.
Température maximale journalière (en °C) 5 8 12 15 17 21 24 29 33
Chiffre d'affaire (en k€) 0,31 0,45 0,92 1,34 1,56 2,33 3,17 4,25 5,21
  1. Expliquer pourquoi les données permettent d'envisager un ajustement affine.
  2. Donner, à l'aide de la calculatrice, l'ajustement affine reliant la température $x$ et le chiffre d'affaire $y$.
  3. À l'aide de cet ajustement donné le chiffre d'affaire prévu pour une température maximale de 10 °C, de 30 °C et de 35 °C.
  4. Le directeur du supermarché obtient des données complémentaires :
    Température maximale journalière (en °C) 0 2 20 30 34 35
    Chiffre d'affaire (en k€) 0,28 0,29 2,26 4,80 6,61 8,45
    1. Donner l'ajustement affine obtenu avec ces nouvelles données ajoutées aux précédentes.
    2. À l'aide de ce nouvel ajustement, donner le chiffre d'affaire prévu pour une température maximale de 10 °C, de 30 °C et de 35 °C. Comparer avec les estimations précédentes.
Matrice de confusion Lorsqu'une IA permet de classifier des données, on établit après son apprentissage une matrice de confusion, c'est-à-dire un tableau (appelé parfois tableau de contingence) dans lequel sont présentés des pourcentages en fonction de deux catégories : les éléments appartenant à la classe considérée, et les éléments bien classés.
Imaginons une IA qui cherche à détecter des chats dans une image. Parmis les images il existe deux possibilités : soit elles représentent un chat, soit non. Soit elles ont bien été classées, soit non.
Voici la matrice de confusion de notre IA :
Contient un chat Ne contient de chat
Un chat est détecté 40 % 5 %
Aucun chat n'est détecté 3 % 52 %
Ce tableau nous indique que parmi toutes les images, les vraies positives (celles qui contiennent un chat et dont le chat est détecté) représentent 40 %, et que les fausses positives (celles qui ne contiennent pas de chat et pour lesquelles un chat est détecté) représentent 5 %.
Il y a de plus 45 % d'images classées comme possédant un chat et donc si une image est dite comme « contenant un chat » la probabilité d'erreur est alors de :

$\dfrac{0,05}{0,45}$ $=$ $0,111$, soit une erreur dans $11,1$ % des cas.

De même lorsqu'une image est classée comme ne contenant pas un chat, la probabilité qu'il y ait en fait un chat (faux négatif) dedans est de :

$\dfrac{0,03}{0,55}$ $=$ $0,055$, soit une erreur dans $5,5$ % des cas.

Tout l'enjeu d'une IA de classification est de minimiser les faux positifs et faux négatifs. Cependant réduire l'un a souvent pour impact d'augmenter l'autre et des choix doivent alors être effectués. Une IA contrôlant une voiture autonome possède la matrice de confusion suivante concernant la détection d'obstacles.
Un obstacle est présent Aucun n'obstacle n'est présent
Un obstacle est détecté 3,2 % 1,1 %
Aucun obstacle n'est détecté 0,1 % 95,6 %
  1. Quelle est la probabilité qu'un obstacle ne soit pas détecté ?
  2. Quelle est la probabilité que la voiture détecte un obstacle alors qu'il n'y en a aucun ?
  3. On estime que la voiture s'arrète trop souvent alors qu'il n'y a pas d'obstacle. L'IA subi un nouvel apprentissage est la nouvelle matrice de confusion est :
    Un obstacle est présent Aucun n'obstacle n'est présent
    Un obstacle est détecté 1,6 % 0,8 %
    Aucun obstacle n'est détecté 0,1 % 97,5 %
    Le comportement de la voiture a-t-il été amélioré ?