Définition
Selon le dictionnaire de référence Le Robert, l’intelligence artificielle ou IA est l’ensemble des théories, des techniques ou des systèmes développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage, etc.). L’IA se base sur la neurobiologie computationnelle, la logique mathématique et l’informatique, formant un corpus souvent intégré aux sciences cognitives.
Des acteurs conceptualisent l’IA en rapport avec l’intelligence humaine, d’autres avec un modèle d’intelligence idéal appelé rationalité. Certains lient ces deux modèles et d’autres pensent que le modèle humain est le but minimum à atteindre.
Histoire
Dans les années 1940, Norbert Wiener crée une science du fonctionnement de l’esprit humain : la cybernétique. Échouant à modéliser l’esprit, les scientifiques suivent la piste des neurones et ouvrent la voie à deux approches.
Warren McCulloch et Walter Pitts sont à l’origine la discipline qui modélise ce qu’ils appellent le neurone formel : le connexionnisme.
Donald Hebb, quant à lui, développe le cognitivismeen 1949 en dotant ces neurones formels d’une capacité d’apprentissage. Selon lui, la pensée serait une manipulation de symboles indépendante d’un support matériel.
En 1950, Alan Turing publie Machines de calcul et intelligence et avec lui le célèbre test de Turing qui pose la question de la faculté des machines à penser.
En 1951, Marvin Minsky crée le SNARC (Stochastic Neural, Analog Reinforcement Calculator) : un simulateur de réseau neuronal.
En 1956, John McCarthy utilise pour la première fois le terme intelligence artificielle lors d’un séminaire de chercheurs américains à Dartmouth parmi lesquels figurait aussi Marvin Minsky.
En 1959, les deux hommes fondent le laboratoire d’intelligence artificielle du Massachusetts Institute of Technology.
Mais avec les échecs successifs dans la réalisation des promesses formulées à l’aube de l’IA (la traduction automatique et la victoire aux échecs d’un ordinateur), celle-ci traverse ce que les historiens appellent l’hiver de l’IA.
Dans les années 1980 les États-Unis d’Amérique réinvestissent dans l’IA et en 1997 Deep Blue bat le champion du monde d’échecs Gary Kasparov.
Depuis l’an 2000 et l’explosion d’internet, l’IA connaît une nouvelle période de développement, portée par les réseaux de neurones convolutifs, les processeurs graphiques et la mise à disposition de bases de données gigantesques permettant un meilleur apprentissage.
Avec l’apparition des GAFAM et principalement de Google, l’AI intègre de nouveaux champs d’action : les moteurs de recherche et le deep learning, qui permet à une machine d’apprendre de ses erreurs.
Et oui, contrairement à ce que l’on pense l’IA à une vraie histoire de nombreux humains ont contribué pour faire évoluer le système au fur et à mesure.
Les chiffres
- 2016 : Alpha Go Zero est passé du stade de débutant à celui d’expert imbattable dans le jeu de Go en 3 jours.
- 2017 : 2 robots Facebook créent leur propre langage et communiquent.
- 2018 : Google dévoile Duplex qui peut passer des appels et prendre des rendez-vous.
- Selon IDC, le marché de l’IA représente 156,5 milliards de dollars en 2020 avec une croissance de 12,3 % par rapport à 2019.
- En 2018, 950 start-up dont 499 aux USA travaillent dans l’IA.
- Au premier trimestre 2018, 5,42 milliards de dollars sont investis dans le secteur.
- 29 % des développeurs d’entreprises Fortune 500 (les 500 premières entreprises américaines en termes de CA) ont travaillé sur l’IA ces dernières années.
- L’IA pourrait faire disparaître 6 millions d’emplois dans la finance d’ici 2030 selon un chercheur de l’université américaine Cornell.
- Selon le McKinsley Global Institute, l’IA sera adoptée par 70 % des entreprises d’ici 2030 et pourra générer une activité économique de 13 000 milliards de dollars.
- 9 % des entreprises américaines auraient adopté l’IA selon l’US Census Bureau.
- D’ici 2022, 80 % des entreprises pourraient avoir recours à l’IA selon Microsoft.
- Selon Teradata 47 % des entreprises françaises pensent que les intelligences humaines et artificielles coexisteront en 2030.
- Selon un sondage Odoxa de 2017, 47 % des Français ont peur de l’IA.
- 5 300 chercheurs travaillent sur l’IA en France en 2020.
- 21 millions d’emplois pourraient être créés en 2030 dans le monde dans le secteur de l’IA selon une étude Malakoff Mérédic.
On peut voir que la technologie évolue de plus en plus vite grâce à la data de plus en plus accessible. Il en va s’en dire que le numérique et internet en général va être de plus en plus impacté par cette technologie à l’avenir.
Les avantages de l’IA
Simplifier le quotidien
L’IA est déjà omniprésente dans les agendas électroniques, les assistants personnels ou bien la domotique et les automobiles autonomes, qui sont en plein essor. Leur utilisation permet de déléguer à une IA des tâches répétitives et contraignantes qui laissent du temps et de la disponibilité pour d’autres taches.
Favoriser la croissance des industries
La finance, la santé, les transports, l’énergie et l’agroalimentaire sont des secteurs où l’IA est devenue essentielle. De l’amélioration du rendement aux opérations assistées, en passant par la gestion des ressources, l’identification des préférences client ou les véhicules autonomes, l’IA est devenue la pierre angulaire d’une industrie en pleine mutation.
Rendre les données accessibles grâce au cloud
Ce nouveau mode d’hébergement permet de traiter des données en temps réel et sa puissance de stockage permet aux IA d’analyser en temps réel les données grâce au machine learning.
On peut voir que l’IA a un véritable avenir dans une multitude de domaines. La seule différenciation, entre des entreprises concurrentes, sera leur capacité à adapter l’IA à leurs systèmes de production. À l’heure actuelle, l’intelligence artificielle est encore très bête. Par exemple, on peut voir que la reconnaissance faciale a du mal quand on porte un masque. Une vraie IA aurait, au bout de quelques semaines, appris suffisamment pour mieux identifier son propriétaire.
Les inconvénients de l’IA
L’IA pourrait asservir l’Homme : c’est ce que pense un ingénieur et futurologue américain nommé Ray Kurtzweil. Celui-ci prévoit même une prise de pouvoir par l’IA en 2029. De leur côté, Elon Musk et Bill Gates anticipent cette menace et axent leur recherche sur le cerveau connecté. Stephen Hawking, le célèbre astrophysicien spécialiste des trous noirs, craint de son côté la fin de la race humaine.
L’IA met en danger les données personnelles. La vie privée est menacée, en particulier par les objets connectés qui collectent des informations concernant nos habitudes et nos comportements.
Le développement de l’IA risque d’engendrer la disparition de millions d’emplois à travers le monde. Notre modèle est soumis au mécanisme de la destruction créatrice de Schumpeter qui veut que la perte d’un emploi soit compensée par la création d’un nouveau dans un autre secteur. Mais l’IA risque de briser ce modèle et, selon Elon Musk, notre modèle de répartition des richesses devrait être transformé, et intégrer un revenu universel.
Il y a de forte chances que l’IA et les robots remplacent les humains. Si ces robots remplacent l’humanité au travail. Il faudra revoir l’ensemble de notre société que ça soit philosophiquement ou économiquement.
Le test de Turing
Alan Turing publie en 1950 l’article Computing machinery and intelligencece dans lequel il conceptualise ce qu’il nomme le jeu de l’imitation, plus connu sous le nom de test de Turing. Il s’agit d’un échange textuel à 3 dans lequel une machine et un humain répondent à une série de questions ouvertes posées par un examinateur. Si l’examinateur ne peut pas déterminer lequel ses deux interlocuteurs est un ordinateur, ce dernier est considéré comme intelligent. En 2020, aucune machine n’a pour le moment passé ce test en raison de l’impossibilité des programmes de répondre à une question absurde. La machine trouvera toujours une réponse sérieuse au lieu d’invalider la question. Cependant les chercheurs restent optimistes étant donné la vitesse à laquelle l’IA progresse.
Intelligence faible vs intelligence forte
L’IA est divisée en deux domaines : celui de l’intelligence faible et celui de l’intelligence forte. L’intelligence faible est celle qui est couramment utilisée dans les technologies actuelles. L’IA faible est une simulation d’intelligence sans conscience, mais capable de résoudre des problèmes grâce à des algorithmes. L’intelligence forte est douée de conscience, et a la possibilité d’éprouver des sentiments. Le programme Copycat de Douglas Hoftstadter, qui raisonne par analogie, promet de belles avancées dans ce sens, mais le chemin est encore long et la science n’a pas encore démontré que la conscience pouvait se développer hors du vivant.
Comment fonctionne l’IA ?
L’IA fonctionne à partir d’algorithmes qui effectuent des calculs à partir d’une base de données. Elle identifie un problème, analyse les variables possibles en fonction de l’expérience, prédit le résultat en fonction de statistiques et fournit un résultat.
L’impact de l’IA sur la société
De nos jours, l’IA faible apporte des bénéfices à la société en améliorant considérablement l’économie, la santé ou l’ingénierie. Son rôle reste encore à définir dans la régulation de l’armement autonome. Mais l’avènement de l’intelligence artificielle forte pourrait bien être l’aube d’une nouvelle civilisation. Dans celle-ci, la course à l’armement intelligent pourrait créer des dommages massifs. Les risques que supportent nos sociétés sont anticipés par les acteurs du milieu, et un collectif a signé un programme intitulé les 23 principes d’Asilomar en hommage aux lois de la robotique de l’écrivain Isaac Asimov. 800 scientifiques et 1 200 personnalités issues de l’industrie ont signé cette charte qui entend protéger l’humanité d’entités intelligentes à venir.
Personnalités à connaître en IA
- Alan Turing : mathématicien et cryptologue britannique, il est le créateur du test de Turing ;
- Allen Newell : chercheur américain en informatique et psychologie cognitive (prix Turing 1975) ;
- Herbert Simon : économiste et sociologue américain (prix Turing 1975) ;
- Edward Feigenbaum : informaticien américain (prix Turing 1994) ;
- Raj Reddy : chercheur en informatique indien (prix Turing 1994) ;
- Judea Pearl : informaticien et philosophe américain qui a travaillé sur les réseaux bayésiens, l’analyse probabiliste et la notion de causalité. (prix Turing 2011) ;
- Marvin Minsky : chercheur américain en sciences cognitives, il a fondé avec John McCarthy le groupe d’intelligence artificielle du MIT (prix Turing 1969) ;
- John McCarthy : mathématicien américain cofondateur du groupe d’intelligence artificielle du MIT et inventeur du langage Lisp (prix Turing 1971) ;
- Andrew Ng : informaticien américain travaillant sur l’apprentissage automatique et la robotique. Il est directeur scientifique chez Baidu, le moteur de recherche chinois ;
- Yann Le Cun : chercheur français en IA et vision artificielle. Il est considéré comme l’un des pères du deep learning (prix Turing 2019) ;
- Geoffrey Hinton : chercheur canadien spécialiste des réseaux de neurones artificiels. Il rejoint l’équipe de Google brain en 2013, et présente en 2017 les réseaux de neurones à capsule qui représentent un tournant dans le deep learning ;
- Yoshua Bengio chercheur québécois pionnier de l’apprentissage profond (prix Turing 2019) ;
- Demis Hassabis : neuroscientifique, développeur et concepteur de jeux vidéo britannique. Il est aussi reconnu en tant que joueur de haut niveau.
Exemples d’IA
Les applications de l’intelligence artificielle sont nombreux dans le numérique. Il est indéniable que cette nouvelle façon de travailler dans le web, va révolution le travail de demain. Mais qu’en est-il aujourd’hui ? Voici quelques exemples.
La relation client
Les grands groupent investissent dans l’IA : elle permet de répondre aux questions de premier niveau des clients qui peuvent appeler des réponses automatisées comme le fait de connaître les horaires d’ouverture d’un magasin.
Les réseaux sociaux
Les modérateurs sont à 90 % des IA. Facebook, YouTube, Twitter et Instagram : ils sont tous amenés à automatiser ces taches en raison de leur trafic gigantesque.
Le secteur de la santé
L’IA est présente à plusieurs niveaux. Elle permet par exemple de déceler des maladies à l’instar de Verily qui recherche les signes annonçant le diabète. Le logiciel d’Amazon Watson utilise l’informatique cognitive pour récupérer et traiter les données en cancérologie. OPTIMA est un projet qui assiste les chirurgiens en créant un cœur artificiel qui permet une opération virtuelle en amont de la véritable opération. SAM (Search Algorithm for Ligands) a été capable de créer un vaccin plus efficace que les précédents contre la grippe à partir de l’IA. Enfin, la startup Insilico Medicine a créé en 46 jours un médicament alors que ce processus peut prendre jusqu’à 10 ans.
Les chatbots commechat GPT
Les différents courants de pensée de l’IA
Depuis les années 1950, deux courants de pensée font évoluer l’IA : il s’agit du connexionnisme et du cognitivisme.
Le cognitivisme postule que la pensée est une forme de traitement de l’information. L’idée est de manipuler des symboles et des représentations avec des règles de transformation et de perception. Un algorithme qui peut manipuler des symboles permet de créer un système cognitif, si un problème posé peut être résolu grâce aux règles définies et au traitement des données.
Le connexionnisme est utilisé en neurosciences, en psychologie et en sciences cognitives. Le postulat de base est que raisonnement et comportement sont les conséquences de calculs produits par des unités de calcul interconnectés : des réseaux de neurones. Couplé aux modèles mathématiques de Monte-Carlo (une approche statistique du risque), le connexionnisme a permis l’élaboration d’AlphaGo.
Parallèlement à ces courants de pensée, l’AI est structurée par 3 approches : biologique, symbolique et statistique. Ces approches ont engendré les algorithmes de type réseau neuronal (capables de classifier et prévoir), l’idée de traiter la signification du message (et non le message lui-même), et la classification de données en fonction de la distance par rapport au centre (c’est-à-dire l’étude des rapports entre celles-ci).
Les métiers et l’IA
- Data scientist : il a en charge l’analyse des données de masse. À la fois statisticien et informaticien, il conçoit des programmes en croisant plusieurs sources. Ce métier est le premier pourvoyeur de postes dans le domaine de l’intelligence artificielle.
- Data analyst / miner : proche de l’emploi du data scientist, le data analyst se limite à un type de données.
- Architect cloud : le data architect décide des meilleures solutions de stockage. Ingénieur de formation, son salaire est parmi les plus hauts.
- Développeur big data : ingénieur, le développeur big data est formé en mathématiques et en informatique.
- Data manager : c’est le directeur commercial de l’IA. Formé en statistiques, en gestion de données et en marketing, il a une fonction de stratège.
Formations en IA
Microsoft et Simplon proposent désormais une formation, Vivadata et blent sont des bootcamps en plein essor et l’on trouve désormais de nombreuses formations en ligne comme Corsea qui propose des formations en machine learning et en deep learning.
En France, Emmanuel Macron s’est engagé à promouvoir le secteur de l’IA. Cependant, les écoles d’ingénieur sont déjà la voie royale, les écoles de commerce se sont adaptées à ce secteur en expansion et les universités proposent une vingtaine de masters dans le domaine. Cependant pour l’instant peu d’écoles permettent de se fromer à l’IA.
Ainsi, je vous recommande les cours suivant :
- Intelligence Artificielle de A à Z, sur Udemy.
- Objectif IA : Initiez-vous à l’intelligence artificielle, sur OpenClassroom
Il existe peu de formations avec une vraie qualité, mais en ces temps de Covid, je vous invite fortement à vous former à une des technologies de demain. Ces dernières risquent de changer votre façon de voir le monde.
Les meilleures ressources sur l’IA
Films
- 2001 : l’odyssée de l’espace, un film de Stanley Kubricksorti en 1968 ;
- Blade Runner, un film de Ridley Scott sorti en 1982 ;
- Matrix, un film de Lilly et Lana Wachowskisorti en 1999 ;
- Wall-E, un film d’animation d’Andrew Stanton sorti en 2008 ;
- A.I.Intelligence artificielle, un film de Steven Spielberg sorti en 2001 ;
- Terminator, un film de James Cameron sorti en 1984 ;
- Her, un film de Spike Jonze sorti en 2013.
Livres
- Erewhon : ou De l’autre côté des montagnes, un roman de Samuel Butlerpublié en 1872 ;
- I, Robot, un roman d’Isaac Asimov, publié en 1950 ;
- Neuromancien, un roman de William Gibson publié en 1984 ;
- L’âge de diamant, un roman de Neal Stephenson publié en 1995.
Documentaires
- iHuman – L’intelligence artificielle et nous, un documentaire de Tonje Hessen Scheisorti en 2019 ;
- 60 jours d’intelligence artificielle, une série documentaire de Samuel St-Pierresortie en 2018 ;
- AlphaGo, un documentaire de Greg Kohssorti en 2017 ;
- Helena. L’intelligence artificiellede mes rêves, un documentaire de Christiane Miethgesorti en 2019.