Les enjeux de l’Intelligence Artificielle (IA)

 

Les enjeux de l’Intelligence  Artificielle (IA)

Le Conseil de développement vous conviait à une conférence sur l’intelligence artificielle

Artificial Intelligence, Robot, Ai, Ki
 

Dernièrement, une conférence sur l’intelligence artificielle était proposée par Philippe Domy, expert dans ce domaine, dans les locaux de Sète Agglopôle.
L’innovation étant au cœur des réflexions du Conseil de développement, la thématique « intelligence artificielle » s’impose dans toutes les gestes du quotidien.

En voici les principales lignes :

"L’actualité est riche en informations toujours plus spectaculaires sur les avancées et les progrès, réels ou supposés, de l’Intelligence Artificielle (IA), devenue en peu d’année le symbole de la transition numérique. Les tenants de l’intelligence artificielle annoncent chaque jour des progrès dont les limites sont repoussées toujours plus loin à mesure que les sciences de l’information avancent à rythme accéléré. A y regarder de plus près, les spécialistes des neurosciences cognitives, alliés aux « gourous » de l’IA, se font forts de franchir, sous peu, des obstacles qui nous paraissaient, il y a peu encore, insurmontables."


Une histoire qui accélère

Depuis que l’humanité existe, il a fallu 1700 générations pour que le langage apparaisse, 350 pour l’écriture, 35 pour l’imprimerie, 2 pour le numérique et une demi génération pour les réseaux sociaux. Dorénavant, il faut compter en milliards : il existe aujourd’hui plus d’un milliard de sites internet pour plus de cinq milliards d’internautes. Plus de deux milliards sont inscrits sur Facebook et Google investissent près de trois milliards chaque année dans la recherche en IA. 

Émergeant lors de la conférence du Dartmouth College en 1956 portée par John McCarthy et Marvin Lee Minsky, après qu’Alan Turing, le génial mathématicien anglais qui est venu à bout du codage secret «Enigma» des communications du régime nazie durant la seconde guerre mondiale et en a le premier émis la probabilité, le concept d’intelligence artificielle (IA) a fait l’objet de près de soixante années de recherches et réalisations techniques et scientifiques. Ces dernières ont connu un bond technologique spectaculaire dans les années 2010.

Dans l’intervalle, l’IA a connu différents coups d’arrêt, qui s’expliquent autant par les limites technologiques, des erreurs scientifiques et des revers budgétaires que par l’arrêt de plu- sieurs programmes de recherche, le pessimisme des médias et la défiance des investisseurs. Certains ont alors parlé d’«AI WINTER», pour caractériser ces périodes de stagnation. Mais la saison du dégel a désormais largement commencé. L’IA est partout, pour le meilleur et pour le pire, suscitant autant d’espoirs que de craintes.

Tous les secteurs sont concernés et les perspectives économiques et sociales considérables: l’IA pourrait contribuer à hauteur de 15 700 milliards $ à l’économie mondiale en 2030, selon les experts de Pricewaterhouse-Coopers, soit une hausse respective de 26%,14,5% et 9,9% des PIB de la Chine, des USA et de l’Europe du Nord.


1) Le cerveau et l’ordinateur : le match
L’intuition tirée des neurosciences selon laquelle on

pouvait, non pas imiter, mais s’inspirer du cerveau humain et de ses réseaux de neurones pour modéliser l’intelligence artificielle a fortement éclairé le chemin de la recherche scientifique. Les recherches avancent dans les neurosciences cognitives y compris l’approche numérique par similitude qui cherche à comprendre et modéliser l’information mentale du cerveau. Les cent milliards de neurones et les cent mille milliards de synapses de notre cerveau supportent et conditionnent notre intelligence humaine. Au point qu’il a pu être considéré que ce ne serait pas tant les neurones qui rendraient intelligent que leur plan de connexion. Nous disposons d’une mémoire considérable, orientée et structurée, à la différence d’une mémoire numérique qui est neutre. Ainsi, nos capacités d’adaptation et de plasticité nous permettent de nous auto-perfectionner dès le plus jeune âge. Des analogies et de grandes différences

• Tous les composants de base connaissent deux états: en électronique il existe des portes logiques ouvertes ou fermées (0/1) et, au plan humain, des neurones excités ou non (0/1).

• L’interconnexion des composants est analogue: les portes logiques reçoivent en entrée d’autres portes et les neurones reçoivent en entrée d’autres neurones.

• La sortie dépend des éléments de l’entrée: pour l’ordinateur le clavier, la caméra, les capteurs... Pour le cerveau, la vue, l’ouïe, le toucher, l’odorat, le goût... Mais quelles différences ?

• Complexité : on dénombre aujourd’hui, infiniment moins de portes électroniques que de neurones,

• Vitesse : l’ordinateur est incommensurablement plus rapide que le cerveau, 

• Compréhension  du fonctionnement: notre compréhension de l’ordinateur est totale puisque nous en sommes les créateurs, alors que nous commençons seulement, avec les neurosciences et les bio-technologies, à en appréhender une petite partie du fonctionnement...

• Mémoire et traitement: alors qu’ils sont intégrés dans le cerveau et fonctionnent en parallèle, dans l’ordinateur ils sont séparés et les traitements s’effectuent en séries,

• Évolution et amélioration: alors que le cerveau se développe et améliore ses performances de façon autonome, longtemps l’ordinateur s’est trouvé totalement dépendant de ses concepteurs et de ses utilisateurs. Ce n’est plus vrai avec l’avènement de l’apprentissage profond qui permet à l’ordinateur d’apprendre à apprendre tout seul!

Et il est déjà loin le temps de Deep Blue, l’ordinateur « intelligent » d’IBM, qui a bat- tu Kasparov aux échecs en 1997. Nous en sommes maintenant à AlphaGo, la ma- chine qui a détrôné le meilleur joueur de go en 2017, contre toute attente. Que s'est-il passé entre ces deux épisodes emblématiques ?

Le développement de la capacité des machines à apprendre par elles-mêmes.

Mais également la profondeur de cet apprentissage, grâce aux progrès considérables de leurs capacités de mémoire et de calcul. Et ces avancées de l’IA ne cessent de s'affirmer. Dans AlphaGo Zéro, la toute nouvelle version présentée par Google, le 18 octobre 2017, le seul fait de donner à la machine les règles du jeu lui suffit à s’entra îner contre elle- même. Si la précédente version avait dû examiner des centaines de milliers de parties pendant plusieurs mois, la nouvelle a atteint le niveau d’un humain en quelques heures.


C’est quoi l’intelligence artificielle?

Malgré les nombreux désaccords entre scientifiques, psychologues et philosophes sur une définition unique et commune, le concept d’intelligence humaine, peut se repérer dans la faculté de connaître, d’apprendre, de comprendre et de manifester une qualité de l’esprit qui s’adapte facilement aux situations et à l’environnement.

Ce peut être l’ensemble des capacités cérébrales ayant pour objet la connaissance rationnelle. Pour ce qui la concerne, l’IA peut se définir comme une forme d’intelligence, proche de celle de l’homme, dont sont capables les machines, lorsqu’elles exercent des fonctions cognitives telles que la compréhension, l’apprentissage ou la résolution de problèmes.

Le test de Turing, qui permet d’évaluer l’IA, consiste à mettre un humain en confrontation verbale, à l’aveugle, avec un ordinateur et un autre humain. Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé le test avec succès. Selon Woody Allen, de façon plus synthétique, directe et humoristique, «l’IA peut se définir comme le contraire de la bêtise naturelle!». 2L’IA s’est déjà glissée dans nos ordinateurs, nos voitures, nos téléphones, dans nos systèmes de transport et de santé, et nos armes de défense. Selon Cédric Villani, «l’IA sera partout comme l’électricité». Mais personne ne peut encore prédire à quelle vitesse elle se développera, à quelles tâches elle s’appliquera demain et à quel point elle va modifier nos habitudes.

❖ Dans la santé, l’IA pénètre le lien patient-médecin, la recherche, la prévention, le diagnostic, le traitement, et plus largement les segments de l’industrie médicale. Elle est déjà meilleure que le médecin pour détecter le caractère cancéreux d’un mélanome ou analyser une imagerie médicale des poumons. Le système Watson d’IBM pratique l’aide au diagnostic et à la prescription, notamment en fonction du séquençage ADN des tumeurs cancéreuses. D’autres IA s’installent comme «psy virtuels»…

❖ En matière de transport, la mobilité est un domaine de prédilection de l’IA. Certains systèmes repèrent les signes de fatigue sur le visage du conducteur. D’autres prennent le contrôle complet du véhicule, qu’il s’agisse d’une voiture particulière ou d’un semi-remorque. D’autres encore deviennent le «cerveau de la ville», modélisant la demande de transports public ou réglant les feux de circulation pour optimiser le flux de véhicules. Plus largement, les applications de l’IA fournissent, par leurs multiples connexions au big data, des aides précieuses en matière d’aménagement du territoire et de politiques d’aménagement rural et urbain.

❖ Dans le commerce, l’acheteur en ligne fournit des trésors de données avec lesquelles l’IA peut concocter une «expérience client» sur mesure et personnalisée. Car le comportement passé d’un consommateur permet de prédire ses besoins. L’e-commerce multiplie les «chatbots» et assistants virtuels personnalisés. Certains magasins physiques testent des systèmes de reconnaissance faciale, traquant le parcours et la satisfaction du client.

❖ Les assistants personnels ont déjà conquis des dizaines de millions de foyers américains et chinois. Ils débarquent en France reliés aux plateformes d’IA de leurs concepteurs. Ces assistants vocaux domestiques de type Amazon Echo, Google Home, et autres, ont vocation à devenir nos «valets digitaux» pour gérer notre domotique, nos sources d’informations, nos programmes de loisirs en tous genres, commander nos courses, nos repas et nos moyens de transports…

❖ Les secteurs industriels et des services, quant à eux, déploient de nombreuses solutions d’IA pour l’optimisation des matières premières, celle des stocks, la maintenance prédictive ou la logistique intelligente dans les usines de pointe. L’IA est l’un des ingrédients cruciaux de l’industrie dite «4.0», à base d’objets
connectés, de solutions numériques, d’informatique dans le cloud, de robotique et d’impression 3D.

❖ Dans le monde de la finance, l’avantage comparatif de l’IA est de se nourrir de millions de data pour en extraire du sens. La finance est un de ses terrains de jeu privilégiés. Des systèmes apprenants sont déjà à l’oeuvre dans les domaines de la relation client, de l’analyse du risque, des prévisions de marché, du conseil en placements et gestion d’actifs. Certains alertent sur les dangers de cette automatisation, qui en matière de trading a déjà aggravé les krachs...

❖ A l’oeuvre dans la cybersécurité des entreprises, l’IA est un « élément de notre souveraineté nationale » selon un ancien ministre de la défense. Elle peut prédire les risques de conflits armés, commander un essaim de drones, conduire au combat une flotte d’avions de chasse. Côté sécurité civile, l’IA permet aux forces de police de se déployer en prévention de manifestations…


En matière d’environnement, l’IA peut nous aider à réduire notre empreinte carbone et faciliter des modes de production durables. Les exemples s o n t n o m b r e u x , d e l’optimisation des systèmes de filtration d’eau à la régulation de la consommation énergétique des bâtiments intelligents, ou de la promotion d’une agriculture frugale en intrants à l’ établissement de circuits courts ou la protection de la biodiversité. En tous ses éléments, l’IA devient un outil déterminant de la l u t t e c o n t r e l e réchauffement climatique


Loin de la prémonition de la fin du capitalisme et de l’histoire annoncée imprudemment par quelques auteurs en mal d’inspiration et de compréhension, nous allons, au contraire, vers un super-capitalisme profondément disruptif (renvoi sur gros plan), vecteur de marchandisation forte, de dumping social, de déréglementation et de maximisation des profits et de la capitalisation.

C’est une toute nouvelle étape historique qui s’ouvre, enthousiasmante, bien que déroutante, voire menaçante si l’on n’y prend garde. L’enjeu actuel consiste à établir la meilleure alliance possible entre l’humain et la machine, à augmenter le potentiel du professionnel grâce à l’usage de la technologie. L’IA dispose de la capacité de travailler considérablement plus vite, sur des volumes de données incommensurablement supérieurs, mais sur des tâches bien précises, strictement délimitées; alors que le cerveau humain conserve la suprématie quand il s’agit de raisonner, d’analyser son environnement et de communiquer.


L’impact du développement de l’I.A. sur les activités, l’emploi, les métiers et les tâches demeure une question largement débattue. Les uns, optimistes, en attendent d’importants gains de productivité avec ses conséquences bénéfiques sur de nouveaux emplois, les autres annoncent la disparition de pans entiers d’activités et donc d’emplois. Ces débats rappellent ceux engendrés par la numérisation alors que les mutations annoncées seraient différentes.

L’I.A. permettrait d’exécuter des tâches complexes et répétitives : elle affecterait donc les métiers  en englobant les tâches selon des processus  prolongeant les mutations induites par la numérisation. Ces défis, en particulier ceux de la robotisation sont aujourd’hui connus comme les réponses pour tenter d‘y faire face,  telle la progression des compétences des salariés.


La rupture avec la numérisation réside dans les capacités de l’I.A. à proposer un renouvellement continuel des activités, des métiers, des tâches. Le véhicule autonome est pris comme exemple des  processus complexes à venir. D’un côté la disparition  de pans entiers des activités de l’industrie automobile (le chiffre de 47% des emplois automatisés du secteur est avancé dans certaines analyses),  d’un autre une révolution dans les mobilités.


Certaines hypothèses (Banque mondiale)  avancent  le chiffre de 57% des emplois menacés d’ici 2040. Cependant dès que l’on interroge plus en détail les perspectives  celles-ci deviennent imprécises. Les cols bleus seront-ils les plus affectés  ? Dans l’industrie la destruction pourrait-elle être créatrice en compensant la perte par de nouveaux emplois ? Face à la multiplicité des analyses actuelles, apparaît avec netteté  que les enseignements de la rupture numérique constituent encore le socle de la connaissance  : la polarisation du marché du travail, la concentration spatiale des activités, la captation de la rente par les grandes entreprises et le capital …

Très vite l’énoncé de probabilités l’emporte : « Le travail humain devient celui d’une domesticité au service des élites », ou, autre possibilité : « L’homme et la machine découvrent des complémentarités nouvelles ».
La place pour la démarche prospective demeure donc largement ouverte. Dans ce bouillonnement technologique en marche accélérée, nous devons nous proposer de réussir à organiser et à assurer la complémentarité entre l’homme et la machine, le premier conservant la capacité éthique de garder toujours le dernier mot…

L’intelligence artificielle est à la fois une chance à saisir et un défi sociétal à relever en pleine connaissance des technologies et des méthodes scientifiques mises en oeuvre. La question posée pour l’avenir est de savoir comment en assurer la maîtrise technologique et en garantir l’utilité sociale et la transparence, dans le respect des valeurs humanistes pour qu’elle bénéficie à tous. Autrement dit: comment aller vers une intelligence humaine augmentée plutôt que vers une intelligence artificielle se substituant à l’homme? 

Pour son acceptabilité sociale, la réflexion sur l’IA doit être menée de façon  rationnelle et sereine pour en mesurer toutes les opportunités, en même temps que  tous les risques, et se départir de ses représentations biaisées.