Parcours

Fermer Parcours lévinassien

Fermer Parcours axiologique

Fermer Parcours cartésien

Fermer Parcours hellénique

Fermer Parcours ricordien

Fermer Parcours spinoziste

Fermer Parcours habermassien

Fermer Parcours deleuzien

Fermer Parcours bergsonien

Fermer Parcours augustinien

Fermer Parcours braguien

Fermer Parcours boutangien

Fermer Glossématique

Fermer Synthèses

Fermer Ouvrages publiés

Fermer Suivi des progrès aux USA

Fermer Parcours psychophysique

Fermer L'art et la science

Fermer Parcours nietzschéen

Fermer Philosophies médiévales

Autres perspectives

Fermer Archéologie

Fermer Economie

Fermer Sciences politiques

Fermer Sociologie

Fermer Poésie

Fermer Théologie 1

Fermer Théologie 2

Fermer Théologie 3

Fermer Psychanalyse générale

Fermer Points d’histoire revisités

Fermer Edification morale par les fables

Fermer Histoire

Fermer La numérisation du monde

Fermer Phénoménologie

Fermer Philosophie de l'attachement

Fermer Philosophie et science

Fermer Sciences Cognitives

Mises à jour du site

07/05/2018 ajout :
Parcours braguien
- Religion et raison

08/04/2018 ajout :
La numérisation du monde
- L'intelligence artificielle (2)

17/03/2018 ajout:
Philosophie et science
- Esquisse d'un retour de l'esprit dans les sciences
Parcours habermassien
- Les relations entre l'Allemagne et la France

11/03/2018 ajout:
Parcours spinoziste
- L'ethique de Spinoza est une oeuvre systémique

04/03/2018 nouvelle perspective :
Sciences Cognitives
- Le cerveau social et ses implications

04/02/2018 ajout :
La numérisation du monde
- Le numérique au sein de l'enseignement supérieur
- Le numérique et ses fortes potentialités

13/01/2018 ajout :
Economie
- L'éconnomie collaborative
Parcours braguien
- La métaphysique comme objet de liberté

17/12/2017 ajout :
La numérisation du monde
- L'intelligence artificielle

04/11/2017 ajout :
Parcours ricordien :
- La pensée de Paul Ricoeur chez E. Macron

04/11/2017 ajout :
Economie
- Marchand, non marchand
Sociologie
- Une sociologie délivrée de l'héritage bourdieusien

Liens Wikipédia
Visites

   visiteurs

   visiteurs en ligne

La numérisation du monde - L'intelligence artificielle

Lire cet article au format PDF

 

L’INTELLIGENCE ARTIFICIELLE

 

I / ALAN TURING ET LA MACHINE ÉNIGMA

Considéré comme "l 'Einstein des mathématiques", le britannique ALAN TURING né en1912 est mort en 1954 à l'âge de 41 ans, empoisonné au cyanure. Suicide?
Durant sa courte existence, Alan Turing sera parvenu à poser les fondations de l’informatique moderne et à définir les critères de l'intelligence artificielle en vigueur : le fameux "test de Turing" qui se fonde sur la faculté d'une machine à tenir une conversation.

Turing, un homme décisif pour la victoire de 1945

En 1939, de retour de Princeton, Turing est convoqué à Bletchley Park[1] avec un autre mathématicien et des personnes d'horizons divers. Le but; décoder les messages radio des Allemands. l'équipe dispose d'une machine Énigma venue de Pologne sans en connaitre le mode d'emploi. Les Allemands considèrent leur machine Énigma comme la machine de cryptage absolue.
Turing a l'idée d'une machine pour casser le codage: la B.O.M.B.E. Elle sera fabriquée en série et va décoder des milliers de messages. C'est la première fois que la machine empiète sur l'intelligence humaine; le début de l'intelligence artificielle.
Les combats aériens sont désormais en faveur des Britanniques. Les Allemands se reportent sur la guerre sous-marine. Établissement de la base des sous-marins à Lorient. L'amiral Dönitz met en place la tactique de la meute: un sous-marin en patrouille qui détecte un convoi américain en informe le QG, lequel  focalise tous les sous-marins sur le convoi. C'est 20 navires qui coulent d'un coup !
La machine Énigma des U-boat, baptisée Dolphin, est plus complexe que la machine terrestre. La Hut 8 à Bletchley est dédiée à la machine Dolphin, à sa tête Alan Turing. Après des semaines de recherches, Turing a la révélation en une nuit : utiliser les statistiques, traquer les "résonances" (coïncidences) et pondérer les possibilités. Sa méthode est nommée Banburisme.
L'équipe reçoit un coup de pouce du fait de la saisie d'une machine Énigma, avec ses codes pour quelques semaines, dans un sous-marin en difficulté, abandonné par les Allemands et investi par les Britanniques. Tous les messages allemands sont décodés et les convois protégés des attaques des U-Boat.
Turing et trois collègues plaident en faveur de moyens auprès de Churchill qui les leur accorde. Bletchley passe de l'artisanat à une véritable industrie.
Fin 1941, les États-Unis entrent en guerre. Les Allemands inventent une nouvelle machine de cryptage (Tunny) basée sur le code numérique des télescripteurs et non plus le morse. Turing en réalise une réplique assez rapidement, et finit par décoder les messages. Cette fois, ce sont les Russes qui vont profiter des informations interceptées.  Ils repoussent une attaque fomentée par Hitler et se dirigent vers Berlin.
Le décodage des messages reste laborieux. Turing cherche à le systématiser avec une machine.  Tommy Flowers (1905-1998) est spécialiste des tubes à vide et se propose de réaliser cette machine qui comporterait de l'ordre de 2000 lampes. Sur un critère de fiabilité, son projet est refusé. Têtu, il se lance malgré tout dans le projet. Il développe Colossus, le premier ordinateur électronique programmable du monde, et va aider à décrypter les messages allemands. Le rêve de Turing est réalisé.

 
Principe du codage Énigma

La clé de codage est changée tous les jours selon des instructions communiquées à tous les utilisateurs.

INTELLIGENCE_FIG1.jpg

  Machine Énigma

Une lettre à coder est transformée par trois rotors puis une boite de câblage pour ressortir sous une forme cryptée. à travers ces arcanes la lettre A, par exemple, devient K.
Choix de trois rotors parmi cinq qui comporte 26 lettres. Ce qui offre : (5 x 4 x 3) x (263) = 1 054 560 possibilités.
Boite de câblage transformant 10 paires de lettres et laissant les six restantes inchangées. Ce qui offre :
26! / (6! x 10! x 210) = 150 738 274 937 250 possibilités.
La machine Énigma transforme une lettre en une autre selon : 158 962 555 217 826 360 000 possibilités.
Selon une capacité supérieure à celle du moment, prenons une machine capable de tester un million de code à la seconde.
Il faudrait : 159 1018 / (106 x 3600 x 24 x 365,25) = 5 000 000années.
Inconcevable ! Turing et son équipe vont réduire ce temps à une petite demi-heure en exploitant plusieurs trouvailles dont les suivantes:
Les Allemands émettent un bulletin météo (Wetterbericht) tous les matins lequel se termine par "Heil Hitler". Les analystes vont chercher en priorité de tels mots, sans oublier les formules de politesse ou les grades militaires.
Le codage des lettres possède une propriété remarquable: une lettre n'est jamais codée par elle-même. Les analystes vont chercher les cas où aucunes lettres ne sont communes entre les mots connus et le texte crypté.
Par ailleurs, un test mené jusqu'à découvrir une incompatibilité invalide du même coup toutes les solutions intermédiaires.

 

La "bombe" de Turing pour décrypter Énigma
(celle-ci fut construite en 1939 par l'US Navy avec l'aide de Turing)

INTELLIGENCE_FIG2.jpg

En 1944, « Colossus » décode tous les messages allemands et va servir à tester la réception d'une grande manœuvre d'intoxication. Il faut faire  croire aux Allemands que le débarquement aura lieu à Calais (opération Fortitude).

INTELLIGENCE_FIG3.jpg

 

Biographie chronologique d'Alan Turing

1912            Naissance  à  Londres
1926            École de Sherborne.
1931            King's College (Université de Cambridge).
1932            Mécanique quantique, probabilité, logique…
1933            Il connait les travaux de Bertrand Russel sur les fondements de ses mathématiques.
1936            Machine de Turing, calculabilité, calculateur universel. 
                     Gödel ne conclut pas sur la décidabilité en mathématiques. Turing va s'y attaquer.
1936            Université de Princeton. Ph.D en logique, algèbre, théorie des nombres.
1936            Publie : On computable numbers, with an application to the Entscheidungsproblem,
                      texte qui se rapporte à la machine de Turing.
1938            Retour à Cambridge
                     Traite de la machine Énigma.
1939           Conçoit la "B.O.M.B.E", machine de décryptage d'Énigma avec le mathématicien
                     Gordon Welchman.
1942           Décrypte les messages d'Énigma marine installée à bord des sous-marins Allemands.
1943           Chef consultant en cryptologie auprès des Américains.
1945           National Physical Laboratory à Londres.
1946           Concepteur précurseur en calculateurs et en programmation.
                     Turing conçoit les plans du premier ordinateur moderne,
                     mais n'a pas les moyens de le réaliser.
1947           Programmation, réseaux de neurones, intelligence artificielle.
1948           Université de Manchester avec premières applications mathématiques su rordinateurs.
                    Il anticipe de plusieurs décennies l'intelligence artificielle et les réseaux de neurones.
1950           Test de Turing caractérisant l'intelligence d'une machine.
                     Il est le premier à écrire des programmes informatiques, dont le programme d'un
                     jeu d'échecs dont ses collègues se moqueront. Une passion inutile, disaient-ils.
1951           Fellow of the Royal Society (FRS). Théorie non-linéaire de la vie biologique
1952           Arrêté pour homosexualité. Perd ses habilitations en matière de sécurité.
1953-54      Ses travaux sur la biologie et la physique restés inachevés.
1954           Décès par empoisonnement au cyanure: meurtre ou empoisonnement?
2013           Gracié par la reine Élisabeth.

 

Sportif

INTELLIGENCE_FIG4.jpgMarathon en 2 h 46 min 3 s.

Seulement 11 s de plus que le champion olympique de l’époque (1948).

.

 


 

II /  « INTELLIGENCE ARTIFICIELLE, DU FANTASME À LA RÉALITÉ » (Éric Sadin)

Publié le 23/07/2017 par Enguérand Renault, rédacteur en chef médias et technologies au Figaro

Mise au jour de la « Deep learning »

Il faut attendre 2012 pour qu'une étincelle jaillisse dans la nuit. Grâce à la disponibilité conjuguée de nouveaux processeurs graphiques (GPU) et de vastes bases de données, les travaux sur les réseaux de neurones des chercheurs Yann LECUN et Geoffrey HINTON prennent enfin corps. Ces réseaux imitent le processus des synapses dans le cerveau. Le Deep Learning (« apprentissage profond ») voit le jour. Il est déjà très répandu et les géants d'Internet Facebook, Google, IBM, Amazon ou Tencent investissent massivement. Facebok a recruté Yann LECUN pour diriger son laboratoire, et Geoffrey HINTON dirige celui de Google. La machine est capable d'apprendre par elle-même. Si on l'entraîne à traduire l'anglais en russe et le russe en japonais, elle traduira d'elle-même l'anglais en japonais. Après avoir visionné des millions d'images de bouteilles, elle en reconnaît une sur une photo. Mais si cette dernière est posée en déséquilibre sur une table, elle ne pourra pas anticiper sa chute. Ce qui paraît pourtant évident à n'importe qui.
Un enfant comprend vite que lorsque sa maman se cache derrière un rideau, elle existe toujours. La machine non. « Il lui manque encore le sens commun », assure Yann LECUN.

Aujourd'hui, deux écoles s'affrontent :

  • Les transhumanistes pensent qu'en multipliant la puissance de calcul et la masse des données, le Deep Learning égalera l'intelligence humaine.
  • D'autres commencent à penser que cela mènera à une impasse. Il va falloir explorer de nombreuses voies pour que la machine saisisse les émotions, la sémantique ou le contexte qu'un homme utilise pour interpréter le « non dit » ou le « non montré ».

Dans un futur proche, la machine pourra remplir de nombreuses tâches complexes et calculer la probabilité d'événements. Mais elle ne pourra toujours pas imiter le dialogue plein de tendresse entre un enfant et sa maman, saisir les ressorts humains comme l'a fait Shakespeare ou affirmer que « Dieu est mort ».
En attendant, les chercheurs plaident pour donner une éthique à ces machines. Car déjà elles utilisent des chemins détournés pour résoudre une tâche. Il faut absolument garder le contrôle sur tout le processus de décision pour éviter le phénomène des « boîtes noires ». Enfin, les réseaux neuronaux sont aujourd'hui entraînés par des chercheurs majoritairement occidentaux, adultes et très éduqués. Ce que les machines apprennent dépend de ce qu'on leur enseigne. On est loin d'une intelligence universelle.

 Extrait de « La Siliconisation du monde » selon Éric SADIN

 

III / L'INTELLIGENCE ARTIFICIELLE SE TROUVE AUJOURD’HUI DOTÉE D’UNE TRIPLE FACULTÉ 

  • D’'abord, celle de pouvoir interpréter des situations de tous ordres. Disposition inaugurée au tournant des années 1990 par les systèmes experts, capables d'évaluer de façon automatisée des états de fait au sein d’un corpus de données. Dispositif utilisé par exemple à l’occasion de l'établissement d'un diagnostic portant sur l'état d’un réacteur dans le cadre de la maintenance aéronautique.

Au cours de la décennie suivante s'opéra un saut qualitatif par le data mining, qui nomme la capacité acquise par des programmes à saisir, à de hautes vitesses, des corrélations entre des séries de faits faisant apparaître des phénomènes qui demeuraient jusque-là non immédiatement sensibles à la perception humaine. Par exemple, l'état de solvabilité d’une personne voulant souscrire un crédit, projeté sur des années et établi en fonction d’une multitude de critères.

  • Ensuite, l’intelligence artificielle détient un pouvoir de suggestion. Telle la formulation de « solutions » conseillant, par exemple, à une entreprise de passer commande à tel sous-traitant plutôt qu’à tel autre, en fonction de multiples paramètres traités de façon automatisée, ou la transmission de notifications à un smartphone, signalant, via la géolocalisation, des offres situées alentour et supposées correspondre au profil de l’utilisateur.
  • Enfin, elle est capable d’une autonomie décisionnelle. Soit la capacité d’engager des actions sans validation humaine préalable, à l’instar des robots numériques qui, dans le trading à haute fréquence, procèdent d’eux-mêmes à l’achat ou à la vente de titres.

Autant de dispositions qui ne cessent de se perfectionner, grâce notamment à la faculté autoapprenante des systèmes : la machine learning. Récente aptitude qui conçoit le langage de programmation, non plus comme déterminant de part en part le « comportement » d’un système, mais comme un premier socle à partir duquel son niveau de compétence va régulièrement s’améliorer au long de ses « expériences ».
Dans le champ de l’intelligence artificielle, ce sont principalement les puissantes entreprises de la Silicon Valley qui se situent aux avant-postes des recherches et des développements, disposant des budgets, des équipes et des infrastructures. Particulièrement Alphabet qui, au sein de ses laboratoires Google Brain et Google DeepMind, travaille, parmi bien d’autres chantiers, sur l’interprétation automatisée du langage naturel.
Ou IBM qui, avec WATSON, conçoit des architectures d’expertise robotisée s’appliquant à divers domaines.
Ou encore Facebook et Microsoft qui élaborent des programmes capables de décrire des images ou de mener des conversations avec les utilisateurs via les chatbots (agents conversationnels), sortes de logiciels qui entendent détenir la maîtrise de « l’informatique cognitive » actuellement en plein essor. Elle fait suite à celle « de la programmation » et antérieurement à celle « du calcul », voyant aujourd’hui l’émergence de l’ère d’une suprématie symbolique de l’évaluation et de la décision algorithmiques dans les affaires humaines.

 

IV/ CÉDRIC VILLANI AVANCE SUR L'INTELLIGENCE ARTIFICIELLE (Lucie Ronfaut)

Mis à jour le 29/11/2017

Le mathématicien et député LREM doit remettre un rapport sur le sujet au gouvernement en janvier.

On prend presque les mêmes, et on recommence. Cédric Villani, mathématicien et député LREM, tenait mercredi une conférence de presse de mi-parcours sur sa mission sur l'intelligence artificielle. Cette dernière, qui lui a été confiée par le premier ministre Édouard Philippe, donnera lieu à la publication d'un rapport de recommandations au gouvernement pour développer l'intelligence artificielle en France et en Europe. Le document sera rendu en janvier 2018.
Pour les habitués du sujet, la scène a comme un air de déjà-vu. Au début de l'année, le gouvernement de François Hollande avait déjà lancé un grand chantier autour de l'intelligence artificielle. Baptisé France IA, il avait impliqué les principaux chercheurs et représentants français de l'industrie des nouvelles technologies. Dont, justement, Cédric Villani. Cette initiative avait mené à la publication d'une cinquantaine de propositions. François Hollande avait alors promis une enveloppe de 1,5 milliard d'euros sur dix ans consacrée au développement de l'intelligence artificielle en France. Une annonce tonitruante, mais floue, prononcée à peine un mois avant l'élection présidentielle.

La France possède des atouts, notamment dans ses formations en
informatique et en mathématiques, ainsi que son écosystème de start-up

Aujourd'hui, le gouvernement Macron remet presque les compteurs à zéro. «Le rapport France IA  a permis de lancer le débat », relativise Cédric Villani. Mounir Mahjoubi, secrétaire d'État au Numérique, ne reprend pas à son compte la promesse de François Hollande. Le constat reste le même: la France possède des atouts dans l'intelligence artificielle, notamment dans ses formations en informatique et en mathématiques, ainsi que son écosystème de start-up. Mais elle subit la concurrence de géants comme les États-Unis et la Chine, ou des pays plus petits comme Israël et le Canada, qui investissent énormément dans ce secteur.
«2018 est l'année où l'on va faire des choses en intelligence artificielle, pas seulement y réfléchir», assure Mounir Mahjoubi, qui accompagne le rapport de Cédric Villani. Le gouvernement n'intervient pas dans sa rédaction. C'est le très médiatique mathématicien, élu député LREM en juin, qui pilote seul l'initiative, aux côtés de Marc Schoenauer, directeur de recherche à l'Inria, et du Conseil national du numérique. Plus de 200 personnes ont déjà été interviewées depuis le mois de septembre. Une plateforme de consultation en ligne, ouverte à toutes les suggestions, doit être lancée début décembre.

« Il s'agit de débarrasser l'humain de ce qui est répétitif,3
et de se concentrer sur le stratégique, l'empathique, bref
ce qui fait de nous des humains »

Cédric Villani

Six pistes de réflexion ont pour le moment été identifiées: politique industrielle, enjeux des données, impact sur l'emploi, écologie, éthique et recherche. Le maître mot, pour Cédric Villani, est de rassurer. «Il existe un imaginaire qui s'est créé avec l'intelligence artificielle, qui a enraciné le mythe du robot qui finira pas prendre son indépendance et se débarrasser des hommes, explique-t-il, en citant les films Her ou Matrix. S'il existe des dangers à l'intelligence artificielle, ceux-là sont très loin de nous.»
Le rapport s'appuie sur quelques mesures fortes, comme la création d'un centre de recherche dédié à l'impact écologique du numérique, des incitations pour les entreprises privées à partager, ou la constitution d'une infrastructure de calcul d'envergure nationale pour les recherches en intelligence artificielle. Cédric Villani défend une approche transversale, plutôt que de créer des groupes de travail dédiés à des sujets en particulier, comme ce fut le cas pour l'initiative France IA . « Il faut voir le débat sur l'intelligence artificielle sous un autre angle. Il s'agit de débarrasser l'humain de ce qui est répétitif, et de se concentrer sur le stratégique, l'empathique, bref ce qui fait de nous des humains.»
Reste à régler le plus gros problème: celui du financement. Mounir Mahjoubi a assuré que le gouvernement donnerait suite au rapport Villani avant la fin du premier trimestre 2018. «Nous voulons dépasser les promesses et investir sur le long terme», assure Mounir Mahjoubi.

 

V / L'HOMME EST-IL UNE ESPÈCE EN VOIE DE DISPARITION ?

Par Alexandre Devecchio et Aziliz Le Corre

Mis à jour le 01/12/2017

FIGAROVOX/RENCONTRE - Le rôle grandissant de l'intelligence artificielle dans nos vies pose la question de la place de l'homme dans la société au cours des prochaines décennies. Laurent Alexandre, chirurgien et neurobiologiste et Jean-Marie Le Méné, président de la fondation Jérôme-Lejeune, en débattent.

Les robots vont-ils supplanter les êtres humains? Ce qui n'était hier qu'un scénario de science-fiction pourrait devenir une réalité dans à peine quelques décennies avec l'avènement de l'intelligence artificielle. C'est la thèse soutenue par le chirurgien et neurobiologiste Laurent Alexandre dans son dernier livre, La Guerre des intelligences (JC Lattès). Pour Jean-Marie Le Méné, auteur de Les Premières Victimes du transhumanisme (Pierre-Guillaume de Roux) et président de la Fondation Jérôme-Lejeune, premier financeur de la recherche sur la trisomie 21, aucun logiciel ne pourra jamais imiter la complexité de l'âme humaine. Le vrai danger pour l'avenir de l'homme est la marchandisation de la vie.

LE FIGARO - Laurent Alexandre, vous présentez le triomphe de l'intelligence artificielle comme inéluctable et proposez de nous y adapter. Ne faut-il pas, au contraire, résister à cette évolution?

Laurent ALEXANDRE. - Les Gafa américains et Batx chinois, ce sont ces géants du numérique qui développent l'IA: des puissances économiques et technologiques qui sont à 12.000 kilomètres de chez nous. Le chinois Tencent (le T de Batx) est devenu la cinquième entreprise mondiale, avec plus 500 milliards de dollars de valeur boursière. La stratégie des bio-conservateurs est suicidaire au lieu de réfléchir aux technologies comme celles que développe Elon Musk, ils s'épuisent en des combats d'arrière-garde tels que le mariage pour tous. Il y a d'énormes sujets éthiques à traiter en priorité. Il faut construire une nouvelle morale. Cela va être compliqué car l'IA accélère le temps, bouscule les repères, pousse à l'eugénisme et à la neuro-technologie. Elon Musk pense que l'IA peut concurrencer l'intelligence humaine et se retourner contre l'homme d'ici une dizaine d'années seulement. Cela justifie, à ses yeux, de mettre des micro-processeurs dans le cerveau de nos enfants. L'IA nous fait entrer dans une guerre des intelligences, que l'on ne contrôle pas. Je suis un humaniste, je ne fais pas partie de ceux qui pensent que la technologie est nécessairement bonne. Mais l'homme 1.0 est mort, la question est maintenant de savoir quel homme 2.0 nous voulons.

Jean-Marie LE MÉNÉ. - Je ne conteste pas la réalité de l'IA, mais je ne partage pas l'idée qu'il faut implanter des micro-processeurs dans le cerveau de nos enfants! Je ne crois pas au caractère inéluctable, à cette espèce de fatum antique auquel on ne pourrait apporter aucun remède. Devant les découvertes et leur exploitation technologique, on doit être capable de dire «go» ou «no go». Cela pose la question de la liberté. S'il n'y a plus de liberté, cela ne sert à rien de discuter! «La mort de la mort» est un slogan transhumaniste, mais le vrai débat doit porter sur l'allongement de la vie et le progrès de la médecine, non sur l'idéologie transhumaniste. Le transhumanisme est à la fois une idéologie et une réalité. Sur le plan économique, il y a beaucoup de choses à dire sur les Gafa, qui sont loin d'avoir une position irréprochable. Les Gafa pratiquent l'optimisation fiscale, alors qu'ils dégagent d'immenses profits privés. Sur le plan idéologique, ce sont des géants aux pieds d'argile. Le Pacs contre nature entre scientisme et marché est une idéologie qui va s'effondrer, car il propose une vision pessimiste de l'être humain réduit au rang de machine, ce qui ne correspond pas à la réalité.

Les États peuvent-ils imposer des limites aux Gafa?

Laurent ALEXANDRE. - Pour que l'Europe ait son mot à dire, il faudrait un renouveau technologique, militaire, économique. Aujourd'hui, face au tsunami technologico-politique de l'axe San Francisco-Pékin, nous n'avons aucune logique de puissance, militaire et géopolitique. De ce fait, le toboggan idéologique est impossible à réguler! Je considère avec la psychanalyse que le refus des limites est délétère. La volonté de certains transhumanistes de démanteler toute forme de limite, de tuer la mort, ne mènera pas les hommes au bonheur. Mais aujourd'hui, il faut se demander comment piloter et encadrer l'hubris. La difficulté est de définir une ligne rouge entre licite et illicite, entre la vision d'un Elon Musk et la vision des plus conservateurs. Nous allons vers une guerre des intelligences. Si nos enfants sont des attardés face aux autres enfants du monde qui auront été augmentés, nous serons obligés de suivre.

Jean-Marie LE MÉNÉ. - Je n'ai pas de solution miracle, on ne peut pas revenir sur des dizaines d'années de néant philosophique, de déconstructivisme intellectuel. On est passé du théo-centrisme, à l'anthropo-centrisme, au bio-centrisme, puis aujourd'hui au techno-centrisme: l'homme n'est plus rien et le transhumanisme prospère sur ce vide. Le vers de Lamartine traduit bien cette idéologie: «L'homme est un dieu tombé qui se souvient des cieux.» Les transhumanistes ont la nostalgie de l'homme d'avant la Chute, mais en tirent des conclusions aberrantes: puisque l'homme est réduit à sa construction neuronale on va le réparer, c'est une sorte de «rédemption» laïque. Mais dire que l'homme doit être réparé pour être «sauvé», c'est considérer qu'il y a une solution technique à la folie des hommes. Ce qui est faux.

Laurent Alexandre, vous décrivez l'école comme obsolète et prédisez sa disparation...

 « Dans quelques décennies, nous accepterons les
­implants intra-cérébraux d'Elon Musk »        

Laurent Alexandre

Laurent ALEXANDRE. - L'école doit former nos enfants à ce que l'IA fait mal: la transdisciplinarité, l'esprit critique, le travail collectif, les humanités. On ne doit pas former des techniciens étroits. La philosophie, l'histoire peuvent nous permettre de défendre nos enfants face à l'IA. Cependant, l'école des cerveaux biologiques galope moins vite que l'école des cerveaux de silicium. Entre la position du missionnaire et le doctorat du petit, il faut trente ans, alors que pour dupliquer une IA, cela prend seulement un millième de seconde. On investit plus sur la formation des cerveaux de silicium que sur la formation des cerveaux biologiques. Les «éducateurs» des cerveaux de silicium gagnent cent fois plus que le professeur de collège le mieux payé au monde. Si nous n'équilibrons pas les moyens entre les deux écoles, le décalage va légitimer la neuro-technologie. Dans quelques décennies, nous accepterons les implants intra-cérébraux d'Elon Musk.

En quoi l'intelligence artificielle peut-elle être une aide  en ce
qui concerne le remords, le pardon ?

Jean-Marie Le Méné

Jean-Marie LE MÉNÉ. - Il est absolument vain d'opposer intelligence désincarnée de l'IA et incarnation de l'intelligence des êtres humains. Cela procède du réductionnisme contemporain. Jean-Pierre Changeux et sa vision matérialiste du cerveau ne propose qu'une vision parcellaire. Qui peut prétendre détenir la vérité sur l'esprit humain? Changeux observe la câblerie du cerveau, sa vision est biologisante, mais seule, elle ne suffit pas. Le réductionnisme voudrait faire passer la science comme le seul mode d'accès à la connaissance. Pour donner une véritable définition de l'être humain, il faut aussi convoquer la poésie, la littérature, l'histoire, la philosophie, la théologie… Jamais, on ne fera concurrence à Baudelaire. Cela relève du rêve, du cauchemar ou du fantasme du transhumanisme. Changeux sera plus vite oublié que Racine ne le sera! Cette vision réductionniste qui s'impose est délétère et relève d'une confusion entre qualitatif et quantitatif. Les dés sont pipés, une machine fera toujours plus quantitativement que l'homme, comme la calculette le faisait déjà. Le problème n'est pas d'augmenter l'intelligence, l'intelligence n'est pas moins performante aujourd'hui qu'à l'époque des Romains. Ce qui nous tue aujourd'hui, ce sont les passions, au sens où l'entendait Descartes, celui des vices et des vertus. Il faut diminuer les vices et augmenter les vertus. L'école est là pour former l'être humain capable de réagir avec son cœur, son esprit et sa volonté. En quoi l'IA peut-elle être une aide en ce qui concerne le remords, le pardon? L'intelligence humaine est libre et non déterminée.

Les bouleversements liés à l'IA vont en premier lieu toucher le travail...

Laurent ALEXANDRE. - Schumpeter n'est pas encore mort. Si on avait dit aux 29.000 porteurs d'eau parisiens de 1793 que l'eau courante allait arriver, et que l'industrie de l'eau allait créer plus de 29.000 emplois, et que plus de 1000 professions allaient émerger, ils ne l'auraient pas cru. La nouveauté, c'est que la technologie remplace aujourd'hui le cerveau humain. L'accélération du temps et la concurrence du cerveau de silicium sont plus difficiles à gérer que les révolutions schumpétériennes antérieures (la vapeur, le pétrole). L'arrivée de l'IA va défavoriser les gens qui ne sont pas adaptés au monde de la data. A court terme, les gens les moins doués vont être le plus bousculés, les tensions sociales vont devenir immenses. Aux Etats-Unis, les camions Tesla, à 95% autonomes, viennent d'être inaugurés. Que va-t-on faire demain des 5 millions de chauffeurs-routiers américains?

Jean-Marie LE MÉNÉ. - Comme dans toute révolution technologique et scientifique très rapide, il va y avoir de grands bouleversements. Ce n'est pas la première fois, et ce n'est pas choquant. Certains diagnostics faits par ordinateur, la ligne de métro 14 sans conducteur, j'y suis favorable. Mais l'arbre cache la forêt. Le vrai problème, c'est la marchandisation de la vie. La vie est devenue une mine à exploiter. La conséquence? L'homme est en miettes. Et le transhumanisme ajoute: il est en miettes, mais ses miettes valent de l'or. Le transhumanisme est un esclavage moderne qui vend l'homme, non plus sur pied, mais en pièces détachées, ce qui rapporte davantage! Cette marchandisation de la vie fait des victimes. Faute d'être capables de fabriquer des hommes augmentés, nous supprimons déjà des hommes diminués. L'incroyable découverte scientifique, qui a vu que la femme enceinte avait des traces du génome de son enfant dans le sang, a été utilisée pour détecter la trisomie 21. Le marché explique aux mères qu'il n'est pas souhaitable de faire naître des «mongoliens» et les bio-techs engrangent des milliards grâce à ces nouvelles technologies, c'est une économie de rente qui est indigne.

Aujourd'hui, 95,5 % des cas de diagnostic positif de trisomie 21 pendant la période prénatale conduisent à une interruption de grossesse. Le transhumanisme va-t-il de pair avec l'eugénisme?

Laurent ALEXANDRE. - Le transhumanisme sera eugéniste par la sélection et la modification embryonnaire. Les transhumanistes souhaitent la création de superbébés capables de résister à l'IA. Ils veulent aussi guérir la trisomie 21. Oui, les transhumanistes sont eugénistes. Le mot transhumaniste a été inventé en 1957 par le frère d'Aldous Huxley, pour remplacer le terme    « eugénisme », devenu péjoratif après la guerre...

Jean-Marie LE MÉNÉ. - Le transhumanisme fait des victimes chez les trisomiques plus qu'il ne les guérit. L'eugénisme négatif est déjà en place dans la PMA, qui élimine les mauvais embryons, et on va aller beaucoup plus loin, puisqu'on commence à créer des embryons à trois ADN. La PMA est une réponse non médicale donnée par des gens en blouse blanche à un problème social. Je ne jette pas le discrédit sur l'enfant né par PMA. Mais beaucoup de transgressions passent sous pavillon de complaisance médicale, c'est une erreur de méthode.

Laurent ALEXANDRE. - La médecine va muter, il ne faut pas l'empêcher de devenir transhumaniste. Même chez les catholiques les plus convaincus, la plupart des gens aimeraient vivre en bonne santé plus de 125 ans. La transhumanisation des esprits a gagné: pour moins souffrir, moins vieillir et moins mourir, la plupart des gens accepteront les technologies les plus transgressives. En tant que médecin, à la veille de mourir, j'ai vu des gens capables d'accepter des traitements lourds pour gagner quelques minutes. Pour gagner cinquante ans, les gens seront prêts à tout accepter. La régulation éthique va être difficile.

Jean-Marie LE MÉNÉ. - Quand ces questions éthiques s'adresseront aux législateurs, il faudra se demander ce que l'on fait. Le risque est de tout accepter au nom du progrès technique synonyme de progrès moral.

Laurent ALEXANDRE. - Le billet d'avion ne va pas augmenter. Donc, on prendra l'avion pour aller faire des bébés sur la côte Pacifique et contourner la loi française. Aujourd'hui, les législations nationales n'ont aucun sens. Il faut se demander quelle régulation mondiale mettre en place, sinon nous allons assister à un nomadisme transhumaniste.

Jean-Marie LE MÉNÉ. - L'égalité d'accès à l'eugénisme, à la PMA, à la GPA, qui met les vices privés des riches à la portée des pauvres, est une déshumanisation.

Si les gens deviennent immortels, il faudra nécessairement arrêter de faire des enfants. Ce serait la fin de l'humanité.

Laurent ALEXANDRE. - Jeff Bezos a dit que pour coloniser notre simple galaxie il fallait 1000 milliards d'êtres humains. Il y a donc du boulot pour plus de 7 milliards d'hommes!On n'est pas dans Soleil vert et les dystopies des années 70. On n'a pas de risque de surpopulation en vue, sauf si on raisonne comme en 1965…

Jean-Marie LE MÉNÉ. - Vous pouvez nous raconter des histoires de colonisation de la planète Mars, mais Elon Musk sera en prison avant, et ses implants finiront par rouiller !

 

VI /  DEEP LEARNING ou APPRENTISSAGE PROFOND (Jean-Gabriel Ganascia*)

Publié dans Encyclopædia Universalis le 09/12/2017

*Jean-Gabriel Ganascia est professeur à l'université Pierre-et-Marie-Curie, où il mène des recherches sur l'intelligence artificielle au Laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d'éthique du CNRS et a publié divers ouvrages dont le précurseur, L'Âme machine, au Seuil en 1990. 

Apprentissage profond, deep learning en anglais, ou encore « rétropropagation de gradient » …ces termes, quasi synonymes, désignent des techniques d’apprentissage  machine (machine learning), une sous-branche de l’intelligence artificielle qui vise à construire automatiquement des connaissances à partir de grandes quantités d’information. Les succès qu’enregistrent ces techniques leur confèrent un rôle essentiel dans le monde contemporain, où elles apparaissent être à l’origine d’innombrables applications pratiques (reconnaissance des visages et de la parole, voiture autonome, etc.). Même si elles semblent constituer un renouveau, voire une révolution de l’intelligence artificielle, les principes sur lesquels elles reposent sont anciens. Très tôt, avant même l’avènement de l’intelligence artificielle – discipline ayant vu le jour officiellement en 1956 –, avec la cybernétique – courant de réflexion créé en 1946 à l’issue des premières tentatives de simulation du vivant et du cerveau aux moyens de flux d’information – et l’article séminal d’Alan Turing (1912-1954) sur l’intelligence des machines (1950), il apparut nécessaire de développer des techniques d’apprentissage machine afin que les ordinateurs soient capables de s’adapter aux évolutions du monde extérieur, de tirer parti de leurs propres expériences et de se reprogrammer automatiquement. Ces techniques se développèrent dès les années 1940 et 1950, puis se perfectionnèrent dans les années 1980, avant de connaître un nouvel essor à partir de 2010.

Différents types d’apprentissage machine

On distingue usuellement au moins trois types d’apprentissage machine :

  • l’apprentissage par renforcement,
  • l’apprentissage supervisé
  • et l’apprentissage non supervisé.

L’apprentissage par renforcement suppose que, lors de ses pérégrinations, un agent (entité qui agit de façon autonome) reçoit des récompenses ou des punitions en fonction des actions qu’il exécute. Il s’agit alors d’établir automatiquement, à partir des retours d’expérience, des stratégies d’actions des agents qui maximisent l’espérance de récompenses. Ces techniques développées depuis la fin des années 1950 ont fait leurs preuves à la fois dans le domaine des jeux et dans celui de la robotique.
L’apprentissage supervisé suppose que l’on donne des exemples étiquetés, comme des images de lettres manuscrites avec le nom de la lettre correspondante (étiquettes abZ…). L’apprentissage consiste alors à construire une fonction capable de déterminer la lettre de l’alphabet à laquelle se rapporte chaque image. Cette forme d’apprentissage a fait des progrès considérables ces dernières années.
Enfin, le dernier type d’apprentissage repose sur un ensemble d’exemples non étiquetés que l’on cherchera à structurer en rassemblant les exemples apparemment les plus proches et en les distinguant de ceux qui en paraissent éloignés. Il s’agit donc, pour la machine, de pouvoir organiser des connaissances et acquérir des notions nouvelles. Ainsi, pour un ensemble d’instruments de musique, on peut chercher à ce que la machine construise automatiquement des catégoriesen distinguant, par exemple, les instruments à cordes, à vent, à percussion puis, parmi les cordes, les cordes pincées, frappées, frottées, etc.
L’apprentissage supervisé recourt à des techniques variées fondées sur la logique ou la statistique et s’inspirant de modèles psychologiques, physiologiques ou éthologiques. Parmi celles-ci, des techniques anciennes reposant sur un modèle très approximatif du tissu cérébral – les réseaux de neurones formels – ont obtenu depuis les années 2010 des performances remarquables en traitant de très grandes quantités d’information que l’on qualifie en français de masses de données, et en anglais de big data. Ce sont elles que l’on range sous le vocable d’apprentissage profond, ou deeplearning. Elles recourent toutes à de la rétropropagation de gradient (algorithme permettant l’apprentissage de la machine et utilisant les réseaux de neurones). Notons cependant qu’il existe d’autres techniques d’apprentissage supervisé qui n’utilisent pas de réseaux de neurones formels et, a fortiori, pas de rétropropagation de gradient.

Réseaux de neurones formels

L’histoire des réseaux de neurones formels remonte à 1943, avant même la construction des premiers ordinateurs électroniques, alors que l’on commence seulement à fabriquer des calculateurs électromécaniques au moyen de relais téléphoniques. L’idée de dresser un parallèle entre ces machines et le cerveau humain traverse les pensées du mathématicien américain Walter Pitts (1923-1969) qui, âgé d’à peine vingt ans à l’époque, écrit avec le neurophysiologiste américain Warren McCulloch (1898-1969), un article intitulé « A logical calculus of immanent ideas in nervous activity »(« Un calculateur logique des idées immanentes dans l'activité nerveuse »). Ils y établissent une analogie entre, d’un côté, ces relais téléphoniques et les cellules du cerveau – les neurones – et, d’un autre côté, les connexions entre ces relais téléphoniques et les liaisons dites synaptiques qui relient les neurones entre eux. Pour résumer ces analogies, on appelle « neurones formels » ces relais téléphoniques, et « synapses formelles » leurs connexions. Afin de mimer les phénomènes biologiques dits de « plasticité synaptique » qui affectent la plus ou moins grande connectivité de l’influx nerveux entre les neurones et qui se trouvent à l’origine de l’apprentissage physiologique, on module les synapses formelles d’un nombre plus ou moins grand que l’on appelle le « poids synaptique » et qui joue sur l’intensité de la transmission d’information entre les neurones formels.

Outre la description de cette analogie, McCulloch et Pitts démontrent qu’en organisant ces neurones formels en trois couches, et en connectant les neurones formels de chaque couche avec des neurones formels de la couche suivante par des synapses formelles dont on ajuste correctement les poids synaptiques, on peut réaliser n’importe quelle fonction logique. Ce théorème d’universalité est essentiel.

Apprentissage des poids synaptiques

Toutefois, même si de tels réseaux de neurones formels organisés en trois couches permettent de réaliser n’importe quelle fonction logique, il convient de configurer les liaisons synaptiques entre les neurones formels, autrement dit d’associer à chacune de ces liaisons un nombre, ce qui serait extrêmement fastidieux, voire inextricable manuellement, si l’on ne disposait pas de procédures d’apprentissage. On cherche donc, dès le début des années 1950, à élaborer des techniques pour établir automatiquement les pondérations des liaisons entre les synapses formelles en mimant les phénomènes d’apprentissage neuronal.

Pour cela, on recourt à l’apprentissage supervisé en donnant à une machine des exemples étiquetés et en faisant en sorte qu’elle ajuste automatiquement les poids des synapses formelles pour retrouver automatiquement les étiquettes des exemples. À titre d’illustration, si l’on donne des formes géométriques à la machine, on lui indique pour chacune qu‘il s’agit d’un losange, d’un carré, d’un pentagone, d’un cercle, d’une ellipse, etc. Et on espère qu’elle sera ensuite en mesure de distinguer automatiquement ces types de formes, après lui avoir donné suffisamment d’exemples ainsi étiquetés.

Le perceptron

En 1957, un psychologue américain, Frank Rosenblatt (1928-1971), met au point un algorithme d’apprentissage pour des réseaux de neurones formels à deux couches qu’il appelle des « perceptrons », car ils reproduisent selon lui les capacités de perception des rétines.

Or, si Walter Pitts avait bien montré que les réseaux de neurones à trois couches pouvaient réaliser n’importe quelle fonction logique, il n’en va pas de même pour les réseaux à deux couches, tant s’en faut. En 1969, Marvin Minsky (1927-2016) démontre que la procédure d’apprentissage décrite par Frank Rosenblatt n’apprend que des fonctions très simples, dites linéairement séparables. Ainsi une fonction logique aussi élémentaire qu’un « ou » exclusif – qui vaut 1 si l’une de ses deux entrées est égale à 1 et l’autre à 0, et 0 sinon – ne saurait être réalisée, et a fortiori apprise, sur un perceptron à deux couches.

Rétropropagation de gradient

Il a fallu attendre le début des années 1980 pour que des mathématiciens généralisent le principe d’apprentissage des perceptrons et conçoivent, en s’inspirant de principes mathématiques issus de la physique statistique, une procédure capable d’apprendre sur des réseaux de neurones à plusieurs couches. En termes techniques, on appelle cette procédure la rétropropagation du gradient. Quelques années plus tard, d’autres mathématiciens cherchèrent à déterminer les fondements théoriques de cet apprentissage avec, entre autres, la théorie statistique de l’apprentissage. Cela les conduisit à développer d’autres techniques d’apprentissage supervisé inspirées des principes mathématiques de l’apprentissage sur les réseaux de neurones formels, comme ce que l’on appelle les machines à vecteurs de support (support vectormachines) et les machines à noyaux (kernel machines), qui furent bien souvent utilisées dans les années 1990 et au début des années 2000 pour effectuer de l’apprentissage supervisé dans de multiples champs d’applications comme la reconnaissance de caractères manuscrits, de visages ou de la parole.

Réseau de neurones formels

INTELLIGENCE_FIG5.png

Ce dessin représente un réseau de neurones formels avec n entrées, p sorties et j couches.
Crédits : Encyclopædia Universalis France

Succès de l’apprentissage profond

En parallèle, des chercheurs comme le Français Yann Le Cun continuent avec ténacité à perfectionner l’apprentissage sur des réseaux de neurones formels. Pour cela, ils recourent à la grande puissance de calcul des machines, à un très grand nombre de liaisons synaptiques – de l’ordre de plusieurs centaines de milliers, voire de quelques millions – et surtout à de multiples couches de neurones formels – entre 10 et 15 – dont certaines restent « figées » – en ce sens que les poids des liaisons synaptiques les connectant à d’autres couches y demeurent fixes – tandis que d’autres évoluent par apprentissage. En raison de cette multiplicité de couches, on caractérise ces techniques comme de l’apprentissage profond. En 2010, la comparaison des capacités d’apprentissage du deep learning avec celles des autres techniques d’apprentissage supervisé, en particulier des machines à vecteurs de support et des machines à noyaux, sur des tâches de reconnaissance d’images, a montré que les techniques d’apprentissage profond apprennent de façon efficace sur de très grandes quantités d’exemples tout en surpassant notablement les performances des autres techniques. Cela explique leur popularité actuelle.

Applications de l’apprentissage profond

Ainsi, en entraînant par apprentissage profond des algorithmes de reconnaissance faciale sur 200 millions d’images de visages, le système FaceNet de la société Google obtient un taux d’identification correcte de 99,63 p. 100. Le nombre d’applications potentielles de l’apprentissage profond est immense. C’est la raison pour laquelle cette méthode d’apprentissage s’est imposée ces dernières années. Ces techniques permettent d’améliorer la reconnaissance d’images en général et de créer des applications pour la biométrie (reconnaissance d’empreintes digitales ou d’iris), la médecine (avec, par exemple, le diagnostic de mélanomes à partir d’images de grains de beauté et l’analyse de radiographies), la voiture autonome (reconnaissance d’obstacles, de véhicules, de panneau de signalisation, etc.), par exemple. Elles permettent aussi d’améliorer la reconnaissance de la parole, avec des systèmes comme Siri, ou le profilage des individus, pour la recommandation et la publicité ciblée, ou encore les logiciels de jeux, comme on l’a vu en mars 2016 lorsque le programme informatique AlphaGo l’a emporté sur Lee Sedol, l’un des meilleurs joueurs mondiaux de go, en ayant fait appel à de l’apprentissage profond et à de l’apprentissage par renforcement. Enfin, et surtout, les techniques d’apprentissage supervisé aident à anticiper le futur sur la base du passé, ce qui permet d’évaluer, avec une précision inconnue auparavant, les risques potentiels d’investissements, d’accidents, de maladies, etc. Or, la prédiction aide à prendre des décisions en calculant les conséquences les plus probables de chaque action. De ce fait, les systèmes prédictifs recourant à de l’apprentissage profond jouent un rôle de plus en plus important dans le monde contemporain où on les utilise pour trancher dans les situations délicates à la place des hommes. C’est ce qui conduit certains à parler aujourd’hui de « gouvernementalité algorithmique » pour évoquer, et bien souvent déplorer, une politique qui éluderait toute responsabilité en confiant à des machines, entraînées par apprentissage profond sur d’immenses masses de données, le soin de décider.

Limites de l’apprentissage profond

En dépit des succès impressionnants qu’ils enregistrent et des bouleversements sociaux qu’ils induisent – via les applications qui en sont faites et qui permettent de remplacer beaucoup d’activités routinières –, ces techniques souffrent d’un certain nombre de limitations qui en restreignent les potentialités.

Les premières limitations tiennent à la grande quantité d’exemples nécessaires pour obtenir de très bonnes performances et au besoin d’étiqueter ces exemples. Or, l’étiquetage requiert une intervention humaine très coûteuse, d’autant plus que les exemples doivent être massifs (plusieurs centaines de milliers, voire plusieurs millions d’instances).

Il existe aussi une limitation intrinsèque à l’apprentissage supervisé qui tient au langage de description des exemples : celui-ci demeure figé et ne peut s’accroître automatiquement. Or, ce que le philosophe américain et historien des sciences Thomas Kuhn (1922-1996) appelle des « révolutions scientifiques », ou ce que le Français Gaston Bachelard (1884-1962) décrit comme des ruptures épistémologiques, passe par l’introduction de nouvelles notions qui viennent bousculer les conceptions anciennes et changer les systèmes de représentation – comme l’ont fait par exemple, en leur temps, le passage du système géocentrique (Terre au centre de l’Univers et immobile) de Ptolémée au système héliocentrique de Copernic (Soleil au centre de l’Univers et immobile) ou celui de la représentation newtonienne du temps à celle d’Einstein et de la relativité. Pour reprendre les termes de Thomas Kuhn, si les techniques d’apprentissage profond permettent d’automatiser en partie la « science normale », elles sont incapables de procéder à des changements de paradigmes.

BIBLIOGRAPHIE

W. MC CULLOCH & W. PITTS, « A logical calculus of the ideas immanent in neuron activity », in Bulletin of MathematicalBiophysics, 1943

Y. LECUN, Y. BENGIO & G. HINTON, « Deep learning », in Nature, vol. 521, 436-444, 2015

M. MINSKY & S. PAPERT, Perceptrons, MIT Press, Cambridge (Mass.), 
1969

F. ROSENBLATT, « The perceptron: A probabilistic model for information 
storage and organization in the brain », in Psychological Review, vol. 65, 

 

VII / EXTRAIT DE  LES ROBOTS SONT LES VÉRITABLES INTERLOCUTEURS DE LA BCE ( Jean-Pierre Robin)

Publié le 09/12/2017 dans l'édition du Figaro

ANALYSE - À une semaine d'une conférence de presse de Mario Draghi, il faut prendre conscience que la BCE ne s'adresse plus à des interlocuteurs de chair et de sang.

Mais à qui s'adressera-t-il au juste?

Il y aura in situ, à ses pieds, une trentaine de journalistes ECB watchers patentés, les observateurs établis à Francfort que Christine Graeff, la directrice générale de la communication de la BCE, couve de son regard d'airain comme une canne ses canetons. Et puis, disséminés dans les salles de marché de par le monde, une trentaine de milliers de financiers écouteront en direct la bonne parole. Cette foule solitaire des traders, rationnels et émotifs, on la taxe souvent de moutons de Panurge car chacun d'entre eux préfère «avoir tort avec le marché que raison tout seul». Est-ce là le vrai public de la BCE? Plus aujourd'hui.

Définir les décisions de politique monétaire à la lumière de l'intelligence artificielle

Le juge de paix ultime, le jury de l'opinion publique en dernier ressort, n'a pas de nom, il n'a pas de visage: ce sont désormais des algorithmes, des robots. Sachons gré à Benoît Cœuré, l'un des six membres du directoire de la BCE, de nous en avoir fait la révélation récemment lors d'un colloque à Paris. Le Français, qui au sein de la BCE est responsable des marchés et de l'international, salue comme un fait objectif (une fatalité?) l'importance grandissante des technologies dont les hommes sont à la fois les utilisateurs et les serviteurs complaisants. «Nous pouvons être un jour tentés de définir nos décisions de politique monétaire et nos discours à la lumière de la compréhension et de l'interprétation qui seront celles des algorithmes de l'intelligence artificielle», a-t-il avoué mezza voce lors de cette réunion tenue à la Banque de France.
Plus que dans tout autre secteur, l'intelligence artificielle (IA) exerce un rôle essentiel dans la finance, avec en fer de lance les FinTech, les start-up qui entraînent l'ensemble de la profession. Le Conseil de stabilité financière, qui aux côtés du G20 a pour mission d'identifier les facteurs de vulnérabilité du système mondial, s'en est saisi, publiant le mois dernier une étude sur «l'IA et l'apprentissage automatique (machine learning) dans la finance.»

 « Si vous avez compris ce que je vous ai dit, c'est que
je me suis mal exprimé »

 A.Greenspan, le président de la Fed américaine, en 1990

Ces technologies constituent certes un progrès manifeste ; elles rendent les décisions des professionnels plus efficaces et plus fiables, elles aident leur contrôle par les autorités publiques.
Mais en même temps l'IA facilite la connectivité et les réactions grégaires : trois investisseurs humains interprètent chacun à sa façon les décisions de la BCE, trois robots bâtis sur la même technologie répondent à l'identique.
Il faut donc bien identifier à qui l'on parle et être sur ses gardes. Les relations avec leur entourage ont toujours été fondamentales pour les banques centrales. Fortes de leur pouvoir extravagant de créer quelque chose – la monnaie – à partir de rien, elles ont longtemps cultivé le secret. « Si vous avez compris ce que je vous ai dit, c'est que je me suis mal exprimé » a pu dire dans les années 1990 Alan Greenspan, le président de la Fed américaine lors d'une audition devant le Sénat américain.

Les banques centrales sont constamment aux aguets des réactions des investisseurs

Cette superbe n'est plus de mise aujourd'hui. Au contraire, les banquiers centraux ne jurent plus que par la transparence car ils entendent modeler les anticipations des investisseurs. Dans un monde d'incertitudes et de crises, ils n'ont de cesse de vouloir guider les marchés, ce qu'ils appellent la forward guidance (« conseils d'avenir », un pléonasme assez sot quand on y songe !).
Les banques centrales sont donc constamment aux aguets des réactions des investisseurs que traduisent les cours. Et en amont des opinions des acteurs de chair et de sang, le malstrom des big data, les mégadonnées retravaillées par les algorithmes et les robots, expriment la réalité véritable des marchés. C'est à ce niveau que la BCE entend intervenir : cet inconscient collectif est son véritable interlocuteur.
Nul mieux que Paul Claudel, le poète diplomate, que l'on ne saurait taxer de matérialisme obtus, n'a su capter le processus concret qu'est l'intelligence : « compre(he)ndere (saisir ensemble): comme on dit que le feu prend ou que le ciment prend, ou que le lac se prend en hiver, ou qu'une idée prend dans le public, c'est ainsi que les choses se comprennent et que nous les comprenons ». À la BCE aussi.



[1] Pendant la Seconde Guerre mondiale, Bletchley Park est le principal site de décryptage du Royaume-Uni, le Government Code and Cypher School (GC&CS), où les chiffres et les codes de plusieurs pays de l'Axe sont déchiffrés, dont les plus importants, ceux de la machine allemande Enigma et de la machine de Lorenz.

 Bletchley Park héberge alors une station secrète d'interception radio, mais aussi une station d'émission. L'interception est rapidement déplacée vers d'autres lieux dont la réception est meilleure. La plupart des récepteurs furent réinstallées ailleurs. Le nom de guerre de la station est Station X, London Signals Intelligence Centre et Communications Headquarters.

 

 


Date de création : 17/12/2017 @ 14:31
Dernière modification : 17/12/2017 @ 19:10
Catégorie : La numérisation du monde
Page lue 287 fois


Imprimer l'article Imprimer l'article


Réactions à cet article

Personne n'a encore laissé de commentaire.
Soyez donc le premier !


^ Haut ^