Parcours
Parcours lévinassien
Parcours axiologique
Parcours cartésien
Parcours hellénique
Parcours ricordien
Parcours spinoziste
Parcours habermassien
Parcours deleuzien
Parcours bergsonien
Parcours augustinien Parcours braguien
Parcours boutangien
Glossématique
Synthèses
Ouvrages publiés Suivi des progrès aux USA
Parcours psychophysique
L'art et la science
Parcours nietzschéen
Philosophies médiévales Autres perspectives
Archéologie Economie
Sciences politiques
Sociologie
Poésie
Théologie 1
Théologie 2
Théologie 3
Psychanalyse générale
Points dhistoire revisités
Edification morale par les fables
Histoire
La numérisation du monde
Phénoménologie
Philosophie et science
Sciences Cognitives Mises à jour du site
17/03/2018 ajout:
11/03/2018 ajout:
04/03/2018 nouvelle perspective :
04/02/2018 ajout :
13/01/2018 ajout :
17/12/2017 ajout :
04/11/2017 ajout :
04/11/2017 ajout : Liens Wikipédia
Visites
visiteurs visiteurs en ligne |
La numérisation du monde - L'intelligence artificielle
Lire cet article au format PDF
LINTELLIGENCE ARTIFICIELLE
I / ALAN TURING ET LA MACHINE ÉNIGMA
Considéré comme "l 'Einstein des mathématiques", le britannique ALAN TURING né en1912 est mort en 1954 à l'âge de 41 ans, empoisonné au cyanure. Suicide? Turing, un homme décisif pour la victoire de 1945
En 1939, de retour de Princeton, Turing est convoqué à Bletchley Park[1] avec un autre mathématicien et des personnes d'horizons divers. Le but; décoder les messages radio des Allemands. l'équipe dispose d'une machine Énigma venue de Pologne sans en connaitre le mode d'emploi. Les Allemands considèrent leur machine Énigma comme la machine de cryptage absolue.
La clé de codage est changée tous les jours selon des instructions communiquées à tous les utilisateurs.
Une lettre à coder est transformée par trois rotors puis une boite de câblage pour ressortir sous une forme cryptée. à travers ces arcanes la lettre A, par exemple, devient K.
La "bombe" de Turing pour décrypter Énigma
En 1944, « Colossus » décode tous les messages allemands et va servir à tester la réception d'une grande manuvre d'intoxication. Il faut faire croire aux Allemands que le débarquement aura lieu à Calais (opération Fortitude).
Biographie chronologique d'Alan Turing
1912 Naissance à Londres
Sportif Marathon en 2 h 46 min 3 s. Seulement 11 s de plus que le champion olympique de lépoque (1948). .
II / « INTELLIGENCE ARTIFICIELLE, DU FANTASME À LA RÉALITÉ » (Éric Sadin)Publié le 23/07/2017 par Enguérand Renault, rédacteur en chef médias et technologies au Figaro Mise au jour de la « Deep learning »
Il faut attendre 2012 pour qu'une étincelle jaillisse dans la nuit. Grâce à la disponibilité conjuguée de nouveaux processeurs graphiques (GPU) et de vastes bases de données, les travaux sur les réseaux de neurones des chercheurs Yann LECUN et Geoffrey HINTON prennent enfin corps. Ces réseaux imitent le processus des synapses dans le cerveau. Le Deep Learning (« apprentissage profond ») voit le jour. Il est déjà très répandu et les géants d'Internet Facebook, Google, IBM, Amazon ou Tencent investissent massivement. Facebok a recruté Yann LECUN pour diriger son laboratoire, et Geoffrey HINTON dirige celui de Google. La machine est capable d'apprendre par elle-même. Si on l'entraîne à traduire l'anglais en russe et le russe en japonais, elle traduira d'elle-même l'anglais en japonais. Après avoir visionné des millions d'images de bouteilles, elle en reconnaît une sur une photo. Mais si cette dernière est posée en déséquilibre sur une table, elle ne pourra pas anticiper sa chute. Ce qui paraît pourtant évident à n'importe qui. Aujourd'hui, deux écoles s'affrontent :
Dans un futur proche, la machine pourra remplir de nombreuses tâches complexes et calculer la probabilité d'événements. Mais elle ne pourra toujours pas imiter le dialogue plein de tendresse entre un enfant et sa maman, saisir les ressorts humains comme l'a fait Shakespeare ou affirmer que « Dieu est mort ». Extrait de « La Siliconisation du monde » selon Éric SADIN III / L'INTELLIGENCE ARTIFICIELLE SE TROUVE AUJOURDHUI DOTÉE DUNE TRIPLE FACULTÉ
Au cours de la décennie suivante s'opéra un saut qualitatif par le data mining, qui nomme la capacité acquise par des programmes à saisir, à de hautes vitesses, des corrélations entre des séries de faits faisant apparaître des phénomènes qui demeuraient jusque-là non immédiatement sensibles à la perception humaine. Par exemple, l'état de solvabilité dune personne voulant souscrire un crédit, projeté sur des années et établi en fonction dune multitude de critères.
Autant de dispositions qui ne cessent de se perfectionner, grâce notamment à la faculté autoapprenante des systèmes : la machine learning. Récente aptitude qui conçoit le langage de programmation, non plus comme déterminant de part en part le « comportement » dun système, mais comme un premier socle à partir duquel son niveau de compétence va régulièrement saméliorer au long de ses « expériences ».
IV/ CÉDRIC VILLANI AVANCE SUR L'INTELLIGENCE ARTIFICIELLE (Lucie Ronfaut)Mis à jour le 29/11/2017 Le mathématicien et député LREM doit remettre un rapport sur le sujet au gouvernement en janvier.
On prend presque les mêmes, et on recommence. Cédric Villani, mathématicien et député LREM, tenait mercredi une conférence de presse de mi-parcours sur sa mission sur l'intelligence artificielle. Cette dernière, qui lui a été confiée par le premier ministre Édouard Philippe, donnera lieu à la publication d'un rapport de recommandations au gouvernement pour développer l'intelligence artificielle en France et en Europe. Le document sera rendu en janvier 2018.
La France possède des atouts, notamment dans ses formations en
Aujourd'hui, le gouvernement Macron remet presque les compteurs à zéro. «Le rapport France IA a permis de lancer le débat », relativise Cédric Villani. Mounir Mahjoubi, secrétaire d'État au Numérique, ne reprend pas à son compte la promesse de François Hollande. Le constat reste le même: la France possède des atouts dans l'intelligence artificielle, notamment dans ses formations en informatique et en mathématiques, ainsi que son écosystème de start-up. Mais elle subit la concurrence de géants comme les États-Unis et la Chine, ou des pays plus petits comme Israël et le Canada, qui investissent énormément dans ce secteur.
« Il s'agit de débarrasser l'humain de ce qui est répétitif,3 Cédric Villani
Six pistes de réflexion ont pour le moment été identifiées: politique industrielle, enjeux des données, impact sur l'emploi, écologie, éthique et recherche. Le maître mot, pour Cédric Villani, est de rassurer. «Il existe un imaginaire qui s'est créé avec l'intelligence artificielle, qui a enraciné le mythe du robot qui finira pas prendre son indépendance et se débarrasser des hommes, explique-t-il, en citant les films Her ou Matrix. S'il existe des dangers à l'intelligence artificielle, ceux-là sont très loin de nous.»
V / L'HOMME EST-IL UNE ESPÈCE EN VOIE DE DISPARITION ?Par Alexandre Devecchio et Aziliz Le Corre Mis à jour le 01/12/2017 FIGAROVOX/RENCONTRE - Le rôle grandissant de l'intelligence artificielle dans nos vies pose la question de la place de l'homme dans la société au cours des prochaines décennies. Laurent Alexandre, chirurgien et neurobiologiste et Jean-Marie Le Méné, président de la fondation Jérôme-Lejeune, en débattent. Les robots vont-ils supplanter les êtres humains? Ce qui n'était hier qu'un scénario de science-fiction pourrait devenir une réalité dans à peine quelques décennies avec l'avènement de l'intelligence artificielle. C'est la thèse soutenue par le chirurgien et neurobiologiste Laurent Alexandre dans son dernier livre, La Guerre des intelligences (JC Lattès). Pour Jean-Marie Le Méné, auteur de Les Premières Victimes du transhumanisme (Pierre-Guillaume de Roux) et président de la Fondation Jérôme-Lejeune, premier financeur de la recherche sur la trisomie 21, aucun logiciel ne pourra jamais imiter la complexité de l'âme humaine. Le vrai danger pour l'avenir de l'homme est la marchandisation de la vie. LE FIGARO - Laurent Alexandre, vous présentez le triomphe de l'intelligence artificielle comme inéluctable et proposez de nous y adapter. Ne faut-il pas, au contraire, résister à cette évolution? Laurent ALEXANDRE. - Les Gafa américains et Batx chinois, ce sont ces géants du numérique qui développent l'IA: des puissances économiques et technologiques qui sont à 12.000 kilomètres de chez nous. Le chinois Tencent (le T de Batx) est devenu la cinquième entreprise mondiale, avec plus 500 milliards de dollars de valeur boursière. La stratégie des bio-conservateurs est suicidaire au lieu de réfléchir aux technologies comme celles que développe Elon Musk, ils s'épuisent en des combats d'arrière-garde tels que le mariage pour tous. Il y a d'énormes sujets éthiques à traiter en priorité. Il faut construire une nouvelle morale. Cela va être compliqué car l'IA accélère le temps, bouscule les repères, pousse à l'eugénisme et à la neuro-technologie. Elon Musk pense que l'IA peut concurrencer l'intelligence humaine et se retourner contre l'homme d'ici une dizaine d'années seulement. Cela justifie, à ses yeux, de mettre des micro-processeurs dans le cerveau de nos enfants. L'IA nous fait entrer dans une guerre des intelligences, que l'on ne contrôle pas. Je suis un humaniste, je ne fais pas partie de ceux qui pensent que la technologie est nécessairement bonne. Mais l'homme 1.0 est mort, la question est maintenant de savoir quel homme 2.0 nous voulons. Jean-Marie LE MÉNÉ. - Je ne conteste pas la réalité de l'IA, mais je ne partage pas l'idée qu'il faut implanter des micro-processeurs dans le cerveau de nos enfants! Je ne crois pas au caractère inéluctable, à cette espèce de fatum antique auquel on ne pourrait apporter aucun remède. Devant les découvertes et leur exploitation technologique, on doit être capable de dire «go» ou «no go». Cela pose la question de la liberté. S'il n'y a plus de liberté, cela ne sert à rien de discuter! «La mort de la mort» est un slogan transhumaniste, mais le vrai débat doit porter sur l'allongement de la vie et le progrès de la médecine, non sur l'idéologie transhumaniste. Le transhumanisme est à la fois une idéologie et une réalité. Sur le plan économique, il y a beaucoup de choses à dire sur les Gafa, qui sont loin d'avoir une position irréprochable. Les Gafa pratiquent l'optimisation fiscale, alors qu'ils dégagent d'immenses profits privés. Sur le plan idéologique, ce sont des géants aux pieds d'argile. Le Pacs contre nature entre scientisme et marché est une idéologie qui va s'effondrer, car il propose une vision pessimiste de l'être humain réduit au rang de machine, ce qui ne correspond pas à la réalité. Les États peuvent-ils imposer des limites aux Gafa? Laurent ALEXANDRE. - Pour que l'Europe ait son mot à dire, il faudrait un renouveau technologique, militaire, économique. Aujourd'hui, face au tsunami technologico-politique de l'axe San Francisco-Pékin, nous n'avons aucune logique de puissance, militaire et géopolitique. De ce fait, le toboggan idéologique est impossible à réguler! Je considère avec la psychanalyse que le refus des limites est délétère. La volonté de certains transhumanistes de démanteler toute forme de limite, de tuer la mort, ne mènera pas les hommes au bonheur. Mais aujourd'hui, il faut se demander comment piloter et encadrer l'hubris. La difficulté est de définir une ligne rouge entre licite et illicite, entre la vision d'un Elon Musk et la vision des plus conservateurs. Nous allons vers une guerre des intelligences. Si nos enfants sont des attardés face aux autres enfants du monde qui auront été augmentés, nous serons obligés de suivre. Jean-Marie LE MÉNÉ. - Je n'ai pas de solution miracle, on ne peut pas revenir sur des dizaines d'années de néant philosophique, de déconstructivisme intellectuel. On est passé du théo-centrisme, à l'anthropo-centrisme, au bio-centrisme, puis aujourd'hui au techno-centrisme: l'homme n'est plus rien et le transhumanisme prospère sur ce vide. Le vers de Lamartine traduit bien cette idéologie: «L'homme est un dieu tombé qui se souvient des cieux.» Les transhumanistes ont la nostalgie de l'homme d'avant la Chute, mais en tirent des conclusions aberrantes: puisque l'homme est réduit à sa construction neuronale on va le réparer, c'est une sorte de «rédemption» laïque. Mais dire que l'homme doit être réparé pour être «sauvé», c'est considérer qu'il y a une solution technique à la folie des hommes. Ce qui est faux. Laurent Alexandre, vous décrivez l'école comme obsolète et prédisez sa disparation...
« Dans quelques décennies, nous accepterons les Laurent Alexandre Laurent ALEXANDRE. - L'école doit former nos enfants à ce que l'IA fait mal: la transdisciplinarité, l'esprit critique, le travail collectif, les humanités. On ne doit pas former des techniciens étroits. La philosophie, l'histoire peuvent nous permettre de défendre nos enfants face à l'IA. Cependant, l'école des cerveaux biologiques galope moins vite que l'école des cerveaux de silicium. Entre la position du missionnaire et le doctorat du petit, il faut trente ans, alors que pour dupliquer une IA, cela prend seulement un millième de seconde. On investit plus sur la formation des cerveaux de silicium que sur la formation des cerveaux biologiques. Les «éducateurs» des cerveaux de silicium gagnent cent fois plus que le professeur de collège le mieux payé au monde. Si nous n'équilibrons pas les moyens entre les deux écoles, le décalage va légitimer la neuro-technologie. Dans quelques décennies, nous accepterons les implants intra-cérébraux d'Elon Musk.
En quoi l'intelligence artificielle peut-elle être une aide en ce Jean-Marie Le Méné Jean-Marie LE MÉNÉ. - Il est absolument vain d'opposer intelligence désincarnée de l'IA et incarnation de l'intelligence des êtres humains. Cela procède du réductionnisme contemporain. Jean-Pierre Changeux et sa vision matérialiste du cerveau ne propose qu'une vision parcellaire. Qui peut prétendre détenir la vérité sur l'esprit humain? Changeux observe la câblerie du cerveau, sa vision est biologisante, mais seule, elle ne suffit pas. Le réductionnisme voudrait faire passer la science comme le seul mode d'accès à la connaissance. Pour donner une véritable définition de l'être humain, il faut aussi convoquer la poésie, la littérature, l'histoire, la philosophie, la théologie Jamais, on ne fera concurrence à Baudelaire. Cela relève du rêve, du cauchemar ou du fantasme du transhumanisme. Changeux sera plus vite oublié que Racine ne le sera! Cette vision réductionniste qui s'impose est délétère et relève d'une confusion entre qualitatif et quantitatif. Les dés sont pipés, une machine fera toujours plus quantitativement que l'homme, comme la calculette le faisait déjà. Le problème n'est pas d'augmenter l'intelligence, l'intelligence n'est pas moins performante aujourd'hui qu'à l'époque des Romains. Ce qui nous tue aujourd'hui, ce sont les passions, au sens où l'entendait Descartes, celui des vices et des vertus. Il faut diminuer les vices et augmenter les vertus. L'école est là pour former l'être humain capable de réagir avec son cur, son esprit et sa volonté. En quoi l'IA peut-elle être une aide en ce qui concerne le remords, le pardon? L'intelligence humaine est libre et non déterminée. Les bouleversements liés à l'IA vont en premier lieu toucher le travail... Laurent ALEXANDRE. - Schumpeter n'est pas encore mort. Si on avait dit aux 29.000 porteurs d'eau parisiens de 1793 que l'eau courante allait arriver, et que l'industrie de l'eau allait créer plus de 29.000 emplois, et que plus de 1000 professions allaient émerger, ils ne l'auraient pas cru. La nouveauté, c'est que la technologie remplace aujourd'hui le cerveau humain. L'accélération du temps et la concurrence du cerveau de silicium sont plus difficiles à gérer que les révolutions schumpétériennes antérieures (la vapeur, le pétrole). L'arrivée de l'IA va défavoriser les gens qui ne sont pas adaptés au monde de la data. A court terme, les gens les moins doués vont être le plus bousculés, les tensions sociales vont devenir immenses. Aux Etats-Unis, les camions Tesla, à 95% autonomes, viennent d'être inaugurés. Que va-t-on faire demain des 5 millions de chauffeurs-routiers américains? Jean-Marie LE MÉNÉ. - Comme dans toute révolution technologique et scientifique très rapide, il va y avoir de grands bouleversements. Ce n'est pas la première fois, et ce n'est pas choquant. Certains diagnostics faits par ordinateur, la ligne de métro 14 sans conducteur, j'y suis favorable. Mais l'arbre cache la forêt. Le vrai problème, c'est la marchandisation de la vie. La vie est devenue une mine à exploiter. La conséquence? L'homme est en miettes. Et le transhumanisme ajoute: il est en miettes, mais ses miettes valent de l'or. Le transhumanisme est un esclavage moderne qui vend l'homme, non plus sur pied, mais en pièces détachées, ce qui rapporte davantage! Cette marchandisation de la vie fait des victimes. Faute d'être capables de fabriquer des hommes augmentés, nous supprimons déjà des hommes diminués. L'incroyable découverte scientifique, qui a vu que la femme enceinte avait des traces du génome de son enfant dans le sang, a été utilisée pour détecter la trisomie 21. Le marché explique aux mères qu'il n'est pas souhaitable de faire naître des «mongoliens» et les bio-techs engrangent des milliards grâce à ces nouvelles technologies, c'est une économie de rente qui est indigne. Aujourd'hui, 95,5 % des cas de diagnostic positif de trisomie 21 pendant la période prénatale conduisent à une interruption de grossesse. Le transhumanisme va-t-il de pair avec l'eugénisme? Laurent ALEXANDRE. - Le transhumanisme sera eugéniste par la sélection et la modification embryonnaire. Les transhumanistes souhaitent la création de superbébés capables de résister à l'IA. Ils veulent aussi guérir la trisomie 21. Oui, les transhumanistes sont eugénistes. Le mot transhumaniste a été inventé en 1957 par le frère d'Aldous Huxley, pour remplacer le terme « eugénisme », devenu péjoratif après la guerre... Jean-Marie LE MÉNÉ. - Le transhumanisme fait des victimes chez les trisomiques plus qu'il ne les guérit. L'eugénisme négatif est déjà en place dans la PMA, qui élimine les mauvais embryons, et on va aller beaucoup plus loin, puisqu'on commence à créer des embryons à trois ADN. La PMA est une réponse non médicale donnée par des gens en blouse blanche à un problème social. Je ne jette pas le discrédit sur l'enfant né par PMA. Mais beaucoup de transgressions passent sous pavillon de complaisance médicale, c'est une erreur de méthode. Laurent ALEXANDRE. - La médecine va muter, il ne faut pas l'empêcher de devenir transhumaniste. Même chez les catholiques les plus convaincus, la plupart des gens aimeraient vivre en bonne santé plus de 125 ans. La transhumanisation des esprits a gagné: pour moins souffrir, moins vieillir et moins mourir, la plupart des gens accepteront les technologies les plus transgressives. En tant que médecin, à la veille de mourir, j'ai vu des gens capables d'accepter des traitements lourds pour gagner quelques minutes. Pour gagner cinquante ans, les gens seront prêts à tout accepter. La régulation éthique va être difficile. Jean-Marie LE MÉNÉ. - Quand ces questions éthiques s'adresseront aux législateurs, il faudra se demander ce que l'on fait. Le risque est de tout accepter au nom du progrès technique synonyme de progrès moral. Laurent ALEXANDRE. - Le billet d'avion ne va pas augmenter. Donc, on prendra l'avion pour aller faire des bébés sur la côte Pacifique et contourner la loi française. Aujourd'hui, les législations nationales n'ont aucun sens. Il faut se demander quelle régulation mondiale mettre en place, sinon nous allons assister à un nomadisme transhumaniste. Jean-Marie LE MÉNÉ. - L'égalité d'accès à l'eugénisme, à la PMA, à la GPA, qui met les vices privés des riches à la portée des pauvres, est une déshumanisation. Si les gens deviennent immortels, il faudra nécessairement arrêter de faire des enfants. Ce serait la fin de l'humanité. Laurent ALEXANDRE. - Jeff Bezos a dit que pour coloniser notre simple galaxie il fallait 1000 milliards d'êtres humains. Il y a donc du boulot pour plus de 7 milliards d'hommes!On n'est pas dans Soleil vert et les dystopies des années 70. On n'a pas de risque de surpopulation en vue, sauf si on raisonne comme en 1965 Jean-Marie LE MÉNÉ. - Vous pouvez nous raconter des histoires de colonisation de la planète Mars, mais Elon Musk sera en prison avant, et ses implants finiront par rouiller !
VI / DEEP LEARNING ou APPRENTISSAGE PROFOND (Jean-Gabriel Ganascia*)Publié dans Encyclopædia Universalis le 09/12/2017 *Jean-Gabriel Ganascia est professeur à l'université Pierre-et-Marie-Curie, où il mène des recherches sur l'intelligence artificielle au Laboratoire informatique de Paris 6 (LIP6). Il est président du comité national d'éthique du CNRS et a publié divers ouvrages dont le précurseur, L'Âme machine, au Seuil en 1990. Apprentissage profond, deep learning en anglais, ou encore « rétropropagation de gradient » ces termes, quasi synonymes, désignent des techniques dapprentissage machine (machine learning), une sous-branche de lintelligence artificielle qui vise à construire automatiquement des connaissances à partir de grandes quantités dinformation. Les succès quenregistrent ces techniques leur confèrent un rôle essentiel dans le monde contemporain, où elles apparaissent être à lorigine dinnombrables applications pratiques (reconnaissance des visages et de la parole, voiture autonome, etc.). Même si elles semblent constituer un renouveau, voire une révolution de lintelligence artificielle, les principes sur lesquels elles reposent sont anciens. Très tôt, avant même lavènement de lintelligence artificielle discipline ayant vu le jour officiellement en 1956 , avec la cybernétique courant de réflexion créé en 1946 à lissue des premières tentatives de simulation du vivant et du cerveau aux moyens de flux dinformation et larticle séminal dAlan Turing (1912-1954) sur lintelligence des machines (1950), il apparut nécessaire de développer des techniques dapprentissage machine afin que les ordinateurs soient capables de sadapter aux évolutions du monde extérieur, de tirer parti de leurs propres expériences et de se reprogrammer automatiquement. Ces techniques se développèrent dès les années 1940 et 1950, puis se perfectionnèrent dans les années 1980, avant de connaître un nouvel essor à partir de 2010. Différents types dapprentissage machine On distingue usuellement au moins trois types dapprentissage machine :
Lapprentissage par renforcement suppose que, lors de ses pérégrinations, un agent (entité qui agit de façon autonome) reçoit des récompenses ou des punitions en fonction des actions quil exécute. Il sagit alors détablir automatiquement, à partir des retours dexpérience, des stratégies dactions des agents qui maximisent lespérance de récompenses. Ces techniques développées depuis la fin des années 1950 ont fait leurs preuves à la fois dans le domaine des jeux et dans celui de la robotique. Réseaux de neurones formels Lhistoire des réseaux de neurones formels remonte à 1943, avant même la construction des premiers ordinateurs électroniques, alors que lon commence seulement à fabriquer des calculateurs électromécaniques au moyen de relais téléphoniques. Lidée de dresser un parallèle entre ces machines et le cerveau humain traverse les pensées du mathématicien américain Walter Pitts (1923-1969) qui, âgé dà peine vingt ans à lépoque, écrit avec le neurophysiologiste américain Warren McCulloch (1898-1969), un article intitulé « A logical calculus of immanent ideas in nervous activity »(« Un calculateur logique des idées immanentes dans l'activité nerveuse »). Ils y établissent une analogie entre, dun côté, ces relais téléphoniques et les cellules du cerveau les neurones et, dun autre côté, les connexions entre ces relais téléphoniques et les liaisons dites synaptiques qui relient les neurones entre eux. Pour résumer ces analogies, on appelle « neurones formels » ces relais téléphoniques, et « synapses formelles » leurs connexions. Afin de mimer les phénomènes biologiques dits de « plasticité synaptique » qui affectent la plus ou moins grande connectivité de linflux nerveux entre les neurones et qui se trouvent à lorigine de lapprentissage physiologique, on module les synapses formelles dun nombre plus ou moins grand que lon appelle le « poids synaptique » et qui joue sur lintensité de la transmission dinformation entre les neurones formels. Outre la description de cette analogie, McCulloch et Pitts démontrent quen organisant ces neurones formels en trois couches, et en connectant les neurones formels de chaque couche avec des neurones formels de la couche suivante par des synapses formelles dont on ajuste correctement les poids synaptiques, on peut réaliser nimporte quelle fonction logique. Ce théorème duniversalité est essentiel. Apprentissage des poids synaptiques Toutefois, même si de tels réseaux de neurones formels organisés en trois couches permettent de réaliser nimporte quelle fonction logique, il convient de configurer les liaisons synaptiques entre les neurones formels, autrement dit dassocier à chacune de ces liaisons un nombre, ce qui serait extrêmement fastidieux, voire inextricable manuellement, si lon ne disposait pas de procédures dapprentissage. On cherche donc, dès le début des années 1950, à élaborer des techniques pour établir automatiquement les pondérations des liaisons entre les synapses formelles en mimant les phénomènes dapprentissage neuronal. Pour cela, on recourt à lapprentissage supervisé en donnant à une machine des exemples étiquetés et en faisant en sorte quelle ajuste automatiquement les poids des synapses formelles pour retrouver automatiquement les étiquettes des exemples. À titre dillustration, si lon donne des formes géométriques à la machine, on lui indique pour chacune quil sagit dun losange, dun carré, dun pentagone, dun cercle, dune ellipse, etc. Et on espère quelle sera ensuite en mesure de distinguer automatiquement ces types de formes, après lui avoir donné suffisamment dexemples ainsi étiquetés. Le perceptron En 1957, un psychologue américain, Frank Rosenblatt (1928-1971), met au point un algorithme dapprentissage pour des réseaux de neurones formels à deux couches quil appelle des « perceptrons », car ils reproduisent selon lui les capacités de perception des rétines. Or, si Walter Pitts avait bien montré que les réseaux de neurones à trois couches pouvaient réaliser nimporte quelle fonction logique, il nen va pas de même pour les réseaux à deux couches, tant sen faut. En 1969, Marvin Minsky (1927-2016) démontre que la procédure dapprentissage décrite par Frank Rosenblatt napprend que des fonctions très simples, dites linéairement séparables. Ainsi une fonction logique aussi élémentaire quun « ou » exclusif qui vaut 1 si lune de ses deux entrées est égale à 1 et lautre à 0, et 0 sinon ne saurait être réalisée, et a fortiori apprise, sur un perceptron à deux couches. Rétropropagation de gradient Il a fallu attendre le début des années 1980 pour que des mathématiciens généralisent le principe dapprentissage des perceptrons et conçoivent, en sinspirant de principes mathématiques issus de la physique statistique, une procédure capable dapprendre sur des réseaux de neurones à plusieurs couches. En termes techniques, on appelle cette procédure la rétropropagation du gradient. Quelques années plus tard, dautres mathématiciens cherchèrent à déterminer les fondements théoriques de cet apprentissage avec, entre autres, la théorie statistique de lapprentissage. Cela les conduisit à développer dautres techniques dapprentissage supervisé inspirées des principes mathématiques de lapprentissage sur les réseaux de neurones formels, comme ce que lon appelle les machines à vecteurs de support (support vectormachines) et les machines à noyaux (kernel machines), qui furent bien souvent utilisées dans les années 1990 et au début des années 2000 pour effectuer de lapprentissage supervisé dans de multiples champs dapplications comme la reconnaissance de caractères manuscrits, de visages ou de la parole.
Ce dessin représente un réseau de neurones formels avec n entrées, p sorties et j couches. Succès de lapprentissage profond En parallèle, des chercheurs comme le Français Yann Le Cun continuent avec ténacité à perfectionner lapprentissage sur des réseaux de neurones formels. Pour cela, ils recourent à la grande puissance de calcul des machines, à un très grand nombre de liaisons synaptiques de lordre de plusieurs centaines de milliers, voire de quelques millions et surtout à de multiples couches de neurones formels entre 10 et 15 dont certaines restent « figées » en ce sens que les poids des liaisons synaptiques les connectant à dautres couches y demeurent fixes tandis que dautres évoluent par apprentissage. En raison de cette multiplicité de couches, on caractérise ces techniques comme de lapprentissage profond. En 2010, la comparaison des capacités dapprentissage du deep learning avec celles des autres techniques dapprentissage supervisé, en particulier des machines à vecteurs de support et des machines à noyaux, sur des tâches de reconnaissance dimages, a montré que les techniques dapprentissage profond apprennent de façon efficace sur de très grandes quantités dexemples tout en surpassant notablement les performances des autres techniques. Cela explique leur popularité actuelle. Applications de lapprentissage profond Ainsi, en entraînant par apprentissage profond des algorithmes de reconnaissance faciale sur 200 millions dimages de visages, le système FaceNet de la société Google obtient un taux didentification correcte de 99,63 p. 100. Le nombre dapplications potentielles de lapprentissage profond est immense. Cest la raison pour laquelle cette méthode dapprentissage sest imposée ces dernières années. Ces techniques permettent daméliorer la reconnaissance dimages en général et de créer des applications pour la biométrie (reconnaissance dempreintes digitales ou diris), la médecine (avec, par exemple, le diagnostic de mélanomes à partir dimages de grains de beauté et lanalyse de radiographies), la voiture autonome (reconnaissance dobstacles, de véhicules, de panneau de signalisation, etc.), par exemple. Elles permettent aussi daméliorer la reconnaissance de la parole, avec des systèmes comme Siri, ou le profilage des individus, pour la recommandation et la publicité ciblée, ou encore les logiciels de jeux, comme on la vu en mars 2016 lorsque le programme informatique AlphaGo la emporté sur Lee Sedol, lun des meilleurs joueurs mondiaux de go, en ayant fait appel à de lapprentissage profond et à de lapprentissage par renforcement. Enfin, et surtout, les techniques dapprentissage supervisé aident à anticiper le futur sur la base du passé, ce qui permet dévaluer, avec une précision inconnue auparavant, les risques potentiels dinvestissements, daccidents, de maladies, etc. Or, la prédiction aide à prendre des décisions en calculant les conséquences les plus probables de chaque action. De ce fait, les systèmes prédictifs recourant à de lapprentissage profond jouent un rôle de plus en plus important dans le monde contemporain où on les utilise pour trancher dans les situations délicates à la place des hommes. Cest ce qui conduit certains à parler aujourdhui de « gouvernementalité algorithmique » pour évoquer, et bien souvent déplorer, une politique qui éluderait toute responsabilité en confiant à des machines, entraînées par apprentissage profond sur dimmenses masses de données, le soin de décider. Limites de lapprentissage profond En dépit des succès impressionnants quils enregistrent et des bouleversements sociaux quils induisent via les applications qui en sont faites et qui permettent de remplacer beaucoup dactivités routinières , ces techniques souffrent dun certain nombre de limitations qui en restreignent les potentialités. Les premières limitations tiennent à la grande quantité dexemples nécessaires pour obtenir de très bonnes performances et au besoin détiqueter ces exemples. Or, létiquetage requiert une intervention humaine très coûteuse, dautant plus que les exemples doivent être massifs (plusieurs centaines de milliers, voire plusieurs millions dinstances). Il existe aussi une limitation intrinsèque à lapprentissage supervisé qui tient au langage de description des exemples : celui-ci demeure figé et ne peut saccroître automatiquement. Or, ce que le philosophe américain et historien des sciences Thomas Kuhn (1922-1996) appelle des « révolutions scientifiques », ou ce que le Français Gaston Bachelard (1884-1962) décrit comme des ruptures épistémologiques, passe par lintroduction de nouvelles notions qui viennent bousculer les conceptions anciennes et changer les systèmes de représentation comme lont fait par exemple, en leur temps, le passage du système géocentrique (Terre au centre de lUnivers et immobile) de Ptolémée au système héliocentrique de Copernic (Soleil au centre de lUnivers et immobile) ou celui de la représentation newtonienne du temps à celle dEinstein et de la relativité. Pour reprendre les termes de Thomas Kuhn, si les techniques dapprentissage profond permettent dautomatiser en partie la « science normale », elles sont incapables de procéder à des changements de paradigmes. BIBLIOGRAPHIE W. MC CULLOCH & W. PITTS, « A logical calculus of the ideas immanent in neuron activity », in Bulletin of MathematicalBiophysics, 1943 Y. LECUN, Y. BENGIO & G. HINTON, « Deep learning », in Nature, vol. 521, 436-444, 2015 M. MINSKY & S. PAPERT, Perceptrons, MIT Press, Cambridge (Mass.), 1969 F. ROSENBLATT, « The perceptron: A probabilistic model for information storage and organization in the brain », in Psychological Review, vol. 65,
VII / EXTRAIT DE LES ROBOTS SONT LES VÉRITABLES INTERLOCUTEURS DE LA BCE ( Jean-Pierre Robin)Publié le 09/12/2017 dans l'édition du Figaro ANALYSE - À une semaine d'une conférence de presse de Mario Draghi, il faut prendre conscience que la BCE ne s'adresse plus à des interlocuteurs de chair et de sang. Mais à qui s'adressera-t-il au juste? Il y aura in situ, à ses pieds, une trentaine de journalistes ECB watchers patentés, les observateurs établis à Francfort que Christine Graeff, la directrice générale de la communication de la BCE, couve de son regard d'airain comme une canne ses canetons. Et puis, disséminés dans les salles de marché de par le monde, une trentaine de milliers de financiers écouteront en direct la bonne parole. Cette foule solitaire des traders, rationnels et émotifs, on la taxe souvent de moutons de Panurge car chacun d'entre eux préfère «avoir tort avec le marché que raison tout seul». Est-ce là le vrai public de la BCE? Plus aujourd'hui. Définir les décisions de politique monétaire à la lumière de l'intelligence artificielle
Le juge de paix ultime, le jury de l'opinion publique en dernier ressort, n'a pas de nom, il n'a pas de visage: ce sont désormais des algorithmes, des robots. Sachons gré à Benoît Curé, l'un des six membres du directoire de la BCE, de nous en avoir fait la révélation récemment lors d'un colloque à Paris. Le Français, qui au sein de la BCE est responsable des marchés et de l'international, salue comme un fait objectif (une fatalité?) l'importance grandissante des technologies dont les hommes sont à la fois les utilisateurs et les serviteurs complaisants. «Nous pouvons être un jour tentés de définir nos décisions de politique monétaire et nos discours à la lumière de la compréhension et de l'interprétation qui seront celles des algorithmes de l'intelligence artificielle», a-t-il avoué mezza voce lors de cette réunion tenue à la Banque de France.
« Si vous avez compris ce que je vous ai dit, c'est que A.Greenspan, le président de la Fed américaine, en 1990
Ces technologies constituent certes un progrès manifeste ; elles rendent les décisions des professionnels plus efficaces et plus fiables, elles aident leur contrôle par les autorités publiques. Les banques centrales sont constamment aux aguets des réactions des investisseurs
Cette superbe n'est plus de mise aujourd'hui. Au contraire, les banquiers centraux ne jurent plus que par la transparence car ils entendent modeler les anticipations des investisseurs. Dans un monde d'incertitudes et de crises, ils n'ont de cesse de vouloir guider les marchés, ce qu'ils appellent la forward guidance (« conseils d'avenir », un pléonasme assez sot quand on y songe !). [1] Pendant la Seconde Guerre mondiale, Bletchley Park est le principal site de décryptage du Royaume-Uni, le Government Code and Cypher School (GC&CS), où les chiffres et les codes de plusieurs pays de l'Axe sont déchiffrés, dont les plus importants, ceux de la machine allemande Enigma et de la machine de Lorenz. Bletchley Park héberge alors une station secrète d'interception radio, mais aussi une station d'émission. L'interception est rapidement déplacée vers d'autres lieux dont la réception est meilleure. La plupart des récepteurs furent réinstallées ailleurs. Le nom de guerre de la station est Station X, London Signals Intelligence Centre et Communications Headquarters.
Date de création : 17/12/2017 @ 14:31 Réactions à cet article
|