From 0d0faf4799e39918a59a38f4265528e2e17db9da Mon Sep 17 00:00:00 2001 From: silviaC Date: Sat, 20 Jul 2024 02:02:38 +0200 Subject: [PATCH] adding ref on brooks, bill joy, ganascia --- bibliography.bib | 47 ++++++++++++++++++++++++++--------------- sections/conclusion.tex | 47 +++++++++++++++++------------------------ 2 files changed, 49 insertions(+), 45 deletions(-) diff --git a/bibliography.bib b/bibliography.bib index 67fe53e..42d6636 100644 --- a/bibliography.bib +++ b/bibliography.bib @@ -1,3 +1,14 @@ +@article{warwick2004thought, + title={Thought communication and control: a first step using radiotelegraphy}, + author={Warwick, Kevin and Gasson, Mark and Hutt, Ben and Goodhew, Iain and Kyberd, Peter and Schulzrinne, Henning and Wu, Xiaotao}, + journal={IEE Proceedings}, + volume={151}, + number={3}, + pages={185-189}, + year={2004}, + +} + @book{rey2018leurre, title={Leurre et malheur du transhumanisme}, author={Rey, Olivier}, @@ -117,7 +128,7 @@ } @article{joy2001pourquoi, - title={Pourquoi le futur n'a pas besoin de nous}, + title={Pourquoi le futur n'a pas besoin de nous?}, author={Joy, Bill}, journal={Revue des Deux Mondes}, pages={92-99}, @@ -188,29 +199,31 @@ year={2024}, publisher={John Wiley \& Sons} } -title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?}, - author={Ganascia, Jean-Gabriel}, - year={2017}, - publisher={M{\'e}dia Diffusion} -} -@book{bar - @book{leroi1971evolution, - title={Evolution et techniques}, - author={Leroi-Gourhan, Andr{\'e}}, - volume={1}, - year={1971}, - publisher={A. Michel} - } - -@book{ganascia2017mythe, - rat2023our, + +@book{barrat2023our, title={Our final invention: Artificial intelligence and the end of the human era}, author={Barrat, James}, year={2023}, publisher={Hachette UK} } +@book{leroi1971evolution, + title={Evolution et techniques}, + author={Leroi-Gourhan, Andr{\'e}}, + volume={1}, + year={1971}, + publisher={A. Michel} +} + +@book{ganascia2017mythe, +title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?}, +author={Ganascia, Jean-Gabriel}, +year={2017}, +publisher={M{\'e}dia Diffusion} +} + + @incollection{kurzweil2005singularity, title={The singularity is near}, author={Kurzweil, Ray}, diff --git a/sections/conclusion.tex b/sections/conclusion.tex index 80957ca..9d16a4c 100644 --- a/sections/conclusion.tex +++ b/sections/conclusion.tex @@ -215,43 +215,34 @@ Ainsi intégrer avec succès de l'IA dans des contextes de prise des décisions \cite{littman2022gathering} \end{quote} - - +Une alternative à la rhétorique du transhumanisme et de la \gls{Singularité} est le livre \textit{Our Final Invention: Artificial Intelligence and the End of the Human Era} (2013) du réalisateur américain James Barrat. Pour tracer une histoire de l'IA et peser les pour et les contres de ses applications, Barrat organise des entretiens avec les experts dans la matière, dont Kurweil. Son avis est tranchant, comparant notre rapport à l'IA, à celui des humains face à un ouragan: \begin{quote} -``Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure qu’une machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. C’est possible, mais loin d’être garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don d’être créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. MAchines are amoral, and it is dangerous to assume otherwise.” }.” +Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure qu’une machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. C’est possible, mais loin d’être garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don d’être créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. Machines are amoral, and it is dangerous to assume otherwise.” }.” \cite{barrat2023our} \end{quote} - -Sur son blog, Rodney Brooks s'est engagé a faire des prédictions sur les avancées technologiques d'ici 2050 lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/} - -Il s'agit de ma sixième mise à jour annuelle sur la façon dont mes prédictions datées du 1er janvier 2018 concernant (1) les voitures autonomes, (2) la robotique, l'IA et l'apprentissage automatique, et (3) les voyages spatiaux humains, ont tenu le coup. J'ai alors promis de les revoir chaque année en début d'année jusqu'en 2050 (juste après mon 95e anniversaire), trente-deux ans au total. L’idée est de me tenir responsable de ces prédictions. Dans quelle mesure avais-je raison ou tort ? - -Concernant les robots: -Un robot qui semble aussi intelligent, aussi attentif et aussi fidèle qu'un chien. not earlier than 2048 -C’est bien plus difficile que la plupart des gens ne l’imaginent : beaucoup pensent que nous y sommes déjà ; Je dis que nous n'en sommes pas du tout là. -Un robot qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains. pas de son vivant +Sur son blog, Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks r``eprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conforme aux intervalles de temps qu'il a annoncé. +Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant. -\cite{ganascia2017mythe} -Faut-il craindre l’intelligence artificielle ? Grande question, et d’abord parce qu’elle revient sans cesse, depuis les années 60 environ, -C’est d’ailleurs par un tableau de ces inquiétudes que Jean-Gabriel Ganascia ouvre son livre : c’est par exemple, Stephen Hawking, le célèbre physicien et cosmologiste britannique, qui lance un cri d’alarme en 2014 contre les technologies susceptibles de devenir incontrôlables, c’est Kevin Warwick, cybernéticien qui se fait connaître du grand public en 1998 lorsqu’il exhibe à la presse la puce de silicium pour montrer que l’on peut l’introduire sous la peau et transformer ainsi le corps en organisme cybernétique, ou c’est encore le chercheur belge, Hugo de Garis, qui va jusqu’à imaginer une guerre mondiale et fratricide entre cosmits , détenteurs d’une intelligence artificielle, et les terrans qui veulent conserver à tout prix l’homme à sa suprématie. -À l’aube du millénaire, Bill Joy, le cofondateur de la société Sun-Microsystem, prétendit sonner le tocsin en faisant paraître un article retentissant intitulé : \textit{Pourquoi le futur n’a pas besoin de nous ?} (2000) +Si \cite{ganascia2017mythe} note que les craintes de l'IA reviennent sans cesse depuis plus de 60 années, Jean-Gabriel Ganascia propose un état des lieux de différents chercheurs qui se sont pris à la question, sans y pouvoir y trancher. Il évoque Stephen Hawking, célèbre physicien et cosmologiste britannique, qui lance un cri d’alarme contre les technologies susceptibles de devenir incontrôlables en 2014 . Puis à l'opposé, Kevin Warwick et son \textit{Project Cybrog} commencé en 1998, où il connecte son système nerveux (et plus tard celui de son épouse) à des pouces pour augmenter ses capacités physiques et ses moyens de communication\cite{warwick2004thought}. +Un autre exemple pertinent cité par Ganascia est l'article intitulé : \textit{Pourquoi le futur n’a pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} : \begin{quote} - À ce jour, quelle est au juste la gravité [du] danger qui pèse sur nous? [...] Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. [...] Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à - l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir [...] ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle. - + ``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...)Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}.(...)Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à + l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir(...); mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.” \cite{joy2001pourquoi} \end{quote} -Avant et après lui, bien d’autres qui, comme lui, contribuèrent à la conception des technologies de l’information et bâtirent l’empire qu’elles ont aujourd’hui sur le monde, font maintenant mine de tinter le glas funèbre pour éveiller nos consciences assoupies… Même si, de l’un à l’autre, la chanson et l’air diffèrent quelque peu, le refrain demeure identique : nous courrons un grand risque avec le déploiement massif des technologies, car un précipice s’ouvre devant nous. Ce qui ici, dans la formulation de Bill Joy, retient notre attention tient à la référence explicite à un futur qui n’aurait pas, voire plus, besoin de nous. Cette invocation du futur fait écho à d’autres, par exemple au titre de l’ouvrage de Moravec The Future of Robot and Human Intelligence ou aux noms de deux instituts de prospective très engagés, l’Institut du futur de la vie8, qui fit paraître en janvier 2015 une lettre ouverte signée des spécialistes d’intelligence artificielle inquiets des conséquences du développement de leur discipline, et l’Institut sur le futur de l’humanité d’Oxford7 dont le seul intitulé suffit à indiquer les orientations transhumanistes. -Le futur n’aurait – ou n’aura – plus besoin de nous ! Prise au pied de la lettre, et sans même en discuter la cause, l’affirmation déroute : de quel futur parle-t-on … -Critique des proche d’eugénisme -Retrace l'apparition du terme de \textit{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant des propos de John von Neumann dans ses équations mathématiques. -puis Isaac Asimov qui dans son nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Question \textit{Comment peut-on inverser l'entropie ?} posé à Multivac. -ais Jean-Gabriel Ganascia s’attache à démontrer que :1) Le terme même d’IA est abusivement utilisé par les promoteurs de la singularité et que les capacités des ordinateurs, aussi impressionnantes soient-elles, ne peuvent par principe leur conférer ces pouvoirs espérés ou redoutés.2) Loin d’être neuve, la perspective de la singularité recycle de vieilles idéologies gnostiques et millénaristes, rénovées par un habillage technofuturiste, tout en étant sous-tendue par les stratégies de communication mercantiles des multinationales de l’informatique.Voici un essai critique et concis sur ce thème à grand retentissement public par l’un des meilleurs experts des humanités numériques. -les prophéties à propos de la Singularité reposent sur une extrapolation infondée de la loi de Moore, une épistémologie aporétique (à la fois matérialiste et dualiste dans ses prémisses) et, plus encore, sur un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique. -une perspective transhumaniste ou catastrophiste (non éclairée et dystopique), lesquelles versions se sont substituées au fil du temps au premier (concept -La quesion de l'ethique des machines a été abordé dés 2006\cite{anderson2007machine} +Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui n’aurait plus besoin des humains. Ganascia évoque à son tour la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée début 2015 par une poignée des spécialistes d’intelligence artificielle inquiets des conséquences du développement de leur discipline. + + +Entre autre, Ganascia attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant à son tour des propos de John von Neumann concernant ses équations mathématiques. Il évoque également Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Ainsi les chercheurs de Asimov posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac. + +Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia s’attache à démontrer comment la perspective de la \gls{Singularité} recycle de vieilles idéologies gnostiques et millénaristes, dans une perspective techno-futuriste marquée par les stratégies de communication mercantiles des multinationales de l’informatique. + +Ainsi les prophéties à propos de la singularité reposent sur une extrapolation infondée de la loi de Moore, mélangés avec un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique. + + +Il note également que la question de l’éthique des machines est abordée pour lui, dés 2006\cite{anderson2007machine}. \cite{nath2020problem} L’IA ou l’éthique des machines s’intéresse au comportement des machines envers les utilisateurs humains et peut-être aussi à d’autres machines, ainsi qu’à l’éthique de ces interactions. Le but ultime de l’éthique des machines, selon les scientifiques de l’IA, est de créer une machine qui elle-même suit un principe éthique idéal ou un ensemble de principes ; c'est-à-dire qu'il est guidé par ce ou ces principes dans les décisions qu'il prend sur les lignes d'action possibles qu'il pourrait prendre. Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisions et des actions volontaires. La notion d’esprit est au cœur de notre pensée éthique, et cela est dû au fait que l’esprit humain est conscient de lui-même, et c’est une propriété qui manque encore aux machines.