adding ref on brooks, bill joy, ganascia

This commit is contained in:
silviaC 2024-07-20 02:02:38 +02:00
parent b00e7d663b
commit 0d0faf4799
2 changed files with 49 additions and 45 deletions

View File

@ -1,3 +1,14 @@
@article{warwick2004thought,
title={Thought communication and control: a first step using radiotelegraphy},
author={Warwick, Kevin and Gasson, Mark and Hutt, Ben and Goodhew, Iain and Kyberd, Peter and Schulzrinne, Henning and Wu, Xiaotao},
journal={IEE Proceedings},
volume={151},
number={3},
pages={185-189},
year={2004},
}
@book{rey2018leurre,
title={Leurre et malheur du transhumanisme},
author={Rey, Olivier},
@ -117,7 +128,7 @@
}
@article{joy2001pourquoi,
title={Pourquoi le futur n'a pas besoin de nous},
title={Pourquoi le futur n'a pas besoin de nous?},
author={Joy, Bill},
journal={Revue des Deux Mondes},
pages={92-99},
@ -188,29 +199,31 @@
year={2024},
publisher={John Wiley \& Sons}
}
title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?},
author={Ganascia, Jean-Gabriel},
year={2017},
publisher={M{\'e}dia Diffusion}
}
@book{bar
@book{leroi1971evolution,
title={Evolution et techniques},
author={Leroi-Gourhan, Andr{\'e}},
volume={1},
year={1971},
publisher={A. Michel}
}
@book{ganascia2017mythe,
rat2023our,
@book{barrat2023our,
title={Our final invention: Artificial intelligence and the end of the human era},
author={Barrat, James},
year={2023},
publisher={Hachette UK}
}
@book{leroi1971evolution,
title={Evolution et techniques},
author={Leroi-Gourhan, Andr{\'e}},
volume={1},
year={1971},
publisher={A. Michel}
}
@book{ganascia2017mythe,
title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?},
author={Ganascia, Jean-Gabriel},
year={2017},
publisher={M{\'e}dia Diffusion}
}
@incollection{kurzweil2005singularity,
title={The singularity is near},
author={Kurzweil, Ray},

View File

@ -215,43 +215,34 @@ Ainsi intégrer avec succès de l'IA dans des contextes de prise des décisions
\cite{littman2022gathering}
\end{quote}
Une alternative à la rhétorique du transhumanisme et de la \gls{Singularité} est le livre \textit{Our Final Invention: Artificial Intelligence and the End of the Human Era} (2013) du réalisateur américain James Barrat. Pour tracer une histoire de l'IA et peser les pour et les contres de ses applications, Barrat organise des entretiens avec les experts dans la matière, dont Kurweil. Son avis est tranchant, comparant notre rapport à l'IA, à celui des humains face à un ouragan:
\begin{quote}
``Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. MAchines are amoral, and it is dangerous to assume otherwise.” }.”
Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. Machines are amoral, and it is dangerous to assume otherwise.” }.”
\cite{barrat2023our}
\end{quote}
Sur son blog, Rodney Brooks s'est engagé a faire des prédictions sur les avancées technologiques d'ici 2050 lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}
Il s'agit de ma sixième mise à jour annuelle sur la façon dont mes prédictions datées du 1er janvier 2018 concernant (1) les voitures autonomes, (2) la robotique, l'IA et l'apprentissage automatique, et (3) les voyages spatiaux humains, ont tenu le coup. J'ai alors promis de les revoir chaque année en début d'année jusqu'en 2050 (juste après mon 95e anniversaire), trente-deux ans au total. Lidée est de me tenir responsable de ces prédictions. Dans quelle mesure avais-je raison ou tort ?
Concernant les robots:
Un robot qui semble aussi intelligent, aussi attentif et aussi fidèle qu'un chien. not earlier than 2048
Cest bien plus difficile que la plupart des gens ne limaginent : beaucoup pensent que nous y sommes déjà ; Je dis que nous n'en sommes pas du tout là.
Un robot qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains. pas de son vivant
Sur son blog, Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks r``eprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conforme aux intervalles de temps qu'il a annoncé.
Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant.
\cite{ganascia2017mythe}
Faut-il craindre lintelligence artificielle ? Grande question, et dabord parce quelle revient sans cesse, depuis les années 60 environ,
Cest dailleurs par un tableau de ces inquiétudes que Jean-Gabriel Ganascia ouvre son livre : cest par exemple, Stephen Hawking, le célèbre physicien et cosmologiste britannique, qui lance un cri dalarme en 2014 contre les technologies susceptibles de devenir incontrôlables, cest Kevin Warwick, cybernéticien qui se fait connaître du grand public en 1998 lorsquil exhibe à la presse la puce de silicium pour montrer que lon peut lintroduire sous la peau et transformer ainsi le corps en organisme cybernétique, ou cest encore le chercheur belge, Hugo de Garis, qui va jusquà imaginer une guerre mondiale et fratricide entre cosmits , détenteurs dune intelligence artificielle, et les terrans qui veulent conserver à tout prix lhomme à sa suprématie.
À laube du millénaire, Bill Joy, le cofondateur de la société Sun-Microsystem, prétendit sonner le tocsin en faisant paraître un article retentissant intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000)
Si \cite{ganascia2017mythe} note que les craintes de l'IA reviennent sans cesse depuis plus de 60 années, Jean-Gabriel Ganascia propose un état des lieux de différents chercheurs qui se sont pris à la question, sans y pouvoir y trancher. Il évoque Stephen Hawking, célèbre physicien et cosmologiste britannique, qui lance un cri dalarme contre les technologies susceptibles de devenir incontrôlables en 2014 . Puis à l'opposé, Kevin Warwick et son \textit{Project Cybrog} commencé en 1998, où il connecte son système nerveux (et plus tard celui de son épouse) à des pouces pour augmenter ses capacités physiques et ses moyens de communication\cite{warwick2004thought}.
Un autre exemple pertinent cité par Ganascia est l'article intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} :
\begin{quote}
À ce jour, quelle est au juste la gravité [du] danger qui pèse sur nous? [...] Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. [...] Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à
l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir [...] ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.
``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...)Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}.(...)Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à
l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir(...); mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.”
\cite{joy2001pourquoi}
\end{quote}
Avant et après lui, bien dautres qui, comme lui, contribuèrent à la conception des technologies de linformation et bâtirent lempire quelles ont aujourdhui sur le monde, font maintenant mine de tinter le glas funèbre pour éveiller nos consciences assoupies… Même si, de lun à lautre, la chanson et lair diffèrent quelque peu, le refrain demeure identique : nous courrons un grand risque avec le déploiement massif des technologies, car un précipice souvre devant nous. Ce qui ici, dans la formulation de Bill Joy, retient notre attention tient à la référence explicite à un futur qui naurait pas, voire plus, besoin de nous. Cette invocation du futur fait écho à dautres, par exemple au titre de louvrage de Moravec The Future of Robot and Human Intelligence ou aux noms de deux instituts de prospective très engagés, lInstitut du futur de la vie8, qui fit paraître en janvier 2015 une lettre ouverte signée des spécialistes dintelligence artificielle inquiets des conséquences du développement de leur discipline, et lInstitut sur le futur de lhumanité dOxford7 dont le seul intitulé suffit à indiquer les orientations transhumanistes.
Le futur naurait ou naura plus besoin de nous ! Prise au pied de la lettre, et sans même en discuter la cause, laffirmation déroute : de quel futur parle-t-on …
Critique des proche deugénisme
Retrace l'apparition du terme de \textit{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant des propos de John von Neumann dans ses équations mathématiques.
puis Isaac Asimov qui dans son nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Question \textit{Comment peut-on inverser l'entropie ?} posé à Multivac.
ais Jean-Gabriel Ganascia sattache à démontrer que :1) Le terme même dIA est abusivement utilisé par les promoteurs de la singularité et que les capacités des ordinateurs, aussi impressionnantes soient-elles, ne peuvent par principe leur conférer ces pouvoirs espérés ou redoutés.2) Loin dêtre neuve, la perspective de la singularité recycle de vieilles idéologies gnostiques et millénaristes, rénovées par un habillage technofuturiste, tout en étant sous-tendue par les stratégies de communication mercantiles des multinationales de linformatique.Voici un essai critique et concis sur ce thème à grand retentissement public par lun des meilleurs experts des humanités numériques.
les prophéties à propos de la Singularité reposent sur une extrapolation infondée de la loi de Moore, une épistémologie aporétique (à la fois matérialiste et dualiste dans ses prémisses) et, plus encore, sur un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique.
une perspective transhumaniste ou catastrophiste (non éclairée et dystopique), lesquelles versions se sont substituées au fil du temps au premier (concept
La quesion de l'ethique des machines a été abordé dés 2006\cite{anderson2007machine}
Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui naurait plus besoin des humains. Ganascia évoque à son tour la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée début 2015 par une poignée des spécialistes dintelligence artificielle inquiets des conséquences du développement de leur discipline.
Entre autre, Ganascia attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant à son tour des propos de John von Neumann concernant ses équations mathématiques. Il évoque également Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Ainsi les chercheurs de Asimov posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac.
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} recycle de vieilles idéologies gnostiques et millénaristes, dans une perspective techno-futuriste marquée par les stratégies de communication mercantiles des multinationales de linformatique.
Ainsi les prophéties à propos de la singularité reposent sur une extrapolation infondée de la loi de Moore, mélangés avec un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique.
Il note également que la question de léthique des machines est abordée pour lui, dés 2006\cite{anderson2007machine}.
\cite{nath2020problem}
LIA ou léthique des machines sintéresse au comportement des machines envers les utilisateurs humains et peut-être aussi à dautres machines, ainsi quà léthique de ces interactions. Le but ultime de léthique des machines, selon les scientifiques de lIA, est de créer une machine qui elle-même suit un principe éthique idéal ou un ensemble de principes ; c'est-à-dire qu'il est guidé par ce ou ces principes dans les décisions qu'il prend sur les lignes d'action possibles qu'il pourrait prendre.
Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisions et des actions volontaires. La notion desprit est au cœur de notre pensée éthique, et cela est dû au fait que lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.