adding ref on singularity, virilio, techno-solutionisme et determinsime technologique

This commit is contained in:
silviaC 2024-07-19 18:44:01 +02:00
parent 5b1c32f9be
commit b00e7d663b
3 changed files with 51 additions and 73 deletions

View File

@ -1,3 +1,23 @@
@book{rey2018leurre,
title={Leurre et malheur du transhumanisme},
author={Rey, Olivier},
year={2018},
publisher={Descl{\'e}e de Brouwer}
}
@article{virilio2000ctheory,
title={Ctheory Interview With Paul Virilio: The Kosovo War Took Place In Orbital Space},
author={Virilio, Paulo and Armitage, John},
journal={CTheory},
pages={10-18},
year={2000}
}
@book{eliade1949mythe,
title={Le mythe de l'{\'e}ternel retour},
author={Eliade, Mircea},
year={1949}
}
@book{casilli2019attendant, @book{casilli2019attendant,
title={En attendant les robots-Enqu{\^e}te sur le travail du clic}, title={En attendant les robots-Enqu{\^e}te sur le travail du clic},
author={Casilli, Antonio A}, author={Casilli, Antonio A},

View File

@ -138,7 +138,7 @@ Dans son livre\cite{harari2017homo}, lhistorien Yuval Noah Harari déclare qu
Bien entendu, certaines aspects spécifiquement humains comme les soins, lamour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers. Bien entendu, certaines aspects spécifiquement humains comme les soins, lamour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers.
Ray Kurzweil est chercheur et aviseur en l'IA chez Google, où il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite 2045 sont des échéances importantes concernant la Singularité et la dématérialisation de la conscience\cite{kurzweil2005singularity}. Ray Kurzweil est chercheur et aviseur en l'IA chez Google, où il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}.
Son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec l'expert en prolongation de la vie Terry Grossman. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être: Son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec l'expert en prolongation de la vie Terry Grossman. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être:
\begin{quote} \begin{quote}
@ -178,7 +178,7 @@ Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septem
\end{quote} \end{quote}
En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, des robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les Gafa. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure. En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les Gafa. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet. Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet.
@ -190,85 +190,39 @@ Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son
\cite{littman2022gathering} \cite{littman2022gathering}
\end{quote} \end{quote}
La critique du récit de la \gls{Singularité} a été soulevée sous divers angles. Les partisans du transhumanisme comme Kurzweil et Bostrom voient l'intelligence comme une propriété unidimensionnelle, modélisable par des équations mathématiques et atteignable avec des super-ordinateurs. Alors que d'un point de vue philosophique, la singularité peut correspondre à un mythe\cite{ganascia2017mythe} moderne. Dans l'historie de la religion, les mythes des peuples de la préhistoire sont différentes de celles de notre époque, étant fondés sur des présupposés ontologiques différentes. Selon Mircea Eliade, ces croyances et coutumes archaïques reposent sur une distinction claire entre le sacré et le profane\cite{eliade1949mythe}. Aujourd'hui cette séparation n'est plus d'actualité. De plus en plus des philosophes et sociologues notent la porosité des notions qui décrivent et identifient nos expériences phénoménologiques\cite{bauman2006vie, virilio2000ctheory}. Dans les media, quand elle n'est pas critiquée l'expérience spirituelle est banalisée au point dêtre dépourvue de son essence sacré. Ce type de \textit{pseudo-sacre} devient accessible au travers la technologie, au moins pour les défenseurs de la these transhumaniste. Dans son livre \textit{Leurre et malheur du transhumanisme} (2018), Olivier Rey analyse un type de propagande propre à lidéologie transhumaniste, issue d'une forme d'innovation dite \textit{disruptive}\cite{rey2018leurre} ou qui introduit une rupture par rapport à ce qui précède dans la société. Ainsi, les argumentes en faveur du transhumanisme mettent en avant des promesses mirifiques quant à l'avenir, pour ensuite réconcilier les sceptiques et conclure que le monde change en tout cas, avant d'admettre le caractère inéluctable de lexpérience.
En contrepoids le phenomene de \textit{déterminisme technologique} voit le changement technique comme un facteur indépendant de la société. Selon cette these la société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science, alors que la technique influence la société. André Leroi-Gourhan est l'un des grands représentants du courant déterministe et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que \textit{le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon}.\cite{leroi1971evolution}.
Si les découvertes et applications de l'IA et de la robotique sont inscrites dans une course effrénée de l'innovation, nous pouvons observer clairement le rythme exponentiel de ces découvertes. D'ailleurs le terme \gls{dromologie} du philosophe français Paul Virilio souligne la manière dont la vitesse à laquelle quelque chose se produit peut changer la nature même d'une expérience. Il lie le progrès à la notion de progression (comme déplacement des personnes et des produits dans lespace et le temps) et à la vitesse de cette progression, pour expliquer sa these basé sur l'accident et la catastrophe. Si l'invention de l'avion a suivi de prêt celle du crash, Virilio se demande quelles seront les conséquences du progrès technologique de notre décennie.
Malgré les opportunités dans l'utilisation de l'IA, les systèmes autonomes ne doivent pas remplacer les valeurs humains.
Le rapport de 2021 met donc en grade contre la hybridation entre la recherche universitaire et la recherche industrielle en IA. Les chercheurs identifient des défis sociotechniques telles que:
\begin{itemize}
\item le biais dans les modèles de machine learning qui reproduisent et amplifient les préjugés existants
\item la manque d'équité dans les algorithmes de prise de décision de l'IA et leur répercussions dans le système de la justice et des soins de santé
\item la manque de confidentialité dans la collecte de données
\end{itemize}
Un danger plus concret que le rapport met en avant, concerne la construction de machines capables d'espionner et même de tuer à grande échelle. Cela peut savérer plus risquée qu'imaginé cinq ans auparavant. D'autant plus quand l'argument des industriels pour rassurer le grand public relevé plutôt du \textit{techno-solutionnisme} que de la recherche fondamentale. A la place d'un outil ciblé, ce phenomene désigne une IA comme solution universelle qui peut résoudre à la fois des problèmes sociaux, politiques et environnementaux. Cette approche conduit à une surestimation des capacités de la technologie et à une sous-estimation de la complexité des problèmes systémiques car souvent les adeptes du techno-solutionnisme négligeant ou minimisant les aspects éthiques et humains des problèmes. Le rapport encourage des nouvelles recherches pour re-conceptualiser les fondations des systèmes basés sur l'IA, souvent mal spécifiés:
La critique du récit de la singularité a été soulevée sous divers angles. Kurzweil et Bostrom semblent supposer que l'intelligence est une propriété unidimensionnelle et que l'ensemble des agents intelligents est totalement ordonné au sens mathématique, mais aucun des deux ne discute de l'intelligence en profondeur dans leurs livres. En général, il est juste de dire que, malgré quelques efforts, les hypothèses faites dans le puissant récit de la superintelligence et de la singularité n'ont pas été examinées en détail. Une question est de savoir si une telle singularité se produira jamais — elle peut être conceptuellement impossible, pratiquement impossible ou ne peut simplement pas se produire en raison d'événements contingents, y compris des personnes qui l'empêchent activement. Philosophiquement, la question intéressante est de savoir si la singularité n'est qu'un mythe Ganascia 2017, et non sur la trajectoire de la recherche en IA actuelle. C'est une hypothèse souvent faite par les praticiens (par exemple, Brooks 2017). Ils peuvent le faire parce qu'ils craignent les répercussions en termes de relations publiques, parce qu'ils surestiment les problèmes pratiques, ou parce qu'ils ont de bonnes raisons de penser que la superintelligence est un résultat improbable de la recherche actuelle en IA (Müller à paraître-a). Cette discussion soulève la question de savoir si la préoccupation concernant la singularité n'est qu'un récit sur une IA fictive basée sur les peurs humaines. \begin{quote}
C'est la frontière entre la recherche universitaire et industrielle en IA ``Nous utilisons souvent le terme déploiement pour désigner la mise en œuvre d'un système d'IA dans le monde réel. Cependant, le déploiement porte la connotation de l'implémentation d'un système technique plus ou moins prêt à l'emploi, sans tenir compte des besoins ou des conditions locales spécifiques. Les chercheurs ont décrit cette approche comme une implantation sans contexte. Les systèmes prédictifs les plus réussis ne sont pas implantés de cette manière, mais sont intégrés de manière réfléchie dans les environnements et les pratiques sociales et organisationnelles existants. Dès le départ, les praticiens de l'IA et les décideurs doivent prendre en compte les dynamiques organisationnelles existantes, les incitations professionnelles, les normes comportementales, les motivations économiques et les processus institutionnels qui détermineront comment un système est utilisé et perçu. Ces considérations deviennent encore plus importantes lorsque nous tentons de faire fonctionner des modèles prédictifs aussi bien dans différents territoires et contextes qui peuvent avoir des objectifs politiques et des défis de mise en œuvre différents\footnote{ ``We often use the term deployment to refer to the implementation of an AI system in the real world. However, deployment carries the connotation of implementing a more or less ready-made technical system, without regard for specific local needs or conditions. Researchers have described this approach as context-less dropping in. The most successful predictive systems are not dropped in but are thoughtfully integrated into existing social and organizational environments and practices. From the outset, AI practitioners and decision-makers must consider the existing organizational dynamics, occupational incentives, behavioral norms, economic motivations, and institutional processes that will determine how a system is used and responded to. These considerations become even more important when we attempt to make predictive models function equally well across different jurisdictions and contexts that may have different policy objectives and implementation challenges.” }.”
s'estompe, d'autres questions sociales et éthiques apparaissent au premier plan. \cite{littman2022gathering}
Les chercheurs universitaires et industriels peuvent avoir des opinions différentes \end{quote}
perspectives sur et donc adopter des approches différentes Ainsi intégrer avec succès de l'IA dans des contextes de prise des décisions publiques à fort enjeu, nécessite une compréhension approfondie et multidisciplinaire du problème et de son contexte. Par l'amélioration des relations entre les développeurs et les communautés qui en bénéficient, ainsi que par une compréhension nuancée des limites des approches techniques, les chercheurs qui ont participé à cet étude, espèrent re-équilibrer le rapport entre les valeurs sociales et celles du marché de l'IA:
de nombreux défis sociotechniques qui peuvent être au moins partiellement
résolu par des solutions techniques, telles que le biais dans la machine- \begin{quote}
modèles appris, équité dans les algorithmes de prise de décision de l'IA, ``Il est désormais urgent de réfléchir sérieusement aux inconvénients et aux risques que révèle l'application généralisée de l'IA. La capacité croissante à automatiser les décisions à grande échelle est une arme à double tranchant; des deepfakes intentionnels ou simplement des algorithmes incontrôlables faisant des recommandations cruciales peuvent conduire à ce que les gens soient induits en erreur, discriminés et même physiquement blessés. Les algorithmes entraînés sur des données historiques sont susceptibles de renforcer et même d'exacerber les biais et les inégalités existants. Alors que la recherche en IA a traditionnellement été du ressort des informaticiens et des chercheurs étudiant les processus cognitifs, il est devenu clair que tous les domaines de la recherche humaine, en particulier les sciences sociales, doivent être inclus dans une conversation plus large sur l'avenir du domaine. Minimiser les impacts négatifs sur la société et améliorer les aspects positifs nécessite plus que des solutions technologiques ponctuelles ; maintenir l'IA sur la voie des résultats positifs pertinents pour la société nécessite un engagement continu et une attention constante\footnote{``It is now urgent to think seriously about the downsides
la confidentialité dans la collecte de données et lémergence de la polarisation and risks that the broad application of AI is revealing. The increasing capacity to automate decisions at scale is a double-edged sword; intentional deepfakes or simply unaccountable algorithms making mission-critical recommendations can result in people being misled, discriminated against, and even physically harmed. Algorithms trained on historical data are disposed to reinforce and even exacerbate existing biases and inequalities. Whereas AI research has traditionally been the purview of computer scientists and researchers studying cognitive processes, it has become clear that all areas of human inquiry, especially the social sciences, need to be included in a broader conversation about the future of the field. Minimizing the negative impacts on society and enhancing the positive requires more than one-shot technological solutions; keeping AI on track for positive outcomes relevant to society requires ongoing engagement and continual attention.” }.”
ou des bulles de filtrage dans la consommation des médias sociaux \cite{littman2022gathering}
plusieurs études récentes ont montré que \end{quote}
Les équipes dIA humaine ne surpassent souvent pas actuellement lIA.
uniquement des équipes.204 Il existe néanmoins un nombre croissant de travaux sur
méthodes pour créer une collaboration homme-IA plus efficace
Parmi les dangers le plus pressants ils ont identifié:
Techno-solutionnisme
Lun des dangers les plus urgents de lIA est la technologie.
le solutionnisme, lidée selon laquelle lIA peut être considérée comme une panacée
quand ce n'est qu'un outil.
Les dangers de ladoption dune statistique
Perspective sur la justice
La prise de décision automatisée peut produire des résultats faussés
qui reproduisent et amplifient les préjugés existants. Un potentiel
Le danger est donc lorsque le public accepte les technologies dérivées de lIA.
conclusions comme certitudes. Cette approche déterministe de
La prise de décision en matière dIA peut avoir des conséquences désastreuses dans les deux cas
milieux criminels et de soins de santé. Approches basées sur l'IA
comme PredPol, logiciel développé à l'origine par le Los
Département de police d'Angeles et UCLA qui prétend
pour aider à protéger un citoyen américain sur 33,
\begin{quote} \begin{quote}
New research efforts are aimed at re-conceptualizing the foundations of the field to make AI systems less reliant on explicit, and easily misspecified, objectives. A particularly visible danger is that AI can make it easier to build machines that can spy and even kill at scale. ``Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. MAchines are amoral, and it is dangerous to assume otherwise.” }.”
\cite{barrat2023our}
\end{quote} \end{quote}
\begin{quote}
Nous utilisons souvent le terme déploiement pour désigner la mise en œuvre d'un système d'IA dans le monde réel. Cependant, le déploiement porte la connotation de l'implémentation d'un système technique plus ou moins prêt à l'emploi, sans tenir compte des besoins ou des conditions locales spécifiques. Les chercheurs ont décrit cette approche comme une implantation sans contexte. Les systèmes prédictifs les plus réussis ne sont pas implantés de cette manière, mais sont intégrés de manière réfléchie dans les environnements et les pratiques sociales et organisationnelles existants. Dès le départ, les praticiens de l'IA et les décideurs doivent prendre en compte les dynamiques organisationnelles existantes, les incitations professionnelles, les normes comportementales, les motivations économiques et les processus institutionnels qui détermineront comment un système est utilisé et perçu. Ces considérations deviennent encore plus importantes lorsque nous tentons de faire fonctionner des modèles prédictifs aussi bien dans différents territoires et contextes qui peuvent avoir des objectifs politiques et des défis de mise en œuvre différents. \footnote{We often use the term “deployment” to refer to the implementation of an AI system in the real world.
However, deployment carries the connotation of implementing a more or less ready-made technical system,
without regard for specific local needs or conditions. Researchers have described this approach as “context-less
dropping in.”295 The most successful predictive systems are not dropped in but are thoughtfully integrated
into existing social and organizational environments and practices. From the outset, AI practitioners and
decision-makers must consider the existing organizational dynamics, occupational incentives, behavioral norms,
economic motivations, and institutional processes that will determine how a system is used and responded to. These
considerations become even more important when we attempt to make predictive models function equally well
across different jurisdictions and contexts that may have different policy objectives and implementation challenges}
\end{quote}
\begin{quote}
Intégrer avec succès l'IA dans des contextes de prise de décision publique à fort enjeu nécessite un travail ardu, une compréhension approfondie et multidisciplinaire du problème et du contexte, la cultivation de relations significatives avec les praticiens et les communautés affectées, ainsi qu'une compréhension nuancée des limites des approches techniques. \footnote{Successfully integrating AI into high-stakes public decision-making contexts requires difficult
work, deep and multidisciplinary understanding of the problem and context, cultivation of meaningful relationships with practitioners and affected communities, and a nuanced understanding of the limitations of technical approaches.}
\end{quote}
Les refis pressants et opportunités dans l'utilisation de l'IA
Les systèmes autonomes ne doivent pas remplacer pas les soins humains
L'IA de service devrait être dirigée par les valeurs sociales et non par le marché
\begin{quote}
Il est désormais urgent de réfléchir sérieusement aux inconvénients et aux risques que révèle l'application généralisée de l'IA. La capacité croissante à automatiser les décisions à grande échelle est une arme à double tranchant ; des deepfakes intentionnels ou simplement des algorithmes incontrôlables faisant des recommandations cruciales peuvent conduire à ce que les gens soient induits en erreur, discriminés et même physiquement blessés. Les algorithmes entraînés sur des données historiques sont susceptibles de renforcer et même d'exacerber les biais et les inégalités existants. Alors que la recherche en IA a traditionnellement été du ressort des informaticiens et des chercheurs étudiant les processus cognitifs, il est devenu clair que tous les domaines de la recherche humaine, en particulier les sciences sociales, doivent être inclus dans une conversation plus large sur l'avenir du domaine. Minimiser les impacts négatifs sur la société et améliorer les aspects positifs nécessite plus que des solutions technologiques ponctuelles ; maintenir l'IA sur la voie des résultats positifs pertinents pour la société nécessite un engagement continu et une attention constante\footnote{It is now urgent to think seriously about the downsides
and risks that the broad application of AI is revealing. The increasing capacity to automate decisions at scale is a double-edged sword; intentional deepfakes or simply unaccountable algorithms making mission-critical recommendations can result in people being misled, discriminated against, and even physically harmed. Algorithms trained on historical data are disposed to reinforce and even exacerbate existing biases and inequalities. Whereas AI research has traditionally been the purview of computer scientists and researchers studying cognitive processes, it has become clear that all areas of human inquiry, especially the social sciences, need to be included in a broader conversation about the future of the field. Minimizing the negative impacts on society and enhancing the positive requires more than one-shot technological solutions; keeping AI on track for positive outcomes relevant to society requires ongoing engagement and continual attention.}
\end{quote}
Le déterminisme technologique est un courant de pensée par lequel on suppose que le changement technique est un facteur indépendant de la société. D'une part, le changement technique est autonome [...]. D'autre part, un changement technique provoque un changement social. Le déterminisme technologique est donc constitué autour de deux grandes idées :
La société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science ;
La technique influence la société.
André Leroi-Gourhan est l'un des grands représentants du courant déterministe, et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que
\begin{quote}le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon.
\cite{leroi1971evolution}
\end{quote}
Le déterminisme technologique est aujourd'hui fortement remis en cause par les avancées de la sociologie des techniques.
\begin{quote}
Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. MAchines are amoral, and it is dangerous to assume otherwise.}
\cite{barrat2023our}
\end{quote}
Sur son blog, Rodney Brooks s'est engagé a faire des prédictions sur les avancées technologiques d'ici 2050 lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/} Sur son blog, Rodney Brooks s'est engagé a faire des prédictions sur les avancées technologiques d'ici 2050 lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}
Il s'agit de ma sixième mise à jour annuelle sur la façon dont mes prédictions datées du 1er janvier 2018 concernant (1) les voitures autonomes, (2) la robotique, l'IA et l'apprentissage automatique, et (3) les voyages spatiaux humains, ont tenu le coup. J'ai alors promis de les revoir chaque année en début d'année jusqu'en 2050 (juste après mon 95e anniversaire), trente-deux ans au total. Lidée est de me tenir responsable de ces prédictions. Dans quelle mesure avais-je raison ou tort ? Il s'agit de ma sixième mise à jour annuelle sur la façon dont mes prédictions datées du 1er janvier 2018 concernant (1) les voitures autonomes, (2) la robotique, l'IA et l'apprentissage automatique, et (3) les voyages spatiaux humains, ont tenu le coup. J'ai alors promis de les revoir chaque année en début d'année jusqu'en 2050 (juste après mon 95e anniversaire), trente-deux ans au total. Lidée est de me tenir responsable de ces prédictions. Dans quelle mesure avais-je raison ou tort ?

View File

@ -202,7 +202,11 @@ enablef={true},
enablef={true}, enablef={true},
} }
\newglossaryentry{dromologie}{
name={\textit{dromologie}},
description={Le terme de \textit{dromologie} vient du grec ancien \textit{dromos}, signifiant \textit{course ou piste de course} et désigne la logique et l'impact de la vitesse. sur les valeurs de notre scoieté. },
enablef={true},
}
\newglossaryentry{corps sans organes}{ \newglossaryentry{corps sans organes}{
name={\textit{corps sans organes}}, name={\textit{corps sans organes}},