reframing conclusions
This commit is contained in:
parent
bbd31299ce
commit
4c16a1139d
|
@ -87,6 +87,8 @@ Ces derniers années ces bandes de fréquences ont été associées à des fonct
|
|||
Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir. Plusieurs domaines scientifiques convergent au même point d’acquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Cependant les objectifs de chaque domaine est différent et l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale.
|
||||
C'est pour cela qu'une perspective philosophique (puis plus largement une artistique) et éthique de cette question est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre, avec son accord. Cet accord, ou la mise à disposition des informations afin de réfléchir collectivement à ces questions, peut se faire au travers l'art.
|
||||
|
||||
Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones (type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire). Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer cette hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe américain Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}). Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire l’expérience de la conscience.
|
||||
|
||||
Ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à l’expérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
||||
\begin{quote}
|
||||
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
|
||||
|
@ -122,13 +124,6 @@ L’étude de Chatila présente une architecture d'apprentissage des capacités
|
|||
\end{quote}
|
||||
|
||||
|
||||
Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{stengers2016another} pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et approuvé publiquement une action contre un champ de pommes de terre génétiquement modifiées à Wetteren. Stengers questionne la neutralité de la recherche universitaire, en proposant une réflexion sur les possibilités de critique face à une définition dominante des faits. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour s'expérimenter en dehors de ses limites. Pour elle cela renvoie à un endroit atemporel où une autre science développe ses propres revendications:
|
||||
|
||||
\begin{quote}
|
||||
``Je ressens de la honte devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: ``I feel ashamed before those young people entering university with the hope of getting a better understanding of the world we live in. We know that those who enter university today belong to the generation that will have to face a future the challenges of which we just cannot imagine… Can we claim that what we are proposing them meets, or even vaguely meets, this situation? Can we also claim that we deserve the trust people still have in the role we, who are working at the university, and those we train, can play in this future? It is heard that our ways of life will have to change, and this certainly entails a change in the way we relate to our environment, social and ecological. Can we claim that such change does not also entail a change in the ways our academic knowledge relates to its environment?”}?”
|
||||
\cite{stengers2016another}
|
||||
\end{quote}
|
||||
|
||||
Selon\cite{nass1997computers}, les individus adoptent des comportements sociaux envers les technologies, même lorsque ces comportements sont totalement incohérents avec leurs croyances concernant les machines. Pour mieux comprendre cet aspect culturel de la robotique, dans \cite{shaw2009looking} les chercheurs évoquent la question de l’\textit{équivalence morale} entre humains et robots: ceux deniers étant non-humains, ils sont incapables d'avoir une position d'équivalence morale avec nous. Par son statut, un robot n'a pas une capacité à s’engager dans un comportement véritablement social, puisque cela signifie interagir et interpréter le monde en fonction d'une expérience propre. En analysant une interaction relationnelle entre des seniors et un bébé phoque robotisé appelé Paro, les chercheurs montrent comment Paro suscite des sentiments d'admiration et de curiosité, loin de l'authenticité propre aux relations humaines. Leurs observations nous invitent à mieux réfléchir aux types de relations que nous pensons appropriés entre des artefacts relationnels et des populations particulièrement vulnérables comme les personnes âgés ou malades. Ils proposent le cadre des trois lois de la robotique d’Asimov, comme prémisse pour des lignes directrices éthiques. Ces cadres s'appuient sur des modèles cognitifs pour promouvoir des interactions sociales dignes de confiance entre les humains et les robots:
|
||||
\begin{quote}
|
||||
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species (affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual dimension. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new technological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, companions, and avatars.”}.”
|
||||
|
@ -190,46 +185,6 @@ L'humain augmenté à l’image de la créature de Frankenstein amplifie ce sent
|
|||
Par la substitution d'un corps naturel à un corps intégralement disponible au pouvoir de la technique,
|
||||
Agamben identifie une zone d’indifférenciation entre vie et non-vie. Un de ses concepts clé s'inspire de la distinction aristotélicienne entre \textit{vie} en tant que bios et la \textit{vie nue} ou \textit{Zoe} qui représente la vie qui ne peut pas être intégrée dans un ordre politique. Basé sur une analyse de l'origine des biopouvoirs\footnote{concept développé par le philosophe français Michel Foucault qui désigne le pouvoir exercé par les institutions et les gouvernements sur les corps et les populations, en particulier à travers la régulation et le contrôle des processus biologiques, des comportements sanitaires, et des conditions de vie des individus.} chez Michel Foucault, Agamben montre comment le pouvoir politique moderne tend à réduire les individus à leur simple existence biologique.
|
||||
|
||||
L'humanité a toujours cherché l'immortalité. L’un des contes les plus anciens de l’humanité est \textit{L’épopée de Gilgamesh} qui remonte au 22ème siècle avant JC. Le personnage principal cherche à atteindre la vie éternelle, grâce à une fleur au fond de l'océan qui lui redonnera sa jeunesse. Après de nombreuses épreuves et avertissements, il cueillit la fleur des profondeurs aquatiques mais finis par la perdre et meurt. \cite{harari2014sapiens} évoque ce mythe en lien avec les préoccupations actuelles des certains entrepreneurs de Silicon Valley, concernant l’espérance de vie et l'immortalité. Ainsi en 2021 le président d’Amazon, Jeff Bezos, a investi dans Altos Labs, un startup dont l'objectif est de travailler sur une technologie pour régénérer les cellules et potentiellement prolonger la vie. Plusieurs chercheurs de renommée internationale se son associés à cette initiative\footnote{https://www.cbsnews.com/news/jeff-bezos-altos-labs-startup-trying-to-extend-human-life-reprogramming-stem-cells/}.
|
||||
Leurs arguments reposent sur les avancements technologiques et scientifiques du 20ème siècle, parfois plus spectaculaires que les prédictions de la littérature anticipation. Pareil à la nouvelle \textit{Fantastic Voyage} (1966) d'Asimov, des experts miniaturisés pourront bientôt être injectés dans le corps d'un patient pour effectuer une opération chirurgicale depuis l'intérieur. D'une manière peu surprenante, les experts en nanotechnologie de nos jours comptent s'appuyer sur de millions de nano-robots pour habiter et guérir nos corps. Selon les spéculations actuelles, certains humains deviendront \textit{a-mortels}\footnote{par rapport à un immortel, un a-mortel peut toujours mourir d'un accident, bien que sa vie pourrait être prolongée indéfiniment}d'ici 2050.
|
||||
|
||||
Dans son livre\cite{harari2017homo}, l’historien Yuval Noah Harari déclare que \textit{les organismes sont des algorithmes}. Cela inclut les humains et leurs gênes, qu'il voit comme des algorithmes qui produisent des copies d’eux-mêmes. Selon sa vision évolutionniste, ces algorithmes biologiques sont le résultat des processus de sélection naturelle depuis des milliards d’années. L’élément central de cette these est l'ADN, de plus en plus à notre portée depuis son séquençage. Les différences entre les matières organiques et anorganiques, vivantes ou non-vivantes, dépendent des combinaisons entre les gênes, ce qui permettra à notre espèce de créer des robots sentients à son tour:
|
||||
\begin{quote}
|
||||
``L’humanité est désormais prête à remplacer la sélection naturelle par une conception intelligente et à prolonger la vie du domaine organique vers le domaine inorganique\footnote{``Now humankind is poised to replace natural selection with intelligent design, and to extend life from the organic realm into the inorganic..”}.”
|
||||
\cite{harari2017homo}
|
||||
\end{quote}
|
||||
|
||||
Bien entendu, certaines aspects spécifiquement humains comme les soins, l’amour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers.
|
||||
|
||||
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique d’envergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le XXIème siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de l’état actuel de l’IA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter l’allocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de prendre en compte les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA:
|
||||
\begin{itemize}
|
||||
\item la difficulté de créer du matériel sûr et fiable dans le transport et les robots de service,
|
||||
\item la difficulté d’interagir en douceur avec des experts humains dans les soins de santé et
|
||||
d'éducation,
|
||||
\item le défi de gagner la confiance du public et de surmonter les craintes de marginalisation des humains
|
||||
dans l'emploi et lieu de travail,
|
||||
\item le risque social et sociétal de diminution des relations interpersonnelles dans les interactions liés au divertissement.
|
||||
etc.
|
||||
\end{itemize}
|
||||
Par l'évaluation périodique à long terme de l'intelligence artificielle (IA), ce projet cherche à mieux saisir son impact sur la société.
|
||||
Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septembre 2016, a été largement couvert dans la presse populaire est aujourd'hui connu pour avoir influencé les discussions au sein des conseils consultatifs gouvernementaux et des ateliers dans plusieurs pays. Il commence sur une note constructive. Le panel d'étude trouve peu des raisons de s'inquiéter quant aux prédictions de la presse populaire concernant l'IA. Selon les chercheurs, il est peu probable qu'une machine dotée d'objectifs et d'intentions propres sera développée dans un avenir proche. En contrepoids, ils soulignent les applications de plus en plus pratiques de l'IA, dont l'impact sur notre société et notre économie se ressentira plus profondément à partir de 2030 quand les humains pourront \textit{enseigner} directement aux robots leurs principes et valeurs:
|
||||
|
||||
\begin{quote}
|
||||
``La société se trouve maintenant à un moment crucial pour déterminer comment déployer les technologies basées sur l'IA de manière à promouvoir plutôt qu'à entraver les valeurs démocratiques telles que la liberté, l'égalité et la transparence. (...) Le domaine de l'IA évolue vers la construction de systèmes intelligents capables de collaborer efficacement avec les humains, y compris par des moyens créatifs pour développer des méthodes interactives et évolutives permettant aux personnes d'enseigner directement aux robots.\footnote{``Society is now at a crucial juncture in determining how to deploy AI-based technologies in ways that promote rather than hinder democratic values such as freedom, equality, and transparency.(...)The field of AI is shifting toward building intelligent systems that can collaborate effectively with people, including creative ways to develop interactive and scalable ways for people to teach robots.”}.”
|
||||
\cite{stone2022artificial}
|
||||
\end{quote}
|
||||
|
||||
|
||||
En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception d’algorithmes d’apprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les GAFA. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par l’étiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
|
||||
|
||||
Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet.
|
||||
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes} dont ils publient un étude de cas concernant l’ouverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec les industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les GAFA, ne font rien pour clarifier le contexte.
|
||||
Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les limites du traitement de l'information consciente dans la cognition humaine. Cela donne suite é des modèles de plus en plus basés sur des solutions émergents plutôt que sur une conception centrale de \textit{conscience}. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets physiques et les entités sociales (comme par exemple l'internet). D'une manière analogique, une machine intelligence devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne:
|
||||
|
||||
\begin{quote}
|
||||
``De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{``Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly judge as intelligent.” }.”
|
||||
\cite{littman2022gathering}
|
||||
\end{quote}
|
||||
|
||||
Entre utopie technologique et pressentiment dystopique, le transhumanisme et la \gls{Singularité}suscitent beaucoup de passions. La critique du récit de la \gls{Singularité} a été soulevée sous divers angles. Les partisans du transhumanisme comme Kurzweil et Bostrom voient l'intelligence comme une propriété unidimensionnelle, modélisable par des équations mathématiques et atteignable avec des super-ordinateurs. Alors que d'un point de vue philosophique, la singularité peut correspondre à un mythe\cite{ganascia2017mythe} moderne. Dans l'historie de la religion, les mythes des peuples de la préhistoire sont différentes de celles de notre époque, étant fondés sur des présupposés ontologiques différentes. Selon Mircea Eliade, ces croyances et coutumes archaïques reposent sur une distinction claire entre le sacré et le profane\cite{eliade1949mythe}. Aujourd'hui cette séparation n'est plus d'actualité. De plus en plus des philosophes et sociologues notent la porosité des notions qui décrivent et identifient nos expériences phénoménologiques\cite{bauman2006vie, virilio2000ctheory}. Dans les media, quand elle n'est pas critiquée l'expérience spirituelle est banalisée au point d’être dépourvue de son essence sacré. Ce type de \textit{pseudo-sacre} devient accessible au travers la technologie, au moins pour les défenseurs de la these transhumaniste. Dans son livre \textit{Leurre et malheur du transhumanisme} (2018), Olivier Rey analyse un type de propagande propre à l’idéologie transhumaniste, issue d'une forme d'innovation dite \textit{disruptive}\cite{rey2018leurre} ou qui introduit une rupture par rapport à ce qui précède dans la société. Ainsi, les argumentes en faveur du transhumanisme mettent en avant des promesses mirifiques quant à l'avenir, pour ensuite réconcilier les sceptiques et conclure que le monde change en tout cas, avant d'admettre le caractère inéluctable de l’expérience.
|
||||
En contrepoids le phenomene de \textit{déterminisme technologique} voit le changement technique comme un facteur indépendant de la société. Selon cette these la société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science, alors que la technique influence la société. André Leroi-Gourhan est l'un des grands représentants du courant déterministe et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que \textit{le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon}.\cite{leroi1971evolution}.
|
||||
|
@ -295,8 +250,52 @@ Un autre étude plus récent envisage une nouvelle branche de l'AI, intitulé \t
|
|||
\label{fig:aiforhumanity}
|
||||
\end{figure}
|
||||
|
||||
Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones (type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire). Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer cette hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe américain Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}). Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire l’expérience de la conscience.
|
||||
Que cette nouvelle AI saura mieux réconcilier projections et craintes, le facteur humain et notre sentience reste pour l'instant inqualifiable. Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{stengers2016another} pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et approuvé publiquement une action contre un champ de pommes de terre génétiquement modifiées à Wetteren. Stengers questionne la neutralité de la recherche universitaire, en proposant une réflexion sur les possibilités de critique face à une définition dominante des faits. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour s'expérimenter en dehors de ses limites. Pour elle cela renvoie à un endroit atemporel où une autre science développe ses propres revendications:
|
||||
|
||||
\begin{quote}
|
||||
``Je ressens de la honte devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: ``I feel ashamed before those young people entering university with the hope of getting a better understanding of the world we live in. We know that those who enter university today belong to the generation that will have to face a future the challenges of which we just cannot imagine… Can we claim that what we are proposing them meets, or even vaguely meets, this situation? Can we also claim that we deserve the trust people still have in the role we, who are working at the university, and those we train, can play in this future? It is heard that our ways of life will have to change, and this certainly entails a change in the way we relate to our environment, social and ecological. Can we claim that such change does not also entail a change in the ways our academic knowledge relates to its environment?”}?”
|
||||
\cite{stengers2016another}
|
||||
\end{quote}
|
||||
L'humanité a toujours cherché l'immortalité. L’un des contes les plus anciens de l’humanité est \textit{L’épopée de Gilgamesh} qui remonte au 22ème siècle avant JC. Le personnage principal cherche à atteindre la vie éternelle, grâce à une fleur au fond de l'océan qui lui redonnera sa jeunesse. Après de nombreuses épreuves et avertissements, il cueillit la fleur des profondeurs aquatiques mais finis par la perdre et meurt. \cite{harari2014sapiens} évoque ce mythe en lien avec les préoccupations actuelles des certains entrepreneurs de Silicon Valley, concernant l’espérance de vie et l'immortalité. Ainsi en 2021 le président d’Amazon, Jeff Bezos, a investi dans Altos Labs, un startup dont l'objectif est de travailler sur une technologie pour régénérer les cellules et potentiellement prolonger la vie. Plusieurs chercheurs de renommée internationale se son associés à cette initiative\footnote{https://www.cbsnews.com/news/jeff-bezos-altos-labs-startup-trying-to-extend-human-life-reprogramming-stem-cells/}.
|
||||
Leurs arguments reposent sur les avancements technologiques et scientifiques du 20ème siècle, parfois plus spectaculaires que les prédictions de la littérature anticipation. Pareil à la nouvelle \textit{Fantastic Voyage} (1966) d'Asimov, des experts miniaturisés pourront bientôt être injectés dans le corps d'un patient pour effectuer une opération chirurgicale depuis l'intérieur. D'une manière peu surprenante, les experts en nanotechnologie de nos jours comptent s'appuyer sur de millions de nano-robots pour habiter et guérir nos corps. Selon les spéculations actuelles, certains humains deviendront \textit{a-mortels}\footnote{par rapport à un immortel, un a-mortel peut toujours mourir d'un accident, bien que sa vie pourrait être prolongée indéfiniment}d'ici 2050.
|
||||
|
||||
Dans son livre\cite{harari2017homo}, l’historien Yuval Noah Harari déclare que \textit{les organismes sont des algorithmes}. Cela inclut les humains et leurs gênes, qu'il voit comme des algorithmes qui produisent des copies d’eux-mêmes. Selon sa vision évolutionniste, ces algorithmes biologiques sont le résultat des processus de sélection naturelle depuis des milliards d’années. L’élément central de cette these est l'ADN, de plus en plus à notre portée depuis son séquençage. Les différences entre les matières organiques et anorganiques, vivantes ou non-vivantes, dépendent des combinaisons entre les gênes, ce qui permettra à notre espèce de créer des robots sentients à son tour:
|
||||
\begin{quote}
|
||||
``L’humanité est désormais prête à remplacer la sélection naturelle par une conception intelligente et à prolonger la vie du domaine organique vers le domaine inorganique\footnote{``Now humankind is poised to replace natural selection with intelligent design, and to extend life from the organic realm into the inorganic..”}.”
|
||||
\cite{harari2017homo}
|
||||
\end{quote}
|
||||
|
||||
Bien entendu, certaines aspects spécifiquement humains comme les soins, l’amour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers.
|
||||
|
||||
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique d’envergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le XXIème siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de l’état actuel de l’IA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter l’allocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de prendre en compte les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA:
|
||||
\begin{itemize}
|
||||
\item la difficulté de créer du matériel sûr et fiable dans le transport et les robots de service,
|
||||
\item la difficulté d’interagir en douceur avec des experts humains dans les soins de santé et
|
||||
d'éducation,
|
||||
\item le défi de gagner la confiance du public et de surmonter les craintes de marginalisation des humains
|
||||
dans l'emploi et lieu de travail,
|
||||
\item le risque social et sociétal de diminution des relations interpersonnelles dans les interactions liés au divertissement.
|
||||
etc.
|
||||
\end{itemize}
|
||||
Par l'évaluation périodique à long terme de l'intelligence artificielle (IA), ce projet cherche à mieux saisir son impact sur la société.
|
||||
Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septembre 2016, a été largement couvert dans la presse populaire est aujourd'hui connu pour avoir influencé les discussions au sein des conseils consultatifs gouvernementaux et des ateliers dans plusieurs pays. Il commence sur une note constructive. Le panel d'étude trouve peu des raisons de s'inquiéter quant aux prédictions de la presse populaire concernant l'IA. Selon les chercheurs, il est peu probable qu'une machine dotée d'objectifs et d'intentions propres sera développée dans un avenir proche. En contrepoids, ils soulignent les applications de plus en plus pratiques de l'IA, dont l'impact sur notre société et notre économie se ressentira plus profondément à partir de 2030 quand les humains pourront \textit{enseigner} directement aux robots leurs principes et valeurs:
|
||||
|
||||
\begin{quote}
|
||||
``La société se trouve maintenant à un moment crucial pour déterminer comment déployer les technologies basées sur l'IA de manière à promouvoir plutôt qu'à entraver les valeurs démocratiques telles que la liberté, l'égalité et la transparence. (...) Le domaine de l'IA évolue vers la construction de systèmes intelligents capables de collaborer efficacement avec les humains, y compris par des moyens créatifs pour développer des méthodes interactives et évolutives permettant aux personnes d'enseigner directement aux robots.\footnote{``Society is now at a crucial juncture in determining how to deploy AI-based technologies in ways that promote rather than hinder democratic values such as freedom, equality, and transparency.(...)The field of AI is shifting toward building intelligent systems that can collaborate effectively with people, including creative ways to develop interactive and scalable ways for people to teach robots.”}.”
|
||||
\cite{stone2022artificial}
|
||||
\end{quote}
|
||||
|
||||
|
||||
En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception d’algorithmes d’apprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les GAFA. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par l’étiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
|
||||
|
||||
Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet.
|
||||
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes} dont ils publient un étude de cas concernant l’ouverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec les industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les GAFA, ne font rien pour clarifier le contexte.
|
||||
Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les limites du traitement de l'information consciente dans la cognition humaine. Cela donne suite é des modèles de plus en plus basés sur des solutions émergents plutôt que sur une conception centrale de \textit{conscience}. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets physiques et les entités sociales (comme par exemple l'internet). D'une manière analogique, une machine intelligence devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne:
|
||||
|
||||
\begin{quote}
|
||||
``De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{``Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly judge as intelligent.” }.”
|
||||
\cite{littman2022gathering}
|
||||
\end{quote}
|
||||
|
||||
\section*{Conclusion chapitre 1}
|
||||
|
||||
|
|
Loading…
Reference in New Issue