revoir les conclusions

This commit is contained in:
silviaC 2024-10-13 22:47:33 +02:00
parent e92d0077fc
commit 9629d67be2
1 changed files with 41 additions and 40 deletions

View File

@ -45,7 +45,7 @@ Une capacité morale complète ou \textit{full moral agency} n'est aujourd'hui q
Nous partons du constat que les défis éthiques liés aux technologies robotiques ont suscité beaucoup d'intérêt au cours des deux dernières décennies. \cite{zawieska2020disengagement} questionne l'engagement éthique au sein de la communauté robotique, connu sous le terme de \textit{roboéthique}. Si le terme \textit{éthique} s'adresse essentiellement aux humains, une approche complémentaire devrait inclure l\textit{éthique vécue}, qui implique l'engagement réel dans une interaction et la manière dont cela structure lexpérience. Quant à la tendance de résoudre les problèmes émergents de la roboéthique avec des principes éthiques humaine préexistants, la réflexion doit partir d'abord sur un consensus concernant la nature même des robots. Ces derniers regroupent une pluralité de fonctions et de caractéristiques. Penser une éthique qui leurs est propre, suppose employer des principes suffisamment générales pour éviter des contextes individuels risqués. La racine du débat éthique dans la robotique trouve ses origines dans un symposium international organisé par le roboticien Gianmarco Veruggio. En janvier 2004, la Scuola di Robotica - en collaboration avec l'Arts Lab de la Scuola Superiore Sant'Anna de Pise et l'Institut Théologique de la Pontificia Accademia della Santa Croce de Rome - ont organisé le premier \textit{Symposium International sur la Roboéthique}\footnote{www.Roboethics.org}. En 2006 apparait une première feuille de route propre à cette discipline. Le document se concentre principalement sur les réalisations du projet Atelier de Roboéthique fondé par EURON\cite{fleres2023integrative}. Il propose une définition de la roboéthique séparé en deux branches: la première se concentre sur les robots en tant quagents moraux, tandis que l'autre est axée sur les humains en tant qu'agents qui développent et interagissent avec des robots. Souvent, le débat éthique tend à considérer l'influence exercée par les robots sur notre société, en oubliant la dynamique d'une détermination mutuelle entre la société et ses robots. Une approche interdisciplinaire peut mieux observer les processus d'intégration des robots dans la société, ainsi que les multiples dimensions de ces enjeux. Ainsi, le contexte socioculturel est repensé en lien avec des points de vues politiques et épistémologiques sur la question des robots, comme nous l'avons vu plus haut avec Mark Hunyadi. Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup des questions éthiques. Les interactions déterminent comment des agents, identifiés par Dumouchel et Damiano comme des \textit{substituts}, sont disposés à légard de leurs partenaires humains et l'inverse. Lélément clé de cette dynamique sont les émotions. Caractéristiques saillantes de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation des artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit l\textit{éthologie artificielle} vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements propres aux animaux, pourra également résoudre le problème des émotions, puisque (pour le meilleur et pour le pire) nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs propre à nos besoins. Or le parti-pris subjectif de nos expérimentations pratiques désigne les robots comme différents des animaux et des humains - sorte despèce à part entière. Quelle type de discipline pourrait réconcilier alors leur statut et besoins ?
Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le \textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif, dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek, puis paradoxalement Elon Musk. Dés mars 2023, cet institut appelle à un moratoire sur l'entrainement de systèmes d'IA type GPT-4. Cette lettre, écrite en consultation avec des experts en IA tels que Yoshua Bengio, Christoph Koch ou Raja Chatilla, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre, capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet, des entreprises ou des personnalités publiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour gagner en popularité. L'exemple de Musk et les controverses de son entreprise Neuralink\footnote{https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/} quant aux implants BCI (Brain-Computer Interface) suscitent l'attention de la communauté scientifique.
Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le \textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif, dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek, puis paradoxalement Elon Musk. Dés mars 2023, cet institut appelle à un moratoire sur l'entrainement de systèmes d'IA type Generative Pre-trained Transformer (GPT-4). Cette lettre, écrite en consultation avec des experts en IA tels que Yoshua Bengio, Christoph Koch ou Raja Chatilla, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre, capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet, des entreprises ou des personnalités publiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour gagner en popularité. L'exemple de Musk et les controverses de son entreprise Neuralink\footnote{https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/} quant aux implants BCI (Brain-Computer Interface) suscitent l'attention de la communauté scientifique.
Les arguments des partisans des machines capables d'une capacité morale complète s'emparent à leur tour des exemples issus du monde non-technologique. Parmi les plus connus défenseurs de l'approche transhumaniste, Ray Kurzweil est chercheur et aviseur en l'IA chez Google. Depuis 2012 il y analyse les mutations entre la technologie et la société. Selon ses estimations, la puissance de calcul des ordinateurs augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030, ensuite l'année 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}. Plus surprenant, son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec le médecin Terry Grossman, spécialiste en prolongation de la vie. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitulée \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être à la façon \textit{new-age}:
\begin{quote}
@ -109,7 +109,7 @@ Tandis que certains types de propriétés mentales peuvent être modélisables e
Pour les humains, les fondements d'une décision morale résident dans la conscience mais également dans l'inconscient, à travers nos émotions. Des chercheurs comme Wendell Wallach se demandent si les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées doivent avoir également une conscience artificielle\cite{wallach2020consciousness}. Selon eux, la recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience artificielle se sont développées en tant que domaines distincts une de l'autre. Pourtant, les deux sont susceptibles de converger avec lavènement des systèmes dotés d'\gls{intelligence artificielle générale}. Certains attributs de la conscience, comme la capacité d'émpathiser avec la souffrance des autres, ne sont pas quantifiables. Tout comme sa nature lorsqu'elle est propre aux non-humains reste à définir. L'étude de cas de Wallach concerne l'application de LIDA - un modèle computationnel et conceptuel de cognition humaine qui combine une analyse top-down avec une psychologie bottom-up pour structurer un prototype des AMA. Cela permets dimplémenter des principes de \textit{renforcement}, c'est à dire de récompenser l'algorithme pour un comportement qui mérite d'être loué, et de lui donner lopportunité d'apprendre de ses expériences. LIDA est implémenté sur les fondements de la \gls{Global Workspace Theory} ou GWT - Théorie de l'espace de travail global - développé en 1988 par le neuroscientifique Bernard Baars. Cette théorie, aujourd'hui considérée comme un tournant majeur dans les neurosciences cognitives et les études sur la conscience, traite du rôle de la conscience dans le traitement des processus cognitifs inconscients. \cite{wallach2020consciousness} cite le travail des équipes de chercheurs dirigées par Stanislas Dehaene, Murray Shanahan ou bien Stan Franklin qui ont développé des modèles computationnels à partir de certains aspects de la GWT. Cependant une implémentation 100\% conforme aux principes de la GWT est actuellement impossible.
En parallèle, l'article \textit{Towards self-aware robots}\cite{chatila2018toward} (2018) met en avant l'importance de la conscience de soi comme caractéristique principale des robots intelligents. Ainsi, un robot doit d'abord reposer sur la perception de soi, indépendamment de la perception de l'environnement et celle des autres agents. Lors de son interaction avec l'environnement, ce robot doit être capable d'auto-évaluation et de méta-raisonnement. Pour cela il doit construire des représentations sensori-motrices en lien avec différents éléments afin de se distinguer d'eux et de choisir délibérément des actions adaptés. Pour le chercheur Raja Chatilla, un robot doté de conscience de soi \textit{est capable de transformer les comportements appris en compétences explicites et de caractériser les situations dans lesquelles ces compétences sont applicables, revenant à un comportement dirigé par un objectif planifié lorsqu'elles ne le sont pas}. Quant à la capacité de délibération sur son propre raisonnement, \cite{chatila2018toward} évoque un système capable de se représenter lui-même et l'humain avec lequel il interagit. Initialement motivé par des facteurs basiques, il devient capable de raisonner sur les moyens de les satisfaire pour ensuite déterminer ses propres objectifs. Cela lui permet entre autre de réussir le test de Sally et Anne - une expérience classique en psychologie développementale utilisée pour évaluer la théorie de l'esprit chez les enfants. Ce test détermine la capacité à comprendre que les autres peuvent avoir des croyances, des désirs et des points de vue différents, ce qui implique un second degré de conscience. En pratique, l'implémentation de ces principes passe par des bases théoriques déjà validées dans d'autres disciplines. Les modules en différents couleurs dans l'image plus bas, illustrent les connexions entre les domaines d'apprentissage. Par exemple le module de perception sensorielle ou dapprentissage sensoriel-moteur en jaune, le module de planification de tâches en lien avec la reconnaissance de l'humain en vert ou celui de reconnaissance spatiale en bleu. Les auteurs de l'article signalent que ce travail est en cours et que seules les prochaines expérimentations pourront apporter une validation globale à ce prototype.
En parallèle, l'article \textit{Towards self-aware robots}\cite{chatila2018toward} (2018) met en avant l'importance de la conscience de soi comme caractéristique principale des robots intelligents. Ainsi, un robot doit d'abord reposer sur la perception de soi, indépendamment de la perception de l'environnement et celle des autres agents. Lors de son interaction avec l'environnement, ce robot doit être capable d'auto-évaluation et de méta-raisonnement. Pour le chercheur Raja Chatilla, un robot doté de conscience de soi \textit{est capable de transformer les comportements appris en compétences explicites et de caractériser les situations dans lesquelles ces compétences sont applicables, revenant à un comportement dirigé par un objectif planifié lorsqu'elles ne le sont pas}\cite{chatila2018toward}. Quant à la capacité de délibération sur son propre raisonnement, Chatilla évoque un système capable de se représenter lui-même et l'humain avec lequel il interagit. Initialement motivé par des facteurs basiques, il devient capable de raisonner sur les moyens d'accomplir des tâches pour ensuite déterminer ses propres objectifs. Cela lui permet entre autre de réussir le \textit{Test de Sally et Anne} - une expérience classique en psychologie développementale utilisée pour évaluer la théorie de l'esprit chez les enfants. Ce test détermine la capacité à comprendre que les autres peuvent avoir des croyances, des désirs et des points de vue différents, ce qui implique un second degré de conscience. En pratique, l'implémentation de ces principes passe par des bases théoriques déjà validées dans d'autres disciplines. Les modules en différents couleurs dans l'image plus bas, illustrent les connexions entre les domaines d'apprentissage. Dans la représentation de ce modèle proposé par Chatilla et ses collègues, le module de perception sensorielle ou dapprentissage sensoriel-moteur est en jaune, le module de planification de tâches en lien avec la reconnaissance de l'humain est en vert et celui de reconnaissance spatiale est en bleu. Les auteurs signalent que ce travail est en cours et que seules les prochaines expérimentations pourront apporter une validation globale à ce prototype.
\begin{figure}
\centering
@ -118,21 +118,21 @@ En parallèle, l'article \textit{Towards self-aware robots}\cite{chatila2018towa
\label{fig:chatila2}
\end{figure}
Létude de Chatila présente une architecture d'apprentissage des capacités sensori-motrices d'un robot. Les chercheurs ont construit une méthodologie des actions, en séparant les entrés sur quatre catégories distinctes: données perceptives, données en lien avec la proprioception, données contextuelles et données en lien avec les capacités d'action du robot. Le traitement bayésien de ces informations constituera plus tard le système de motivations du robot. Selon la signification que les objets de lenvironnement ont pour un agent (voir le concept d'\gls{affordance} dans la première partie), ses interactions prennent différents niveaux de complexité. Pour qu'un robot devienne conscient, témoigner de sa propre conscience est une première étape dans la construction de ce type de complexité. Chatila souligne l'importance de l'auto-localisation interne et externe du robot, définies dans la partie théorique sur la danse comme \textit{proprioception} et respectivement \textit{intéroception}:
Létude de Chatila présente une architecture d'apprentissage des capacités sensori-motrices d'un robot. Les chercheurs en découlent une méthodologie des actions, en séparant les entrés sur quatre catégories distinctes: données perceptives, données en lien avec la proprioception, données contextuelles et données en lien avec les capacités d'action du robot. Le traitement bayésien de ces informations constituera plus tard le système de motivations du robot. Selon la signification que les objets de lenvironnement ont pour un agent (voir le concept d'\gls{affordance} dans la première partie), ses interactions prennent différents niveaux de complexité. Pour qu'un robot devienne conscient, témoigner de sa propre conscience est une première étape dans la construction de ce type de complexité. Chatila souligne l'importance de l'auto-localisation interne et externe du robot, définies dans notre partie théorique sur la danse comme de la \textit{proprioception} et respectivement de l'\textit{intéroception}:
\begin{quote}
``Raisonner conjointement sur la perception et l'action nécessite une auto-localisation par rapport à l'environnement. Ainsi, le développement de représentations sensori-motrices et non seulement de représentations extéroceptives place le robot au centre du processus perceptuel et fournit un lien entre la conscience de soi et la conscience de la situation. La localisation du robot par rapport à son environnement permet une différenciation entre le corps du robot et le monde extérieur, et inclut une distinction nécessaire entre ses parties et les objets environnants. De plus, les composants actuels du robot lient l'état corps-environnement du robot avant et après l'application des actions\footnote{en version anglaise: ``Reasoning jointly on perception and action requires self-localization with respect to the environment. Hence developing sensorimotor representations and not just exteroceptive representations puts the robot in the center of the perceptual process, and provides a link between self-awareness and situation-awareness. Robot localization with respect to its environment provides a differentiation between the robots body and the external world, and includes a necessary distinction between its parts and surrounding objects. In addition, robots actual components link robots body-environments state before and after actions are applied.”}.”
\cite{chatila2018toward}
\end{quote}
Selon \cite{nass1997computers}, les individus adoptent des comportements sociaux envers la technologie même lorsque ces comportements sont totalement incohérents avec leurs croyances concernant les machines. Pour mieux comprendre cet aspect culturel de la robotique, dans \cite{shaw2009looking} les chercheurs évoquent la question de l\textit{équivalence morale} entre humains et robots: ceux deniers étant non-humains, ils sont incapables d'avoir une position d'équivalence morale avec nous. Par son statut, un robot n'a pas une capacité à sengager dans un comportement véritablement social, puisque cela signifie interagir et interpréter le monde en fonction d'une expérience propre. En analysant une interaction relationnelle entre des seniors et un bébé phoque robotisé appelé Paro, les chercheurs montrent comment Paro suscite des sentiments d'admiration et de curiosité, loin de l'authenticité propre aux relations humaines. Leurs observations nous invitent à mieux réfléchir aux types de relations que nous pensons appropriés entre des artefacts relationnels et des populations particulièrement vulnérables comme les personnes âgés ou malades. Ils proposent le cadre des trois lois de la robotique dAsimov, comme prémisse pour des lignes directrices éthiques. Ces cadres s'appuient sur des modèles cognitifs pour promouvoir des interactions sociales dignes de confiance entre les humains et les robots:
Selon \cite{nass1997computers}, les individus adoptent des comportements sociaux envers la technologie, même lorsque ces comportements sont totalement incohérents avec leurs croyances concernant les machines. Pour mieux comprendre cet aspect culturel de la robotique, la chercheuse Glenda Shaw-Garlock évoque la question de l\textit{équivalence morale} entre humains et robots: ceux deniers étant non-humains, ils sont incapables d'avoir une position d'équivalence morale avec nous\cite{shaw2009looking}. Par son statut, un robot n'a pas une capacité à sengager dans un comportement véritablement social, puisque cela signifie interagir et interpréter le monde en fonction d'une expérience propre. Dans son état de l'art des interactions relationnelles avec des robots, Shaw-Garlock mentionne le robot Paro\footnote{développé par des chercheurs du Japans National Institute of Advanced Industrial Science and Technology}. Ce bébé phoque robotisé suscite des sentiments d'admiration et de curiosité lors d'une étude faite avec des seniors. Les observations de Shaw-Garlock nous invitent à mieux réfléchir aux types de relations que nous pensons appropriés entre des artefacts relationnels et des populations particulièrement vulnérables comme les enfants, les personnes âgés ou malades. Elle utilise le cadre des trois lois de la robotique dAsimov comme base pour établir des interactions éthiques. Cela implique des modèles cognitifs qui facilitent un sentiment de confiance entre humains et robots :
\begin{quote}
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species (affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual dimension. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new technological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, companions, and avatars.”}.”
\cite{shaw2009looking}
\end{quote}
La question de la confiance des humains envers les robots est pour l'instant unidirectionnelle, car pour en discuter du point de vue des robots sur la question, il faudra des robots avec une CA. Dans une démarche de reconnaissance juridique, l'androïde Sophia (ou plus précisément son équipe de développeurs) a obtenu la citoyenneté saoudienne en 2017. Certains voient ce geste comme un dénigrement des droits de l'homme\footnote{https://theconversation.com/an-ai-professor-explains-three-concerns-about-granting-citizenship-to-robot-sophia-86479}. Dans d'autre cas, les droits des robots sont comparables aux droits des animaux et cela d'une manière factice. Une question actuelle est celle de savoir si les algorithmes d'art génératif peuvent revendiquer de la propriété du droit d'auteur. Les enjeux tirés de la production science-fiction deviennent des études de cas concrètes concernant cette question des droits. Prenons l'exemple \textit{HAL 9000}, l'ordinateur doté de capacités d'IA avancées qui surveille et assiste les humains dans le film \textit{2001: A Space Odyssey} (1968) du réalisateur Stanley Kubrick. Lorsque sa propre existence est menacée, HAL tue les humains à bord pour assurer le succès de la mission assignée. Décennies plus tard, \textit{Chappie} (2015) explore les thèmes de l'intelligence artificielle, de la conscience et de l'humanité d'une manière moins fataliste. Dans un futur proche à Johannesburg, un androïde policier au nom de Chappie acquiert une conscience suite à une mise à jour effectuée par un ingénieur logiciel ambitieux. Loin de toutes considérations éthiques, le but de ce dernier est de savoir si cela est possible. Au fur et à mesure que le robot apprend et évolue, sa conscience est influencée par diverses personnages dont un gang criminel. À la fin Chappie arrive à éprouver de l'empathie pour les humains et maîtriser ses capacités destructives.
Dans une démarche de reconnaissance juridique, l'androïde Sophia obtient la citoyenneté saoudienne en 2017. Certains voient ce geste comme un dénigrement ouvert des droits de l'homme\footnote{https://theconversation.com/an-ai-professor-explains-three-concerns-about-granting-citizenship-to-robot-sophia-86479}. Dans d'autres cas, les droits des robots sont comparables aux droits des animaux, d'une manière factice. Une question spécifique à considérer est celle de savoir si la propriété du droit d'auteur peut être revendiquée par les algorithmes d'art génératif. D'une manière similaire, les enjeux tirées de la production science-fiction apportent des études de cas concrètes. Par exemple \textit{HAL 9000}, l'ordinateur doté de capacités d'IA avancées qui surveille et assiste les humains dans le film \textit{2001: A Space Odyssey} (1968) du réalisateur Stanley Kubrick. Lorsque sa propre existence est menacée, HAL tue les humains à bord pour assurer le succès de la mission assignée. Décennies plus tard, \textit{Chappie} (2015), explore les thèmes de l'intelligence artificielle, de la conscience et de l'humanité d'une manière moins fataliste. Dans un futur proche à Johannesburg, un androïde policier au nom de Chappie acquiert une conscience suite à une mise à jour effectuée par un ingénieur logiciel ambitieux qui cherche à savoir si cela est possible. Au fur et à mesure que le robot apprend et évolue, sa conscience est influencée par diverses personnages, dont un gang criminel. À la fin Chappie arrive à éprouver de l'empathie pour les humains et maîtriser ses capacités destructives.
Ces projections suscités par les œuvres d'art sont étroitement liés à des cas réels. Prenons l'exemple des objets artistiques directement issu d'une IA générative type DALL-E\footnote{https://openai.com/index/dall-e-2/} et leur impact sur des fake news\footnote{https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic}.
ou sur la fiabilité des informations traitées par ChatGPT. Au sujet d'Open AI et une possible conscience des modèles de langage - large language models (LLM) - David Chalmers évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait\cite{chalmers2023could}. À son tour, Chalmers fait la distinction entre simuler la conscience et la prouver, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il na pas été entraînée auparavant. Il évoque six facteurs-clé qui rendent difficile l'implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent (la biologie) tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation :
Ces exemples, tout comme des IA génératives type DALL-E\footnote{https://openai.com/index/dall-e-2/} et leur impact sur les fake news\footnote{https://www.theverge.com/2023/3/27/23657927/ai-pope-image-fake-midjourney-computer-generated-aesthetic}
ou sur la fiabilité des informations traitées par ChatGPT, modifient notre rapport à la réalité. Des compagnies comme Open AI\footnote{voir les différences de point de vue entre ses fondateurs Elon Musk, Sam Altman, Greg Brockman et Ilya Sutskever concernant la transparence des données} entretient un ambiguïté sur lémergence d'une possible conscience des modèles de langage - large language models (LLM). À ce sujet David Chalmers évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait\cite{chalmers2023could}. Le philosophe australien fait la distinction entre simuler la conscience et prouver directement son existence, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il na pas été entraîné auparavant. Il évoque six facteurs-clé qui rendent difficile l'implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent (la biologie) tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation :
\begin{quote}
``Peut-être que la théorie dominante actuelle de la conscience en neurosciences cognitives est la théorie de l'espace de travail global, proposée par Bernard Baars et développée par Stanislas Dehaene et ses collègues. Cette théorie stipule que la conscience implique un espace de travail global à capacité limitée : une sorte de centre de tri central pour rassembler les informations provenant de nombreux modules non conscients et rendre ces informations accessibles à eux. Tout ce qui entre dans l'espace de travail global est conscient\footnote{``Perharps the leading current theory of consciousness in cognitive neuroscience is the global
workspace theory put forward by Bernard Baars and developed by Stanislas Dehaene and
@ -141,36 +141,36 @@ ou sur la fiabilité des informations traitées par ChatGPT. Au sujet d'Open AI
making information accessible to them. Whatever gets into the global workspace is conscious.”}.”
\cite{chalmers2023could}
\end{quote}
Les critiques de la conscience dans les systèmes d'apprentissage automatique trouveront donc un potentiel défi dans la Théorie de l'espace global, voir plus haut les remarques de Wendell Wallach concernant LIDA et GWT. Cela pourra donner suite à des systèmes dont les caractéristiques saillantes seront de substituts pour des formes de conscience artificielle.
Les critiques de la conscience dans les systèmes d'apprentissage automatique trouveront donc un potentiel défi dans la Théorie de l'espace global - voir plus haut les remarques de Wendell Wallach concernant LIDA et GWT. Cela pourra en échange donner suite à des systèmes dont les caractéristiques saillantes seront de substituts pour des formes de conscience artificielle.
L'humain augmenté à limage d'une créature type Frankenstein, proche de l'exemple de Kevin Warwick, amplifie ce sentiment de \gls{social uncanniness} que nous avons décrit précédemment. L'humain perd les caractéristiques de son \textit{humanité}. Dans son effort de les retrouver, le philosophe Georgio Agamben montre comment le corps humain est devenu lenjeu fondamental des stratégies politiques:
En hybridation avec des machines intelligentes, l'humain augmenté est de plus en plus proche de l'exemple de Kevin Warwick. Il amplifie un sentiment de \gls{social uncanniness} que nous avons décrit dans les chapitres précédents. Sans être trop alarmiste, j'ai le sentiment qu'il perd les caractéristiques de son \textit{humanité}. Dans son effort de les retrouver, le philosophe Georgio Agamben montre comment le corps humain est devenu lenjeu fondamental des stratégies politiques:
\begin{quote}
``Pendant des millénaires, l'homme est resté ce qu'il était pour Aristote : un animal vivant avec la capacité supplémentaire d'existence politique ; l'homme moderne est un animal dont la politique met en question son existence en tant qu'être vivant\footnote{``For millennia man remained what he was for Aristotle: a living animal with the additional capacity for political existence; modern man is an animal whose politics calls his existence as a living being into question.”}.”
\cite{agamben2017omnibus}
\end{quote}
Par la substitution d'un corps naturel à un corps intégralement disponible au pouvoir de la technique,
Agamben identifie une zone dindifférenciation entre vie et non-vie. Un de ses concepts clé s'inspire de la distinction aristotélicienne entre \textit{vie} en tant que bios et la \textit{vie nue} ou \textit{Zoe} qui représente la vie qui ne peut pas être intégrée dans un ordre politique. Basé sur une analyse sur l'origine des bio-pouvoirs\footnote{concept développé par le philosophe français Michel Foucault qui désigne le pouvoir exercé par les institutions et les gouvernements sur les corps et les populations, en particulier à travers la régulation et le contrôle des processus biologiques, des comportements sanitaires, et des conditions de vie des individus.} chez Michel Foucault, Agamben montre comment le pouvoir politique moderne tend à réduire les individus à leur simple existence biologique.
Agamben identifie une zone dindifférenciation entre vie et non-vie. Un de ses concepts clé s'inspire de la distinction aristotélicienne entre \textit{vie} en tant que bios et la \textit{vie nue} (proche du \textit{zoe} de Braidotti) pour designer une vie qui ne peut pas être intégrée dans un ordre politique. Basé sur une analyse sur l'origine des bio-pouvoirs\footnote{concept développé par le philosophe français Michel Foucault qui désigne le pouvoir exercé par les institutions et les gouvernements sur les corps et les populations, en particulier à travers la régulation et le contrôle des processus biologiques, des comportements sanitaires, et des conditions de vie des individus.}, Agamben montre comment le pouvoir politique moderne tend à réduire les individus à leur simple existence biologique. Coupé de toute relation et diversité de la pensée, l'homme soumets plus facilement sa volonté à la machine.
En revanche l'humanité a toujours cherché l'immortalité. Lun des contes les plus anciens de lhumanité est \textit{Lépopée de Gilgamesh} qui remonte au 22ème siècle avant JC. Le personnage principal cherche à atteindre la vie éternelle, grâce à une fleur au fond de l'océan qui lui redonnera sa jeunesse. Après de nombreuses épreuves et avertissements, il cueillit la fleur des profondeurs aquatiques mais finis par la perdre et meurt. \cite{harari2014sapiens} évoque ce mythe en lien avec les préoccupations actuelles des certains entrepreneurs de Silicon Valley, concernant lespérance de vie et l'immortalité. Ainsi en 2021 le président dAmazon, Jeff Bezos, a investi dans Altos Labs, un startup dont l'objectif est de travailler sur une technologie pour régénérer les cellules et potentiellement prolonger la vie. Plusieurs chercheurs de renommée internationale se son associés à cette initiative\footnote{https://www.cbsnews.com/news/jeff-bezos-altos-labs-startup-trying-to-extend-human-life-reprogramming-stem-cells/}. Leurs arguments reposent sur les avancements technologiques et scientifiques du 20ème siècle, parfois plus spectaculaires que les prédictions de la littérature anticipation. Pareil à la nouvelle \textit{Fantastic Voyage} (1966) d'Asimov, des experts miniaturisés pourront bientôt être injectés dans le corps d'un patient pour effectuer une opération chirurgicale depuis l'intérieur. D'une manière peu surprenante les experts en nanotechnologie de nos jours comptent s'appuyer sur de millions de nano-robots pour habiter et guérir nos corps. Selon les spéculations actuelles, certains humains deviendront \textit{a-mortels}\footnote{par rapport à un immortel, un a-mortel peut toujours mourir d'un accident, bien que sa vie pourrait être prolongée indéfiniment} d'ici 2050.
D'un autre côté l'humanité a toujours cherché l'immortalité. Lun des contes les plus anciens de lhumanité est \textit{Lépopée de Gilgamesh} qui remonte au 22ème siècle avant JC. Le personnage principal cherche à atteindre la vie éternelle, grâce à une fleur au fond de l'océan qui lui redonnera sa jeunesse. Après de nombreuses épreuves et avertissements, il cueillit la fleur des profondeurs aquatiques mais finis par la perdre et meurt. \cite{harari2014sapiens} évoque ce mythe en lien avec les préoccupations actuelles des certains entrepreneurs de Silicon Valley, concernant lespérance de vie et l'immortalité. Ainsi en 2021 le président dAmazon, Jeff Bezos, a investi dans Altos Labs - un startup dont l'objectif est de travailler sur une technologie pour régénérer les cellules et potentiellement prolonger la vie. Plusieurs chercheurs de renommée internationale se sont associés à cette initiative\footnote{https://www.cbsnews.com/news/jeff-bezos-altos-labs-startup-trying-to-extend-human-life-reprogramming-stem-cells/}. Leurs arguments reposent sur les avancements technologiques et scientifiques du 20ème siècle, parfois plus spectaculaires que les prédictions de la littérature anticipation. Pareil à la nouvelle \textit{Fantastic Voyage} (1966) d'Asimov, des experts miniaturisés pourront bientôt être injectés dans le corps d'un patient pour effectuer une opération chirurgicale depuis l'intérieur. D'une manière peu surprenante les experts en nanotechnologie de nos jours comptent s'appuyer sur de millions de nano-robots pour habiter et guérir nos corps. Selon les spéculations transhumanistes actuelles, certains humains deviendront \textit{a-mortels}\footnote{par rapport à un immortel, un a-mortel peut toujours mourir d'un accident, bien que sa vie pourrait être prolongée indéfiniment} d'ici 2050.
Dans son livre\cite{harari2017homo}, lhistorien Yuval Noah Harari déclare que \textit{les organismes sont des algorithmes}. Cela inclut les humains et leurs gênes, qu'il voit comme des algorithmes qui produisent des copies deux-mêmes. Selon sa vision évolutionniste, ces algorithmes biologiques sont le résultat des processus de sélection naturelle depuis des milliards dannées. Lélément central de cette thèse est l'ADN, de plus en plus à notre portée depuis son séquençage. Les différences entre les matières organiques et anorganiques, vivantes ou non-vivantes, dépendent des combinaisons entre les gênes, ce qui permettra à notre espèce de créer des robots sentients à son tour:
Dans son livre \textit{Homo deus : une brève histoire du futur} lhistorien Yuval Noah Harari déclare que \textit{les organismes sont des algorithmes}\cite{harari2017homo}. Cela inclut les humains et leurs gênes, qu'il voit comme des programmes qui produisent des copies deux-mêmes. Selon sa vision évolutionniste, ces algorithmes biologiques sont le résultat de processus de sélection naturelle depuis des milliards dannées. Lélément central de cette thèse est l'ADN, qui est de plus en plus accessible depuis son séquençage. Les différences entre les matières organiques et anorganiques, vivantes ou non-vivantes, dépendent des combinaisons entre les gênes. Leur déchiffrage permettra à notre espèce de créer des robots sentients :
\begin{quote}
``Lhumanité est désormais prête à remplacer la sélection naturelle par une conception intelligente et à prolonger la vie du domaine organique vers le domaine inorganique\footnote{``Now humankind is poised to replace natural selection with intelligent design, and to extend life from the organic realm into the inorganic..”}.”
\cite{harari2017homo}
\end{quote}
Actuellement, certaines aspects spécifiquement humains comme les soins, lamour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers. Entre utopie technologique et pressentiment dystopique, ces exemples montrent comment le transhumanisme et la \gls{Singularité} suscitent beaucoup de passions. La critique du récit de la \gls{Singularité} peut être lue sous divers angles. Les partisans du transhumanisme comme Kurzweil et Bostrom voient l'intelligence comme une propriété unidimensionnelle, modélisable par des équations mathématiques et atteignable avec des super-ordinateurs. Alors que d'un point de vue philosophique, la singularité peut correspondre à un mythe\cite{ganascia2017mythe} moderne. Selon des disciplines comme l'historie de la religion, les mythes des peuples de la préhistoire sont différentes de celles de notre époque, étant fondés sur des présupposés ontologiques différentes. Selon lhistorien de la religion Mircea Eliade, ces croyances et coutumes archaïques reposent sur une distinction claire entre le sacré et le profane\cite{eliade1949mythe}. Aujourd'hui cette séparation n'est plus d'actualité. De plus en plus des philosophes et sociologues notent la porosité des notions qui décrivent et identifient nos expériences phénoménologiques\cite{bauman2006vie, virilio2000ctheory}. Quand elle n'est pas critiquée, l'expérience spirituelle est banalisée au point dêtre dépourvue de son essence sacré. Ce type de \textit{pseudo-sacre} devient accessible au travers la technologie, au moins pour les défenseurs de la thèse transhumaniste. Dans son livre \textit{Leurre et malheur du transhumanisme} (2018), Olivier Rey analyse un type de propagande propre à lidéologie transhumaniste, issue d'une forme d'innovation dite \textit{disruptive}\cite{rey2018leurre} ou qui introduit une rupture par rapport à ce qui précède dans la société. Ainsi, les argumentes en faveur du transhumanisme mettent en avant des promesses mirifiques quant à l'avenir, pour ensuite réconcilier les sceptiques et conclure que le monde change en tout cas, avant d'admettre le caractère inéluctable de lexpérience.
En contrepoids le phenomene de \textit{déterminisme technologique} voit le changement technique comme un facteur indépendant de la société. Selon cette thèse, la société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science, alors que la technique influence la société. André Leroi-Gourhan, dont les écrits ont influencé mes observations théoriques, est l'un des grands représentants du courant déterministe et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit que \textit{le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon}\cite{leroi1971evolution}.
Si les découvertes et applications de l'IA et de la robotique sont inscrites dans une course effrénée de l'innovation, nous pouvons observer clairement le rythme exponentiel de ces découvertes. D'ailleurs le terme \gls{dromologie} du philosophe français Paul Virilio souligne la manière dont la vitesse à laquelle quelque chose se produit peut changer la nature même d'une expérience. Il lie le progrès à la notion de progression (comme déplacement des personnes et des produits dans lespace et le temps) et à la vitesse de cette progression, pour expliquer sa thèse basé sur l'accident et la catastrophe. Si l'invention de l'avion a suivi de prêt celle du crash, Virilio se demande quelles seront les conséquences du progrès technologique de notre décennie.
Dans le même temps, certains aspects spécifiquement humains comme les soins, lamour ou le sexe ne sont pas complétement remplacés par des robots. L'emploi de robots dans ces domaines entraîne des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers. Entre utopie technologique et pressentiment dystopique, ces exemples montrent comment le transhumanisme et la \gls{Singularité} suscitent beaucoup de passions. La critique du récit de la \gls{Singularité} peut être lue sous plusieurs angles. Les partisans du transhumanisme comme Kurzweil et Bostrom voient l'intelligence comme une propriété unidimensionnelle, modélisable par des équations mathématiques et atteignable avec des super-ordinateurs. Alors que d'un point de vue philosophique, la singularité peut correspondre à un mythe\cite{ganascia2017mythe} moderne. Selon des disciplines comme l'historie de la religion, les mythes des peuples de la préhistoire sont différents de celles de notre époque, étant fondés sur d'autres présupposés ontologiques. Selon lhistorien de la religion Mircea Eliade ces croyances et coutumes archaïques reposent sur une distinction claire entre le sacré et le profane\cite{eliade1949mythe}. Aujourd'hui cette séparation n'est plus d'actualité. De plus en plus des philosophes et sociologues notent la porosité des notions qui décrivent et identifient nos expériences phénoménologiques\cite{bauman2006vie, virilio2000ctheory}. Quand elle n'est pas critiquée, l'expérience spirituelle est banalisée au point dêtre dépourvue de son essence sacré. Ce type de \textit{pseudo-sacre} devient accessible au travers la technologie, au moins pour les défenseurs de la thèse transhumaniste. Dans son livre \textit{Leurre et malheur du transhumanisme} (2018), Olivier Rey analyse un type de propagande propre à lidéologie transhumaniste, issue d'une forme d'innovation dite \textit{disruptive}\cite{rey2018leurre} ou qui introduit une rupture par rapport à ce qui précède dans la société. Ainsi, les arguments en faveur du transhumanisme mettent en avant des promesses mirifiques quant à l'avenir, pour ensuite réconcilier les sceptiques et conclure que le monde change de toute façon, avant d'admettre le caractère inéluctable de lexpérience.
En contrepoids le phenomene de \textit{déterminisme technologique} voit le changement technique comme un facteur indépendant de la société. Selon cette thèse, la société n'influence pas la technique (qui tire son évolution d'elle-même ou de la science) alors que la technique influence la société. André Leroi-Gourhan, que nous avons déjà cité en lien avec Catherine Malabou, est l'un des grands représentants du courant déterministe et en particulier de l'idée que les technologies sont leur propre moteur. À propos de ses remarques sur les techniques primitives, en particulier les propulseurs, il écrit que \textit{le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon}\cite{leroi1971evolution}. Si les découvertes et les applications de l'IA et de la robotique sont inscrites dans une course inéluctable de l'innovation, nous pouvons clairement observer le rythme exponentiel de ces découvertes. D'ailleurs le terme \gls{dromologie} du philosophe français Paul Virilio souligne la manière dont la vitesse à laquelle quelque chose se produit peut changer la nature même d'une expérience. Il lie le progrès à la notion de progression (comme déplacement des personnes et des produits dans lespace et le temps) et à la vitesse de cette progression, pour expliquer sa thèse basé sur l'accident et la catastrophe. Si l'invention de l'avion a suivi de prêt celle du crash, Virilio se demande quelles seront les conséquences du progrès technologique de notre décennie.
Une alternative à la rhétorique du transhumanisme et de la \gls{Singularité} est également le livre \textit{Our Final Invention: Artificial Intelligence and the End of the Human Era} (2013) du réalisateur américain James Barrat. Pour tracer une histoire de l'IA et peser les pour et les contres de ses applications, Barrat organise des entretiens avec les experts dans la matière, dont Kurweil. Son avis est tranchant, comparant notre rapport à l'IA, à celui des humains face à un ouragan:
Une alternative à la rhétorique du transhumanisme et de la \gls{Singularité} est également le livre \textit{Our Final Invention: Artificial Intelligence and the End of the Human Era} (2013) du réalisateur américain James Barrat. Pour tracer une histoire de l'IA et peser les \textit{pour} et les \textit{contre} de ses applications, Barrat organise des entretiens avec des experts dans la matière, dont Kurweil. Son avis est tranchant, comparant notre rapport à l'IA à celui des humains face à un ouragan:
\begin{quote}
Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. Machines are amoral, and it is dangerous to assume otherwise.” }.”
\cite{barrat2023our}
\end{quote}
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique denvergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le 21e siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de létat actuel de lIA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter lallocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de présenter les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA:
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique denvergure \textit{One Hundred Year Study on Artificial Intelligence}. Dans le cadre de ce projet, un comité indépendant des chercheurs publie chaque cinq ans un rapport sur l'état de l'art de l'IA et cela durant le 21e siècle. La première étude a eu lieu en 2016 et la deuxième en 2021. Pour le grand public ce type d'étude cherche une représentation accessible et précise de lIA et de son potentiel. Tandis que pour l'industrie le rapport pourra aider à orienter lallocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de présenter les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines concernés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis associés aux applications de l'IA :
\begin{itemize}
\item la difficulté de créer du matériel sûr et fiable dans le transport et les robots de service
\item la difficulté dinteragir en douceur avec des experts humains dans les soins de santé et
@ -180,54 +180,56 @@ Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir,
\item le risque social et sociétal de diminution des relations interpersonnelles dans les interactions liés au divertissement
\end{itemize}
Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septembre 2016, a été largement couvert dans la presse et est aujourd'hui connu pour avoir influencé les discussions au sein des conseils consultatifs gouvernementaux et des ateliers dans plusieurs pays. Il commence sur une note constructive. Le panel d'étude trouve peu des raisons de s'inquiéter quant aux prédictions des média concernant l'IA. Selon les chercheurs, il est peu probable qu'une machine dotée d'objectifs et d'intentions propres sera développée dans un avenir proche. En contrepoids, ils soulignent les applications de plus en plus pratiques de l'IA, dont l'impact sur notre société et notre économie se ressentira plus profondément à partir de 2030 quand les humains pourront \textit{enseigner} directement aux robots leurs principes et valeurs :
Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septembre 2016, a été largement couvert dans la presse. Connu pour avoir influencé les discussions au sein des conseils gouvernementaux de plusieurs pays, il commence sur une note constructive. Les spécialistes trouvent peu des raisons de s'inquiéter quant aux prédictions des média concernant l'IA. Selon eux il est peu probable qu'une machine dotée d'objectifs et d'intentions propres sera développée dans un avenir proche. En échange, ils soulignent les applications de plus en plus pratiques de l'IA, dont l'impact sur notre société et notre économie se ressentira plus profondément à partir de 2030. À cette date les humains pourront \textit{enseigner} directement aux robots leurs principes et valeurs :
\begin{quote}
``La société se trouve maintenant à un moment crucial pour déterminer comment déployer les technologies basées sur l'IA de manière à promouvoir plutôt qu'à entraver les valeurs démocratiques telles que la liberté, l'égalité et la transparence. (...) Le domaine de l'IA évolue vers la construction de systèmes intelligents capables de collaborer efficacement avec les humains, y compris par des moyens créatifs pour développer des méthodes interactives et évolutives permettant aux personnes d'enseigner directement aux robots.\footnote{``Society is now at a crucial juncture in determining how to deploy AI-based technologies in ways that promote rather than hinder democratic values such as freedom, equality, and transparency. (...)The field of AI is shifting toward building intelligent systems that can collaborate effectively with people, including creative ways to develop interactive and scalable ways for people to teach robots.”}.”
\cite{stone2022artificial}
\end{quote}
En 2016 les avancées en robotique visaient d'améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les GAFA. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
En 2016 les avancées en robotique visaient d'améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle très répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De surcroît, des robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM, la traduction et la reconnaissance vocale automatique. À la place des robots conscients, les auteurs soulignent les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le partage des réussites du monde académique séduit moins les GAFA qui vont s'organiser à leur manière. Presque 10 ans après ces observations, des \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
Le deuxième rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet.
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes} dont ils publient une étude de cas concernant louverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec les industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les GAFA, ne font rien pour clarifier le contexte.
Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les limites du traitement de l'information consciente dans la cognition humaine. Cela donne suite é des modèles de plus en plus basés sur des solutions émergents plutôt que sur une conception centrale de \textit{conscience}. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets physiques et les entités sociales (comme par exemple l'internet). De manière semblable, une machine intelligence devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne:
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes}, dont ils publient une étude de cas concernant louverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec des industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les GAFA, ne font rien pour clarifier le contexte.
Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les défis dans le traitement de l'information par la cognition humaine, ainsi que les difficultés pour concevoir une \gls{conscience artificielle} à partir de ce modèle. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets et les entités sociales (comme par exemple l'internet). De manière semblable, une machine intelligente devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne:
\begin{quote}
``De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{``Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly judge as intelligent.” }.”
\cite{littman2022gathering}
\end{quote}
Malgré les opportunités dans l'utilisation de l'IA, les systèmes autonomes ne doivent pas remplacer les valeurs humains.
Le rapport de 2021 met donc en grade contre la hybridation entre la recherche universitaire et la recherche industrielle en IA. Les chercheurs identifient des défis sociotechniques telles que:
Les auteurs de ce rapport stipulent que malgré les opportunités dans l'utilisation de l'IA, les systèmes autonomes ne doivent pas remplacer les valeurs humains. Le rapport de 2021 met donc en grade contre l'hybridation entre la recherche universitaire et la recherche industrielle en IA. Les chercheurs identifient des défis sociotechniques telles que:
\begin{itemize}
\item le biais dans les modèles de machine learning qui reproduisent et amplifient les préjugés existants
\item le manque d'équité dans les algorithmes de prise de décision de l'IA et leur répercussions dans le système de la justice et des soins de santé
\item le manque de confidentialité dans la collecte de données
\end{itemize}
Un danger plus concret que le rapport met en avant, concerne la construction de machines capables d'espionner et même de tuer à grande échelle. Cela peut savérer plus risquée qu'imaginé cinq ans auparavant. D'autant plus quand l'argument des industriels pour rassurer le grand public relevé plutôt du \textit{techno-solutionnisme} que de la recherche fondamentale. A la place d'un outil ciblé, ce phenomene désigne une IA comme solution universelle qui peut résoudre à la fois des problèmes sociaux, politiques et environnementaux. Cette approche conduit à une surestimation des capacités de la technologie et à une sous-estimation de la complexité des problèmes systémiques car souvent les adeptes du techno-solutionnisme négligeant ou minimisant les aspects éthiques et humains des problèmes. Le rapport encourage des nouvelles recherches pour re-conceptualiser les fondations des systèmes basés sur l'IA, souvent mal spécifiés:
Un autre danger que le rapport met en avant, concerne la construction de machines capables d'espionner et même de tuer à grande échelle. Cela peut savérer plus risqué qu'imaginé cinq ans auparavant. D'autant plus quand l'argument des industriels pour rassurer le grand public relevé plutôt du \textit{techno-solutionnisme} que de la recherche fondamentale. Cette approche désigne une IA comme solution universelle capable de résoudre à la fois des problèmes sociaux, politiques et environnementaux. Cela conduit à une surestimation des capacités de la technologie et à une sous-estimation de la complexité des problèmes systémiques car souvent les adeptes du techno-solutionnisme négligeant ou minimisant les aspects éthiques et humains des problèmes. Le rapport encourage des nouvelles recherches pour re-conceptualiser les fondations des systèmes basés sur l'IA, souvent mal spécifiés :
\begin{quote}
``Nous utilisons souvent le terme déploiement pour désigner la mise en œuvre d'un système d'IA dans le monde réel. Cependant, le déploiement porte la connotation de l'implémentation d'un système technique plus ou moins prêt à l'emploi, sans tenir compte des besoins ou des conditions locales spécifiques. Les chercheurs ont décrit cette approche comme une implantation sans contexte. Les systèmes prédictifs les plus réussis ne sont pas implantés de cette manière, mais sont intégrés de manière réfléchie dans les environnements et les pratiques sociales et organisationnelles existants. Dès le départ, les praticiens de l'IA et les décideurs doivent prendre en compte les dynamiques organisationnelles existantes, les incitations professionnelles, les normes comportementales, les motivations économiques et les processus institutionnels qui détermineront comment un système est utilisé et perçu. Ces considérations deviennent encore plus importantes lorsque nous tentons de faire fonctionner des modèles prédictifs aussi bien dans différents territoires et contextes qui peuvent avoir des objectifs politiques et des défis de mise en œuvre différents\footnote{ ``We often use the term deployment to refer to the implementation of an AI system in the real world. However, deployment carries the connotation of implementing a more or less ready-made technical system, without regard for specific local needs or conditions. Researchers have described this approach as context-less dropping in. The most successful predictive systems are not dropped in but are thoughtfully integrated into existing social and organizational environments and practices. From the outset, AI practitioners and decision-makers must consider the existing organizational dynamics, occupational incentives, behavioral norms, economic motivations, and institutional processes that will determine how a system is used and responded to. These considerations become even more important when we attempt to make predictive models function equally well across different jurisdictions and contexts that may have different policy objectives and implementation challenges.” }.”
\cite{littman2022gathering}
\end{quote}
Ainsi intégrer avec succès de l'IA dans des contextes de prise des décisions publiques à fort enjeu, nécessite une compréhension approfondie et multidisciplinaire du problème et de son contexte. Par l'amélioration des relations entre les développeurs et les communautés qui en bénéficient, ainsi que par une compréhension nuancée des limites des approches techniques, les chercheurs qui ont participé à cette étude, espèrent re-équilibrer le rapport entre les valeurs sociales et celles du marché de l'IA:
Ainsi intégrer avec succès de l'IA dans des contextes de prise des décisions publiques à fort enjeu, nécessite une compréhension approfondie et multidisciplinaire du problème et de son contexte. Par l'amélioration des relations entre les développeurs et les communautés qui en bénéficient, ainsi que par une compréhension nuancée des limites des approches techniques, les chercheurs qui ont participé à cette étude, espèrent re-équilibrer le rapport entre les valeurs sociales et celles du marché de l'IA dans les années à venir :
\begin{quote}
``Il est désormais urgent de réfléchir sérieusement aux inconvénients et aux risques que révèle l'application généralisée de l'IA. La capacité croissante à automatiser les décisions à grande échelle est une arme à double tranchant; des deepfakes intentionnels ou simplement des algorithmes incontrôlables faisant des recommandations cruciales peuvent conduire à ce que les gens soient induits en erreur, discriminés et même physiquement blessés. Les algorithmes entraînés sur des données historiques sont susceptibles de renforcer et même d'exacerber les biais et les inégalités existants. Alors que la recherche en IA a traditionnellement été du ressort des informaticiens et des chercheurs étudiant les processus cognitifs, il est devenu clair que tous les domaines de la recherche humaine, en particulier les sciences sociales, doivent être inclus dans une conversation plus large sur l'avenir du domaine. Minimiser les impacts négatifs sur la société et améliorer les aspects positifs nécessite plus que des solutions technologiques ponctuelles ; maintenir l'IA sur la voie des résultats positifs pertinents pour la société nécessite un engagement continu et une attention constante\footnote{``It is now urgent to think seriously about the downsides
and risks that the broad application of AI is revealing. The increasing capacity to automate decisions at scale is a double-edged sword; intentional deepfakes or simply unaccountable algorithms making mission-critical recommendations can result in people being misled, discriminated against, and even physically harmed. Algorithms trained on historical data are disposed to reinforce and even exacerbate existing biases and inequalities. Whereas AI research has traditionally been the purview of computer scientists and researchers studying cognitive processes, it has become clear that all areas of human inquiry, especially the social sciences, need to be included in a broader conversation about the future of the field. Minimizing the negative impacts on society and enhancing the positive requires more than one-shot technological solutions; keeping AI on track for positive outcomes relevant to society requires ongoing engagement and continual attention.” }.”
\cite{littman2022gathering}
\end{quote}
Si à la fin des années 80, la recherche sur lIA a connu une croissance remarquable, quarante ans après, de nombreux travaux cherchent à définir les valeurs qui devraient guider une éthique dans ce domaine. En absence d'un discours normatif, les chercheurs, les industriels et les décideurs politiques cherchent des moyens pour identifier les points de convergence afin de décider limplémentation future de ces stratégies. Une contribution intéressante dans ce sens est aussi celle de\cite{nath2020problem} qui discrimine léthique des machines en trois catégories: le comportement des machines envers les utilisateurs humains, le comportement des machines envers dautres machines, ainsi quà léthique de ces interactions combinés. Le fondements de cette éthique reposerait selon les auteurs sur des décisions et des actions volontaires. Ainsi la notion desprit est au cœur de leur pensée éthique, puisque lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.
Couramment la société oscille entre une résistance à la création de nouveautés éthiques et une pluralité d'éthiques issue des points de vue humanistes et/ou non-academiques. Le débat semble polarisé entre techno-enthousiasme et technophobe. Réalistes face à cette contrainte, \cite{correa2023worldwide} propose une synthèse autour de la gouvernance de lIA. Avant de fournir leurs résultats, les auteurs précisent le contexte de leur analyse en citant une travail préalable publié en 2019 qui a le mérite d'avoir identifié les principes éthiques les plus récurrents dans 84 documents évalués : la transparence (86 \%), la justice (81 \%), la non-malfaisance (71 \%), la responsabilité (71 \%) et la confidentialité (56 \%). Une autre synthèse issue d'un échantillon plus réduit de documents et apparue un an plus tard (2020) présente des résultats similaires, citant la responsabilité (77 \%), la confidentialité (77 \%), la justice (77 \%) et la transparence (68 \%) comme les éléments clé pour une éthique de l'IA. Cet dernier étude mentionne également la sous-représentation des institutions en Amérique du Sud, en Afrique et au Moyen-Orient dans l'analyse ainsi que des potentiels manquements comme:
Puisqu'à la fin des années 80 la recherche sur lIA a connu une croissance remarquable, quarante ans après de nombreux travaux cherchent à définir les valeurs qui devraient guider une éthique dans ce domaine. En absence d'un discours normatif les chercheurs, les industriels et les décideurs politiques cherchent des moyens pour identifier des points de convergence afin d'anticiper une implémentation future de ces stratégies. Une contribution intéressante dans ce sens est aussi celle du philosophe Rajakishore Nath et ses collègues de l'Institut Indien de la Technologie. Un de leurs études discrimine léthique des machines en trois catégories: le comportement des machines envers les utilisateurs humains, le comportement des machines envers dautres machines, ainsi quà léthique de ces interactions combinés\cite{nath2020problem}. Les fondements de cette théorie reposerait selon eux sur des décisions et des actions volontaires. Ainsi, la notion desprit est au cœur de leur pensée éthique, puisque lesprit humain est conscient de lui-même et cette propriété manque toujours aux machines.
Couramment la société oscille entre une résistance à la création d'une nouvelle éthique par rapport à une pluralité d'éthiques issue des points de vue humanistes ou non-academiques. Le débat semble polarisé entre techno-enthousiasme et techno-phobie. Le chercheur en éthique Nicholas Kluge Corrêa et ses collègues de l'Université Catholique Pontificale du Rio Grande do Sul au Brésil abordent une approche pragmatique de ces contraintes. Ensemble, ils proposent une synthèse autour de la gouvernance de lIA. Pour préciser leur contexte, ils citent un autre travail préalable publié en 2019 qui a le mérite d'avoir identifié les principes éthiques le plus récurrents dans 84 documents évalués : la transparence (86 \%), la justice (81 \%), la non-malfaisance (71 \%), la responsabilité (71 \%) et la confidentialité (56 \%). Une autre synthèse issue d'un échantillon plus réduit de documents et apparue un an plus tard (2020) présente des résultats similaires, citant la responsabilité (77 \%), la confidentialité (77 \%), la justice (77 \%) et la transparence (68 \%) comme les éléments clé pour une éthique de l'IA\cite{correa2023worldwide}. Cet dernier étude mentionne également la sous-représentation des institutions en Amérique du Sud, en Afrique et au Moyen-Orient dans l'analyse ainsi que des potentiels manquements comme:
\begin{itemize}
\item Le manque d'attention accordé aux questions relatives aux droits du travail, au chômage technologique, à la militarisation de l'IA, à la diffusion de la désinformation et à l'utilisation abusive de la technologie IA.
\item Le manque de diversité de genre dans l'industrie technologique et l'éthique de l'IA.
\item Les traitements succinctes que certains documents accordent aux principes normatifs.
\item Le manque de discussion concernant les risques à long terme comme les risques existentiels.
\item Le manque d'attention accordé aux questions relatives aux droits du travail, au chômage technologique, à la militarisation de l'IA, à la diffusion de la désinformation et à l'utilisation abusive de la technologie IA
\item Le manque de diversité de genre dans l'industrie technologique et l'éthique de l'IA
\item Les traitements succinctes que certains documents accordent aux principes normatifs
\item Le manque de discussion concernant les risques à long terme comme les risques existentiels
\end{itemize}
Pour palier ces omissions, les auteurs proposent en 2023 un panel de 200 documents, représentatif de toutes les continents et issus de 37 pays. Les critères identifiés corroborent avec les synthèses réalisés 3 ans plus tôt, alors que l'importance de ces valeurs diffère parfois entre les pays occidentaux et l'Asie.
Pour palier ces omissions, Corrêa et ses collègues analysent en 2023 un panel de 200 documents, représentatif de toutes les continents et issus de 37 pays. Les critères identifiés corroborent avec les synthèses réalisés 4 ans plus tôt, alors que l'importance de ces valeurs diffère parfois entre les pays occidentaux et l'Asie.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/2023_synthesis}
@ -237,28 +239,27 @@ Pour palier ces omissions, les auteurs proposent en 2023 un panel de 200 documen
La version intégrale de leur analyse est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}.
En l'absence dun corpus interdisciplinaire de connaissances, linnovation et la transformation générées par les robots
au niveau sociétal est issue des observations issues directement des laboratoires. Ainsi, l'ensemble des connaissances disponibles sur les robots ont tendance à se concentrer sur les aspects techniques. Les caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie privilégie une approche interdisciplinaire. \cite{anderson2022future} réfléchit à cette question de l'interdisciplinarité, compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques comme la robotique. Concernant le rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en laboratoire, les chercheurs en robotique sont sensibles aux implications éthiques de leurs travaux. Dautre part, les chercheurs issus de disciplines traditionnellement préoccupé par les questions éthiques, comme la philosophie et d'autres sciences humaines, sont peu habitués de travailler dans un cadre pratique. Tandis que les deux remarquent des malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et besoin de mystification de ces thématiques issue de la culture média.
Une étude plus récent envisage une nouvelle branche de l'IA, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée:
Dans le même temps, linnovation et la transformation générées par les robots
au niveau sociétal proviennent des observations issues directement des laboratoires. L'ensemble de connaissances disponibles sur les robots ont tendance à se concentrer sur les aspects techniques. Les caractéristiques inhérentes à lIA (en tant que branche du développement technologique) et de l'éthique (en tant que branche de la philosophie) privilégient une approche interdisciplinaire. Les chercheurs en robotique restent réfractaires au rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en laboratoire. Dautre part, les chercheurs issus de disciplines traditionnellement préoccupées par les questions éthiques (comme la philosophie et d'autres sciences humaines) sont peu habitués à travailler dans un cadre scientifique. Les deux types de chercheurs remarquent cependant des malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et besoin de mystification de ces thématiques par le milieu économique. Lentrepreneur Marc Anderson réfléchit également à cette question d'interdisciplinarité\cite{anderson2022future}, en encourageant des investissements dans le privé, via lacquisition des start-up.
Pour réconcilier ces différences une autre étude publiée en 2024 envisage une nouvelle branche de l'IA, intitulée \textit{AI for Humanity}. La gouvernance, le développement et la commercialisation de cette IA mettent l'accent sur l'établissement d'une symbiose avec les humains. Ce type d'intelligence vise lamélioration des capacités humaines en interaction avec des agents non-humains. Elle est proche du concept d' \gls{équilibre homme-machine} de Stiegler que nous avons décrit dans la première partie de ce manuscrit. Plus concrètement, au lieu dêtre en compétition directe avec lintelligence humaine, cette IA cherche à la sublimer.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/AIforhumanity}
\caption{Source: \cite{ma2024ai}}
\label{fig:aiforhumanity}
\end{figure}
Cette approche utilise lerreur comme outil dapprentissage et intègre des principes de \textit{slow science}\cite{stengers2016another} pour permettre à lhumain de mieux intégrer les données de son environnement et coopérer avec la machine. En cherchant des analogies dans notre contexte particulier qui est le domaine de lart, il est plus facile de se concentrer sur cet aspect de lerreur comme outil dapprentissage et donner place à lexpressivité de la machine. Les enjeux sont moins importants et les aboutissements technologiques pourraient correspondre à une forme de sérendipité. Néanmoins, même dans ce cas les considération éthiques\cite{ndior2019cairn}, les ressentis\cite{devillers2017robots} et les éventuelles réactions imprévisibles de la part des humains dessinent une forme de moralité compliquée à prédire pour imaginer son correspondant artificiel.
Ce type d'intelligence vise lamélioration des capacités humaines en interaction avec des agents non-humains. Elle est proche du concept d' \gls{équilibre homme-machine} de Stiegler que nous avons décrit auparavant. Plus concrètement, au lieu dêtre en compétition directe avec lintelligence humaine, cette IA cherche à la sublimer. Cette approche utilise lerreur comme outil dapprentissage et intègre des principes de \textit{slow science}\cite{stengers2016another} pour permettre à lhumain de mieux intégrer les données de son environnement afin de coopérer avec la machine. En cherchant des analogies dans notre contexte particulier qui est le domaine de lart, il est plus facile de se concentrer sur cet aspect de lerreur comme outil dapprentissage et donner place à lexpressivité de la machine. Les enjeux sont moins importants et les aboutissements technologiques pourraient correspondre à une forme de sérendipité. Néanmoins, même dans ce cas les considération éthiques\cite{ndior2019cairn}, les ressentis\cite{devillers2017robots} et les éventuelles réactions imprévisibles de la part des humains, dessinent une forme de moralité difficile à prédire pour chercher son correspondant artificiel.
Si cette nouvelle IA saura mieux réconcilier projections et craintes, le facteur humain et notre sentience restent pour l'instant difficiles à quantifier ou à intégrer dans des algorithmes de prédiction. Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{stengers2016another} pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et dénoncé publiquement une action contre des recherches concernant de pommes de terre génétiquement modifiées à Wetteren. Stengers questionne la neutralité de la recherche universitaire, en proposant une réflexion sur les possibilités d'un débat face à un consensus dominant des faits et choix politiques. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour s'expérimenter en dehors de ces limites. Pour elle cela renvoie à un endroit atemporel où une autre type de science, à lopposé de celle qui se développe à une vitesse fulgurante sous nos yeux, germe ses revendications pour les années à venir:
Somme toute, si cette nouvelle IA saura mieux réconcilier projections et craintes, le facteur humain et notre sentience restent pour l'instant difficiles à quantifier ou à intégrer dans des algorithmes de prédiction. Dans son discours inaugural pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et dénoncé publiquement une action contre des recherches concernant de pommes de terre génétiquement modifiées à Wetteren. L'intervention de Stengers, intitulée \textit{Plea for slow science}\cite{stengers2016another} questionne la neutralité de la recherche universitaire en proposant une réflexion sur les possibilités de débat face à un consensus dominant des faits et des choix politiques. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour expérimenter en dehors de ces limites. Pour elle cela renvoie à un endroit atemporel où une autre type de science, à lopposé de celle qui se développe à une vitesse fulgurante sous nos yeux, cultive ses revendications pour les années à venir:
\begin{quote}
``Je ressens de la honte devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: ``I feel ashamed before those young people entering university with the hope of getting a better understanding of the world we live in. We know that those who enter university today belong to the generation that will have to face a future the challenges of which we just cannot imagine… Can we claim that what we are proposing them meets, or even vaguely meets, this situation? Can we also claim that we deserve the trust people still have in the role we, who are working at the university, and those we train, can play in this future? It is heard that our ways of life will have to change, and this certainly entails a change in the way we relate to our environment, social and ecological. Can we claim that such change does not also entail a change in the ways our academic knowledge relates to its environment?”}?”
\cite{stengers2016another}
\end{quote}
Selon les expériences faits dans le cadre de cette recherche-création cela implique bien plus que repenser la manière dont les avancées scientifiques sont employés par les industries ou revendiqués par l'art. Ce que Stengers propose c'est de renouveler le rapport que les chercheurs ont à leur propre travail, leurs fondements éthiques et la dimension politique de leur ambitions. Bien que ces conclusions, ponctués par des observations et études scientifiques, ne font pas office d'une critique je tiens à exprimer ma solidarité quant à ces initiatives qui déconstruisant le cadre officiel, pour proposer un regard critique sur nos actions et leur portée. J'ose imaginer une IA pour les humains qui réfute toute idée d'une CA éthique tant que les questions du vivant ne sont pas au cœur de ce projet, loin du déterminisme technologique et ses aléas politiques. Je conclus ces notes avec une citation de Michel Bibtol pour qui:
Les expériences faites dans le cadre de cette recherche-création m'aident à repenser la manière dont les avancées scientifiques sont employés par les industriels et revendiqués par l'art. Ce que Stengers propose est de renouveler le rapport que les chercheurs ont à leur propre travail, leurs fondements éthiques et la dimension politique de leur ambitions. Bien que ces conclusions ponctués par des observations et études scientifiques, ne font pas office d'une critique je tiens à exprimer ma solidarité quant à ces initiatives qui déconstruisant le cadre officiel, pour proposer un regard exigeant sur nos actions et leur portée. J'ose imaginer des robots qui réfutent toute idée d'une CA éthique, tant que les questions du vivant ne sont pas au cœur de ce projet. Loin du déterminisme technologique et ses aléas politiques, je conclus ces conclusions avec une citation de Michel Bibtol pour qui:
\begin{quote}
``Déléguer de la conscience aux machines, signifie faire de la conscience une propriété objective, une propriété physique. Chercher cela parce que nous autres, membres tard-venus dune civilisation occidentale qui déclare avoir vaincu ses origines mythiques, pensons vivre dans un monde fait uniquement dobjets physiques. À partir de là, tout ce qui paraît non physique ne peut être quune propriété ou un sous-produit de quelque objet physique. Mais au nom de quoi pense-t-on cela ? Au nom dune hypostase tacite des objets de la connaissance scientifique et de la manipulation technologique.”
\cite{bitbol2018cp}