From f40dbbb7f053036182a6537ba2c74c8dd5a97e05 Mon Sep 17 00:00:00 2001 From: silviaC Date: Mon, 9 Sep 2024 16:37:55 +0200 Subject: [PATCH] addding new reading on conclusion --- sections/conclusion.tex | 62 ++++++++++++++++++++--------------------- 1 file changed, 30 insertions(+), 32 deletions(-) diff --git a/sections/conclusion.tex b/sections/conclusion.tex index 52b1c71..a72dc01 100644 --- a/sections/conclusion.tex +++ b/sections/conclusion.tex @@ -8,7 +8,7 @@ Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques. Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière d’IA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Au nombre des initiatives récentes, certaines ont échoué. Parmi eux le Conseil consultatif externe sur les technologies avancées de Googgle, ou bien ChatGPT dont l'opacité des données d'entrainement\footnote{ Un entretien avec le chatbot concernant ce sujet est disponible en Annexe.} a poussée certains de ses chercheurs s'investir dans la création de la fondation \textit{EleutherAI}. Sous l’amendement de ces chercheurs, EleutherAI a publié récemment des données d'entrainement pour des grands modèles linguistiques comme le dataset \textit{Proof-Pile-2}\footnote{https://www.eleuther.ai/releases}. -En parallèle des organismes comme l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence}, continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Leur mission est d'œuvrer pour une démocratisation des pratiques en lien avec l'AI. Dans les prochaines pages je m’apprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je l’évoque pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques. +En parallèle des organismes comme l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence}, continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Leur mission est d'œuvrer pour une démocratisation des pratiques en lien avec l'IA. Dans les prochaines pages je m’apprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je l’évoque pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques. Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et de la robotique, afin de mieux penser notre cohabitation avec les machines, dans les années à venir. Au sens large, mon intention est probablement de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à l’intérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps c’est nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. Dans ce contexte, la question de la moralité devient centrale, car c’est très important d’interroger d’où vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer ou parfois excuser leur limitations. Mais quel type de moralité leurs est propre et en quoi cette nouvelle moralité influence nos interactions avec eux ? Selon \cite{dodig2012robots} une \textit{moralité artificielle} doit dépendre du niveau d’action, d’autonomie et d’intelligence d'un système. Elle doit se construire progressivement et vise plus généralement le \gls{transhumanisme} dont les robots cognitifs des prochaines générations impacteront des domaines comme la surveillance, l'ingénierie sociale, la robotique militaire, les services sexuels. Pour l'instant les enjeux éthiques de l’IA concernent l'accumulation de données, en ligne et hors ligne. Ces données peuvent manipuler des comportements humains envers des choix irrationnels, mais l’élément clé reste pour l'instant l'humain qui traite ces données. Une fois un robot capable de choix cognitifs, les enjeux éthiques ne seront plus les mêmes. Aujourd'hui la grande majorité des gens comprennent que des services supposément gratuits reposent en réalité sur un manque de transparence dans l'acquisition et la gestion des données qui les alimentent. Ces donnes qualifient l’expérience humaine comme une \textit{matière première gratuite}. La principale manière de les collecter par les GAFA (Amazon, Google/Alphabet, Apple, Facebook) implique de la manipulation envers des comportements addictifs. Cela est illustrée par le fait de penser les individus comme partie du marché\cite{zuboff2020age}. Shoshana Zuboff cite l’économiste Karl Polanyi qui a montré, il y a 70 ans, comment le marché du capitalisme industriel finit par détruire ce qu'elle est censé de vendre. La chercheuse se demande \textit{si le capitalisme industriel a mis en péril l’équilibre de la nature, quel peut-être l'effroyable effet du capitalisme de surveillance sur la nature humaine?}\cite{zuboff2020age}. Elle partage une question qui lui est posée par un jeune gérant d'une usine: \begin{quote} @@ -17,27 +17,24 @@ Cette thèse devient ainsi une contribution pour faire progresser la recherche e \end{quote} Dans son contexte, le gérant remarque la modification de la nature même du travail qui se réduit d'une tache pratique et utile pour l'ensemble, à la surveillance des données électroniques. Le mouvement open source trace les lignes d'une forme de résistance à ces comportements antidémocratiques. Cependant, Zuboff nous incite à façonner une réponse sociétale unitaire, par une réglementation et des lois adaptés au chaque contexte. -Selon Stanford Encyclopedia of Philosophy, le domaine de l’\textit{éthique de l'IA et de la robotique} regroupe aujourd'hui plusieurs sous-domaines d’éthique appliquée, dont la distinction principale se fait entre des systèmes IA en tant qu'objets (ou outils pour les humains) et des systèmes AI en tant que sujets, ou systèmes concernés par une morale propre, différente de celle des humains, que nous appelons ici \textit{éthique des machines}. Les défis spécifiques aux outils de l'IA regroupent des questions liées à la vie privée, aux préjugés et biais que cela peut engendrer, ainsi qu'à l'interaction homme-robot, aux conséquences sur le marché de l'emploi et aux conséquences de l'autonomie de ces systèmes en général. +Selon Stanford Encyclopedia of Philosophy, le domaine de l’\textit{éthique de l'IA et de la robotique} regroupe aujourd'hui plusieurs sous-domaines d’éthique appliquée, dont la distinction principale se fait entre des systèmes IA en tant qu'objets (ou outils pour les humains) et des systèmes IA en tant que sujets, ou systèmes concernés par une morale propre. Différente de celle des humains, cette éthique est connue sous le nom d'\textit{éthique des machines}. -Comme mentionné déjà, certains robots fonctionnent grâce à l'IA, tandis que d'autres non. La plupart des robots industriels actuels sont pré-configurés et emploient très peu d'apprentissage ou de raisonnement dans leur tâches. En 2021, le stock opérationnel mondial de robots industriels s'est triplé par rapport à il y a dix ans, avec un nombre total de 3,5 millions d'unités (notamment dans le secteur de l'industrie électronique et de l'automobile). Le marché de la robotique industrielle est extrêmement dynamique en Chine (plus de la moitié des installations de robots industriels), tandis que la Corée du Sud qui dispose de l'industrie la plus densément automatisée, avec 93 robots pour 1 000 employés. En Europe, l'Allemagne affiche un taux de 37 robots pour 1 000 employés. +Parmi les problématiques traitées par l’éthique des algorithmes d'IA, les chercheurs évoquent les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Issue de ces problématiques, l'éthique des machines supervise la fabrication des artefacts qui se comportent de manière éthique, appelles AMA ou \textit{Artificial Moral Agents}. Cela concerne en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. Dans un effort de clarification de ces enjeux, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie ou la culture. C'est pour cela qu'une perspective philosophique (puis plus largement artistique) et éthique du question de la conscience est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre. La mise à disposition des informations afin de réfléchir collectivement à ces questions peut se faire au travers l'art, qui sait les adresser dans un registre moins complexe. -Si les systèmes robotiques suscitent davantage d’inquiétudes à cause de leurs capacités physiques (par exemple -dans le domaine controversée de la robotique militaire et du \textit{Système d'armes létales autonome}) développés dans certaines pays, ce sont les systèmes d’IA qui auront plus d'impact dans la société. Même si les défis sont nombreux, il existe un risque important que les préoccupations éthiques restent impuissantes face au pouvoir économique et politique des acteurs et décideurs industriels. Des institutions travaillant sur les problématiques de l'\gls{éthique des robots}, essaient de pousser la réflexion plus loin et cibler certaines aspects relatives à la spécificité des robots, en tant qu’agents réels ancrés dans un environnement dynamique. +La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour le spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, j’aimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité d’une \textit{collaboration} plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agentivité non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des \gls{neurones miroirs}\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper l’influence de ces derniers sur les humains. Le projet \textit{code\_red}\cite{loke2023rouge} (2021) présenté dans un chapitre du livre \textit{Cultural Robotics: Social Robots and Their Emergent Cultural Ecologies}\cite{dunstan2023cultural} (2023), traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprend à dessiner des lèvres, pour mettre du rouge à lèvres sur une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte d’engagement: marquer ses lèvres puis sa voix par une couleur rouge - symbole de la peinture de guerre, pour mieux réclamer ses droits. L’influence du robot sur l’humain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin, les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où \textit{l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine}. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonance intra-corporelle}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit s’échapper à une monopolisation humaine de la rencontre. Souvent les robots utilisés dans des pratiques artistiques sont moins configurés que ceux d'un laboratoire de recherche. La-bas sont développés des prototypes qui cherchent à les \textit{améliorer}, à les doter des algorithmes d'IA pour qu'ils répondent mieux aux besoins des humains. -L'une des premières initiatives abordant directement la question d'éthique des robots fut l'art. La nouvelle de science-fiction \textit{Runaround} écrite par Isaac Asimov en 1942 aborde les célèbres \textit{Trois lois de la robotique}, mises à jour par Asimov avec une quatrième, ou la loi zéro. Ces lois ont été actualisés en 2004, lorsque le principales institutions internationales de recherche, ont organisé à Fukuoka, au Japon, le \textit{Salon international de la robotique}. A cette occasion, les participants ont signé la \textit{Déclaration mondiale sur les robots} dont les points principaux mentionnent: +Pour entrainer des algorithmes d'IA, une quantité impressionnante des données est captée, puis analysée. Cependant de plus en plus, ces données ne peuvent pas être traitées à une échelle humaine. Le \gls{big data} devient un systeme récursif anonyme, qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits, en dehors de leur usage pour les algorithmes. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations - disponible à tout moment aux impératifs des institutions qui en décident de leur sort. Pour des chercheurs comme Zuboff, le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. En contrepoids, certains sceptiques affirment que les craintes concernant l'IA reviennent sans cesse depuis sa création il y a plus de 60 ans. À mi-chemin, l'éthique des machines, mentionnée plus haut, trouve ses origines dans le travail du philosophe américain James H. Moor\cite{anderson2007machine}, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies, tout en analysant la manière dont ces technologies modifient notre conception de l'humain et de la société. Le philosophe Mark Hunyadi cite le travail de Moor\cite{hunyadi2019artificial} pour appuyer l’hypothèse que le terme d’\textit{agent moral artificiel} est philosophiquement illégitime. Afin d’éviter toute spéculation ou idéologie en lien avec l'éthique des machines, Hunyadi cherche à fournir une compréhension claire de ce que c'est l'éthique, du type de rationalité qu'elle met en œuvre, de sa nature et des types de conduite éthique en fonction d'un contexte particulier. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains. Cette piste est innovante, bien que les développements technologiques et leur rythme effréné n'accepteront pas si facilement la critique philosophique de Hunyadi. + +Comme mentionné déjà, certains robots fonctionnent grâce à l'IA, tandis que d'autres non. La plupart des robots industriels actuels sont pré-configurés et emploient très peu d'apprentissage ou de raisonnement dans leur tâches. En 2021, le stock opérationnel mondial de robots industriels s'est triplé par rapport à il y a dix ans, avec un nombre total de 3,5 millions d'unités (notamment dans le secteur de l'industrie électronique et de l'automobile). Le marché de la robotique industrielle est extrêmement dynamique en Chine (plus de la moitié des installations de robots industriels), tandis que la Corée du Sud dispose de l'industrie la plus densément automatisée, avec 93 robots pour 1 000 employés. En Europe, l'Allemagne affiche un taux de 37 robots pour 1 000 employés. + +Si les systèmes robotiques développés dans certaines pays suscitent davantage d’inquiétudes à cause de leurs capacités physiques (par exemple dans le domaine controversée de la robotique militaire et des \textit{Systèmes d'armes létales autonomes}), ce sont les systèmes d’IA qui ont actuellement plus d'impact dans la société. Dans ce domaine, il existe un risque important que les préoccupations éthiques restent impuissantes face au pouvoir économique et politique des acteurs et décideurs industriels. Des institutions travaillant sur les problématiques de l'\gls{éthique des robots}, essaient de pousser la réflexion différemment et cibler des aspects relatives à la spécificité des robots en tant qu’agents réels ancrés dans un environnement dynamique. L'une des premières initiatives abordant directement la question d'éthique des robots est l'art, grâce à la fiction littéraire. La nouvelle de science-fiction \textit{Runaround}, écrite par Isaac Asimov en 1942, aborde les célèbres \textit{Trois lois de la robotique}. Ces lois ont été actualisés en 2004, lorsque les principales institutions internationales de recherche ont organisé à Fukuoka, au Japon, le \textit{Salon international de la robotique}. A cette occasion, les participants ont signé une charte appelée la \textit{Déclaration mondiale sur les robots} dont les principaux points mentionnent: \begin{itemize} \item Les robots de nouvelle génération seront des partenaires qui coexisteront avec les êtres humains ; \item Les robots de nouvelle génération assisteront les êtres humains tant physiquement que psychologiquement ; \item Les robots de nouvelle génération contribueront à la réalisation d'une société sûre et paisible. \end{itemize} -Le développement futur de la technologie robotique ne pourra dons pas se faire en dehors d'un cadre éthique. L’éthique des robots et l’éthique de l’IA, s'occupent de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots et les algorithmes intelligents, mais aussi les effets de ces derniers sur les humains. Cependant les robots sont des machines physiques alors que une IA est dématérialisé via des logiciels. De plus, certains robots ne fonctionnent pas avec des systèmes d’IA et des systèmes d’IA ne sont pas désignés exclusivement aux robots. Confiants dans les nombreuses contributions que les robots apporteront à l'humanité, les chercheurs considèrent moins la manière dont les machines peuvent être utilisées pour nuire aux humains, ou leur impact sur l'autonomie de ces derniers. C'est pour cela qu'un dialogue pluridisciplinaire est nécessaire. En interrogeant les points de vue humanistes, certaines enjeux seront plus claires. - -Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le \textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de l’intelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et paradoxalement Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA type GPT-4. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet des entreprises ou des personnalités publiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour gagner en popularité. L'exemple de Musk et les controverses de son entreprise Neuralink\footnote{https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/} quant aux implants BCI (Brain-Computer Interface) suscitent l'attention de la communauté scientifique. - -Ce qui est sur c'est que la quantité dé-mesurable des donnés ne peut pas être traités à une échelle humaine. Le \gls{big data} devient un systeme récursif anonyme qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations - disponible à tout moment aux impératifs économiques. Pour des chercheurs comme Zuboff le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. En contrepoids certains sceptiques affirment que les craintes concernant l'IA reviennent sans cesse depuis sa création il y a plus de 60 années. À mi-chemin, l'éthique des machines\cite{anderson2007machine} trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont ces technologies modifient notre conception de l'humain et de la société. Le philosophe Mark Hunyadi cite le travail de Moor\cite{hunyadi2019artificial} pour appuyer l’hypothèse que le terme d’\textit{agent moral artificiel} est philosophiquement illégitime. Afin d’éviter toute spéculation ou d’idéologie en lien avec l'éthique des machines, Hunyadi cherche à fournir une compréhension claire de ce que c'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains. Cette approche est innovante, bien que les développements technologiques et leur rythme effréné suscitent des nouveaux défis. - -Il y a vingt ans la communauté scientifique abordait directement le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots peuvent être définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique: +Le consensus commun de toutes ces initiatives est que le développement de la technologie robotique ne pourra pas se faire en dehors d'un cadre éthique. L’éthique des robots et l’éthique de l’IA s'occupent de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots et les algorithmes intelligents, mais aussi les effets de ces derniers sur les humains. Cependant les robots sont des machines physiques alors que une IA est dématérialisé via des logiciels. De plus, certains robots ne fonctionnent pas avec des systèmes d’IA et des systèmes d’IA ne sont pas désignés exclusivement aux robots. Confiants dans les nombreuses contributions que les robots apporteront à l'humanité, les chercheurs considèrent moins la manière dont les machines peuvent être utilisées pour nuire aux humains, ou leur impact sur l'autonomie de ces derniers. C'est pour cela qu'un dialogue pluridisciplinaire est nécessaire. En interrogeant les points de vue humanistes, certaines enjeux seront plus claires. Curieusement il y a vingt ans, la communauté scientifique abordait directement le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots peuvent être définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique. \begin{figure} \centering @@ -45,11 +42,14 @@ Il y a vingt ans la communauté scientifique abordait directement le problème d \caption{Differents niveaux de moralité pour les machines selon Wallach. Source : \cite{wallach2008mora}l} \label{fig:ama} \end{figure} -La capacité morale complète ou \textit{full moral agency} n'est aujourd'hui qu'une projection qui divise les prises de position. Dans les prochaines pages, les exemples que je cite offrent des \textit{pour} et des \textit{contre} quant à sa pertinence dans le monde des agents non-humains. -Nous partons du constat que les défis éthiques liés aux technologies robotiques ont suscité beaucoup d'intérêt au cours des deux dernières décennies.\cite{zawieska2020disengagement} questionne l'engagement éthique au sein de la communauté robotique, connu sous le terme de \textit{roboéthique}. Si le terme éthique s'adresse essentiellement aux humains, une approche complémentaire devrait inclure l’\textit{éthique vécue} , qui implique l'engagement réel dans une interaction et la manière dont cela structure l’expérience. Quant à la tendance de résoudre les problèmes émergents de roboéthique avec des principes éthiques humaine préexistants, la réflexion doit partir d'abord sur un consensus concernant la nature même des robots. Néanmoins ces derniers regroupent une pluralité de fonctions et de caractéristiques. Penser une éthique qui leurs est propre suppose employer des principes suffisamment générales pour éviter des contextes individuels risqués. La racine du débat éthique dans la robotique trouve ses origines dans un symposium international organisé par le roboticien Gianmarco Veruggio. En janvier 2004, la Scuola di Robotica - en collaboration avec l'Arts Lab de la Scuola Superiore Sant'Anna de Pise et l'Institut Théologique de la Pontificia Accademia della Santa Croce de Rome - ont organisé le premier \textit{Symposium International sur la Roboéthique}\footnote{www.Roboethics.org}. En 2006 apparait une première feuille de route propre à cette discipline. Le document se concentre principalement sur les réalisations du projet Atelier de Roboéthique fondé par EURON\cite{fleres2023integrative}. Il propose une définition de la roboéthique séparé en deux branches: la première se concentre sur les robots en tant qu’agents moraux, tandis que l'autre est axée sur les humains en tant que agents qui développent et interagissent avec des robots. Souvent, le débat éthique tend à considérer l'influence exercé par les robots sur notre société, en oubliant la dynamique d'une détermination mutuelle entre la société et ses robots. Une approche interdisciplinaire peut mieux observer les processus d'intégration dans la société des robots, ainsi que les dimensions multiples de ces enjeux. Ainsi le contexte socioculturel est repensé en lien avec des points de vues politiques et épistémologiques sur la question des robots, comme nous l'avons vu plus haut avec Mark Hunyadi. Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup des questions éthiques. Les mécanismes de coordination passent par un processus dynamique d’interactions pour déterminer comment des agents identifiés par Dumouchel et Damiano comme des \textit{substituts} sont disposés à l’égard de leurs partenaires humains et l'inverse. L’élément clé de cette interaction sont les émotions. Caractéristiques saillantes de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation de ces artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit l’\textit{éthologie artificielle} vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que l’on trouve chez les animaux pourra également résoudre le problème des émotions, puisque (pour le meilleur et pour le pire) nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs propre à nos besoins. Or le parti-pris subjectif de nos expérimentations pratique désigne les robots comme différents des animaux et des humains - sorte d’espèce à part entière. Quelle type de discipline pourrait réconcilier alors leur statut et besoins? +La capacité morale complète ou \textit{full moral agency} n'est aujourd'hui qu'une projection qui divise les prises de position. Dans les prochaines pages, les exemples que je cite offrent des \textit{pour} et des \textit{contre} quant à sa pertinence dans un monde peuplé par des agents non-humains. -Les arguments des partisans des machines capables d'une capacité morale complète s'emparent à leur tour des exemples issus du monde non-technologique. Parmi les plus connus défenseurs de l'approche transhumaniste, Ray Kurzweil est chercheur et aviseur en l'IA chez Google. Depuis 2012 il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul des ordinateurs augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite l'année 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}. Plus surprenant, son expérience personnelle avec le diabète l'a amené à s’investir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec le médecin Terry Grossman, spécialiste en prolongation de la vie. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être à la façon \textit{new-age}: +Nous partons du constat que les défis éthiques liés aux technologies robotiques ont suscité beaucoup d'intérêt au cours des deux dernières décennies. \cite{zawieska2020disengagement} questionne l'engagement éthique au sein de la communauté robotique, connu sous le terme de \textit{roboéthique}. Si le terme \textit{éthique} s'adresse essentiellement aux humains, une approche complémentaire devrait inclure l’\textit{éthique vécue}, qui implique l'engagement réel dans une interaction et la manière dont cela structure l’expérience. Quant à la tendance de résoudre les problèmes émergents de la roboéthique avec des principes éthiques humaine préexistants, la réflexion doit partir d'abord sur un consensus concernant la nature même des robots. Ces derniers regroupent une pluralité de fonctions et de caractéristiques. Penser une éthique qui leurs est propre, suppose employer des principes suffisamment générales pour éviter des contextes individuels risqués. La racine du débat éthique dans la robotique trouve ses origines dans un symposium international organisé par le roboticien Gianmarco Veruggio. En janvier 2004, la Scuola di Robotica - en collaboration avec l'Arts Lab de la Scuola Superiore Sant'Anna de Pise et l'Institut Théologique de la Pontificia Accademia della Santa Croce de Rome - ont organisé le premier \textit{Symposium International sur la Roboéthique}\footnote{www.Roboethics.org}. En 2006 apparait une première feuille de route propre à cette discipline. Le document se concentre principalement sur les réalisations du projet Atelier de Roboéthique fondé par EURON\cite{fleres2023integrative}. Il propose une définition de la roboéthique séparé en deux branches: la première se concentre sur les robots en tant qu’agents moraux, tandis que l'autre est axée sur les humains en tant qu'agents qui développent et interagissent avec des robots. Souvent, le débat éthique tend à considérer l'influence exercée par les robots sur notre société, en oubliant la dynamique d'une détermination mutuelle entre la société et ses robots. Une approche interdisciplinaire peut mieux observer les processus d'intégration des robots dans la société, ainsi que les multiples dimensions de ces enjeux. Ainsi le contexte socioculturel est repensé en lien avec des points de vues politiques et épistémologiques sur la question des robots, comme nous l'avons vu plus haut avec Mark Hunyadi. Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup des questions éthiques. Les interactions déterminent comment des agents, identifiés par Dumouchel et Damiano comme des \textit{substituts}, sont disposés à l’égard de leurs partenaires humains et l'inverse. L’élément clé de cette dynamique sont les émotions. Caractéristiques saillantes de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation des artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit l’\textit{éthologie artificielle} vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que l’on trouve chez les animaux, pourra également résoudre le problème des émotions, puisque (pour le meilleur et pour le pire) nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs propre à nos besoins. Or le parti-pris subjectif de nos expérimentations pratiques désigne les robots comme différents des animaux et des humains - sorte d’espèce à part entière. Quelle type de discipline pourrait réconcilier alors leur statut et besoins ? + +Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le \textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif, dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de l’intelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek, puis paradoxalement Elon Musk. Dés mars 2023, cet institut appelle à un moratoire sur l'entrainement de systèmes d'IA type GPT-4. Cette lettre, écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre, capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet des entreprises ou des personnalités publiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour gagner en popularité. L'exemple de Musk et les controverses de son entreprise Neuralink\footnote{https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/} quant aux implants BCI (Brain-Computer Interface) suscitent l'attention de la communauté scientifique. + +Les arguments des partisans des machines capables d'une capacité morale complète s'emparent à leur tour des exemples issus du monde non-technologique. Parmi les plus connus défenseurs de l'approche transhumaniste, Ray Kurzweil est chercheur et aviseur en l'IA chez Google. Depuis 2012 il y analyse les mutations entre la technologie et la société. Selon ses estimations, la puissance de calcul des ordinateurs augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030, ensuite l'année 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}. Plus surprenant, son expérience personnelle avec le diabète l'a amené à s’investir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec le médecin Terry Grossman, spécialiste en prolongation de la vie. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être à la façon \textit{new-age}: \begin{quote} ``Apportez des sachets de stévia lorsque vous mangez à l'extérieur. (...) Vous pouvez préparer une vinaigrette à faible teneur en glucides et en matières grasses en combinant la stévia avec du jus de citron et/ou du vinaigre balsamique. (...) @@ -57,7 +57,7 @@ Les arguments des partisans des machines capables d'une capacité morale complè Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles.” Leur guide est gratuit et disponible online\footnote{https://fantastic-voyage.net/ShortGuide.html}. \end{quote} -Les prochaines chapitres du \textit{Fantastic Voyage} se concentrent sur un état de l'art pragmatique concernant les biotechnologies et les nanotechnologies dues à l'IA. Malgré leur enthousiasme, les auteurs fournissent très peu de considérations éthiques quant aux implications de la technologie sur la santé. Après le succès de son premier livre phare sur le sujet - \textit{The singularity is near}\cite{kurzweil2005singularity} - Kurzweil prévoit de faire apparaitre une suite en été 2024 \footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}. Suivant de prêt ces conseils et prédictions, l'entrepreneur russe Dmitry Itskov lance le programme \textit{Initiative 2045} qui regroupe en 2024 plus de 47000 enthousiastes. Ce projet développe des interfaces cerveau-machine suivant quatre étapes clés, comme illustré dans le schéma plus bas: +Les prochaines chapitres du \textit{Fantastic Voyage} se concentrent sur un état de l'art pragmatique concernant les biotechnologies et les nanotechnologies dues à l'IA. Malgré leur enthousiasme, les auteurs fournissent très peu de considérations éthiques quant aux implications de la technologie sur la santé. Après le succès de son premier livre phare sur le sujet - \textit{The singularity is near}\cite{kurzweil2005singularity} - Kurzweil prévoit de faire apparaitre une suite en été 2024 \footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}. Suivant de près ces conseils et prédictions, l'entrepreneur russe Dmitry Itskov lance le programme \textit{Initiative 2045} qui regroupe en 2024 plus de 47000 enthousiastes. Ce projet développe des interfaces cerveau-machine suivant quatre étapes clés, comme illustré dans le schéma plus bas. \begin{figure} \centering \includegraphics[width=0.7\linewidth]{images/2045} @@ -68,18 +68,20 @@ Pareil au Kurzweil, son initiative manque d'esprit critique à l'égard des hypo Contrairement aux prédictions fantastiques sur l'IA promus par les media et certains passionnés du sujet, les machines dotées d'une véritable IA sont actuellement très coûteuses. Les seuls acteurs qui peuvent se permettre d'interagir avec, sont les grands entreprises internationales qui ont accès à nos données. Le nombre de personnes qui peuvent objectivement évaluer l'impact de ces technologies sur l'avenir étant très réduit, cela soulève des nombreuses inquiétudes. Pour illustrer un exemple d'algorithme qui entraine une IA, les chercheurs de\cite{chowdhury2021ethics} prennent le cas d'un robot qui obtient une récompense pour préparer du thé. Pour atteindre son objectif, le robot va \textit{gagner} plein des récompenses. Cependant si lors de sa préparation, quelqu'un oublie une vase sur le trajet du robot, celui-ci va la renverser puisqu'il ne connait aucune instruction concernant cette vase. Ainsi pour un système d’IA avancé, déployé dans le monde réel, il faut modéliser l’apprentissage de l'agent en lien avec son environnement, or l’environnent est constitué principalement des agents biologiques dont le comportement est imprévisible. Intégrer cela nécessite une prise de conscience collective des citoyens, des chercheurs, des décideurs politiques et des leaders de l'industrie quant aux enjeux éthiques de ces technologies numériques au-delà des simulations et contextes spécifiques. -Sur son blog, le roboticien Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks reprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conformes aux intervalles de temps qu'il a annoncé. Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant. +Sur son blog, le roboticien Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks reprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple, il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conformes aux intervalles de temps qu'il a annoncé. Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien - avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains}, ne pourra pas être développé de son vivant. -Sans pouvoir y trancher entre ces extrêmes, j’évoque le philosophe Jean-Gabriel Ganascia qui propose un état des lieux de différents prises de position dans son livre \textit{Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle?}. L'auteur attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction et futurologue Vernor Vinge. Dans l'essai \textit{La singularité technologique à venir}, datant de 1993, Vinge s'inspire des propos de John von Neumann - un des mathématiciens les plus influents du 20e siècle. Bien qu'il n'a jamais mentionné la singularité technologique, von Neumann aurait évoqué, dés les années 50, l'impact potentiellement irréversible du progrès technologique. Ganascia fait également référence à Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit la croissance exponentielle de la puissance de calcul des ordinateurs. Ainsi ses personnages posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac. Si l'entropie engage des états de désordre pour transformer une matière, serait-elle aussi propre aux processus informatiques, tout comme aux processus thermodynamiques? J'avance cette projection pour anticiper l’état de chaos qu'une super-intelligence informatique peut provoquer lors de son apparition. Plus nous continuons cette analyse, plus nous nous rendons compte que l'état actuel d'art corresponds bien à cette description. +Sans pouvoir trancher entre ces points de vue extrêmes, j’évoque le philosophe Jean-Gabriel Ganascia qui propose un état des lieux de différents prises de position dans son livre \textit{Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle?}. L'auteur attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction et futurologue Vernor Vinge. Dans l'essai \textit{La singularité technologique à venir}, datant de 1993, Vinge s'inspire des propos de John von Neumann - un des mathématiciens les plus influents du 20e siècle. Bien qu'il n'a jamais mentionné la singularité technologique, von Neumann aurait évoqué, dés les années 50, l'impact potentiellement irréversible du progrès technologique. Ganascia fait également référence à Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit la croissance exponentielle de la puissance de calcul des ordinateurs. Ainsi ses personnages posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac. Si l'entropie engage des états de désordre pour transformer une matière, serait-elle aussi propre aux processus informatiques, tout comme aux processus thermodynamiques? J'avance cette projection pour anticiper l’état de chaos qu'une super-intelligence informatique peut provoquer lors de son apparition. Plus nous continuons cette analyse, plus nous nous rendons compte que l'état actuel des choses peut facilement correspondre à cette émergence. La désordre des initiatives en lien avec une possible éthique génerale, facilitent des décisions hâtives et des initiatives locales douteuses. -Puis Ganascia évoque Stephen Hawking mentionné plus haut, qui lance en 2014 un cri d’alarme contre les technologies susceptibles de devenir incontrôlables. Cela en parallèle avec l'exemple du chercheur en cybernétique Kevin Warwick et son \textit{Project Cybrog} commencé en 1998, pour connecter son système nerveux (et plus tard celui de son épouse) à des interfaces neuronales qui augmentent ses capacités physiques et ses moyens de communication\cite{warwick2004thought}. Un autre exemple pertinent dans l'état de l'art de Ganascia est l'article intitulé : \textit{Pourquoi le futur n’a pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} : +Puis Ganascia évoque Stephen Hawking mentionné plus haut, qui lance en 2014 un cri d’alarme contre les technologies susceptibles de devenir incontrôlables. Cela en parallèle avec l'exemple du chercheur en cybernétique Kevin Warwick et son \textit{Project Cybrog}, commencé en 1998, pour connecter son système nerveux (et plus tard celui de son épouse) à des interfaces neuronales qui augmentent ses capacités physiques et ses moyens de communication\cite{warwick2004thought}. Un autre exemple pertinent dans l'état de l'art de Ganascia est l'article intitulé : \textit{Pourquoi le futur n’a pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} : \begin{quote} ``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...) Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. (...) Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir (...) ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.” \cite{joy2001pourquoi} \end{quote} -Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui n’aurait plus besoin des humains. De surcroît la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée en début 2015 par une poignée des spécialistes d’intelligence artificielle inquiets des conséquences du développement de cette discipline. Sensible aux questions de techno-solutionnisme, Ganascia s’attache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour lui cette doctrine imprégnée par les stratégies de profit des multinationales de l’informatique repose en réalité sur une extrapolation peu étayée de la loi de Moore. Tout cela mélangé avec un récit eschatologique bien éloigné de la rigueur scientifique. +Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui n’aurait plus besoin des humains. Sensible aux questions de techno-solutionnisme, Ganascia s’attache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour lui, cette doctrine, imprégnée par les stratégies de profit des multinationales d’informatique, repose en réalité sur une extrapolation peu étayée de la loi de Moore. Tout cela mélangé avec ``un récit eschatologique bien éloigné de la rigueur scientifique”\cite{ganascia2017mythe}. + +Retournons à la question de la conscience, ses paradoxes et sa place dans les débats concernant une éthique des machines. +Notons les efforts des chercheurs en robotique et en IA pour clarifier son rôle dans le fonctionnement humain. En sciences cognitives par exemple, grâce au traitement des signaux EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,5–4 Hz), thêta (4–7 Hz), alpha (7–12 Hz), bêta (13–30 Hz) et ondes de la bande gamma (>30 Hz). -Retournons à la question de la conscience, ses paradoxes et sa place dans les débats concernant une éthique des machines. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et en IA pour clarifier son rôle dans le fonctionnement humain reste une question fascinante. En sciences cognitives par exemple, grâce au traitement des signaux EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,5–4 Hz), thêta (4–7 Hz), alpha (7–12 Hz), bêta (13–30 Hz) et ondes de la bande gamma (>30 Hz). \begin{figure} \centering @@ -88,21 +90,17 @@ Retournons à la question de la conscience, ses paradoxes et sa place dans les d \label{fig:brainwaves} \end{figure} -Ces derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent par exemple aux stades profonds du sommeil, ou aux laps de temps d'inattention. Cela est illustré par des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et l’émergence d'une forme de CA seront possibles. Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir, y compris dans notre relation avec les machines. Plusieurs domaines scientifiques convergent au même point d’acquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Si les objectifs de chaque domaine est différent, l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale. +Les derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent par exemple aux stades profonds du sommeil, ou aux laps de temps d'inattention. Cela est illustré par des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et l’émergence d'une forme de CA seront possibles. Entre curiosité scientifique, spéculation, défi ou comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir, y compris dans notre relation avec les machines. Plusieurs domaines scientifiques convergent au même point d’acquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Néanmoins, si les objectifs de chaque domaine est différent, l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale. -Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones\footnote{type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire.}. Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie reste à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer leur hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}) que nous avons abordé dans la premier partie de ce manuscrit. Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire l’expérience de la conscience. Comme montré lors de nos laboratoires d'experimentation, la danse et les pratiques somatiques parviennent aux mêmes observations, probablement d'une manière plus intuitive. +Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones\footnote{type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, alors qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire.}. Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie reste à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer leur hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}) que nous avons abordé dans la premier partie de ce manuscrit. Selon Putman, cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire l’expérience de la conscience. Comme montré lors de nos laboratoires d'experimentation, la danse et les pratiques somatiques parviennent aux mêmes observations, probablement d'une manière plus intuitive, grâce à des concepts comme l'\gls{embodied cognition}. -De plus, ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à l’expérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains, se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, la définition suivante du statut moral: +De plus, ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. À cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à l’expérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains, se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'IA spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau, propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre. Cette capacité nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. À la recherche d'une solution mathématique, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, la définition suivante du statut moral: \begin{quote} ``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.” \cite{bostrom2018ethics} \end{quote} -Plus loin, l'\textit{hypothèse du monde vulnérable} ou \gls{vulnerable world hypothesis} de Bostrom promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, nous avons vu dans l'exemple de Zuboff que recourir délibérément à des algorithmes qui nous surveillent, rendra encore plus confus notre rapport à ces dernières puisque nous le faisons déjà sans le savoir. Quoi dire alors de leur capacité de nous manipuler alors qu'en 2014 un ordinateur passe le fameux test Touring, lorsqu’un chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}. Nous aurions clairement besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique. - -Parmi les problématiques traitées par l’éthique des algorithmes d'IA, les chercheurs évoquent les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Issue de ces problématiques, l'éthique des machines supervise la fabrication des artefacts qui se comportent de manière éthique, appelles AMA ou \textit{Artificial Moral Agents}. Cela concerne en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. Dans un effort de clarification de ces enjeux, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie ou la culture. C'est pour cela qu'une perspective philosophique (puis plus largement artistique) et éthique du question de la conscience est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre. La mise à disposition des informations afin de réfléchir collectivement à ces questions peut se faire au travers l'art, qui sait les adresser dans un registre moins complexe. - -La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, j’aimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité d’une “collaboration” plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agentivité non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des neurones miroirs\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper l’influence de ces derniers sur les humains. Le projet \textit{code\_red}\cite{loke2023rouge} (2021) présenté dans un chapitre du livre \textit{Cultural Robotics: Social Robots and Their Emergent Cultural Ecologies}\cite{dunstan2023cultural} (2023), traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprends à dessiner des lèvres, pour mettre du rouge à lèvres sur une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte d’engagement: marquer ses lèvres puis sa voix par une couleur rouge - symbole de la peinture de guerre, pour mieux réclamer ses droits. L’influence du robot sur l’humain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où \textit{l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine}. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonances intra-corporelles}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit s’échapper à une monopolisation humaine de la rencontre. Au contraire, comme le montre Gemeinboeck, éviter délibérément la focalisation sur l'individualisme des agents interactifs favorise un croisement des flux perceptuels et des dynamiques de mouvement qui donnent naissance à des effets émergents de signification. +Plus loin, l'\textit{hypothèse du monde vulnérable} ou \gls{vulnerable world hypothesis} de Bostrom promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, nous avons vu dans l'exemple de Zuboff que recourir délibérément à des algorithmes qui nous surveillent, rendra encore plus confus notre rapport à ces dernières - puisque nous le faisons déjà sans le savoir. Quoi dire alors de leur capacité de nous manipuler alors qu'en 2014 un ordinateur passe le fameux test Touring, lorsqu’un chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}. Nous aurions clairement besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique. Tandis que certains types de propriétés mentales peuvent être modélisables en informatique, d'autres sont seulement propres aux organismes biologiques. Pour le philosophe Steve Torrence, les agents artificiels devront émuler seulement certaines propriétés clés des organismes biologiques. Par exemple les formes d'auto-organisation et d'auto-entretien autonomes propres au vivat disposent de la sensibilité et d'une certain fonctionnement téléologique, ce que Torrence identifié chez les humains comme \textit{conscience de soi}: \begin{quote} @@ -247,7 +245,7 @@ La version intégrale de leur analyse est disponible ici\footnote{https://nkluge En l'absence d’un corpus interdisciplinaire de connaissances, l’innovation et la transformation générées par les robots au niveau sociétal est issue des observations issues directement des laboratoires. Ainsi, l'ensemble des connaissances disponibles sur les robots ont tendance à se concentrer sur les aspects techniques. Les caractéristiques inhérentes à l’IA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie privilégie une approche interdisciplinaire. \cite{anderson2022future} réfléchit à cette question de l'interdisciplinarité, compte tenu de l’histoire d’efforts similaires dans d’autres disciplines technologiques comme la robotique. Concernant le rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en laboratoire, les chercheurs en robotique sont sensibles aux implications éthiques de leurs travaux. D’autre part, les chercheurs issus de disciplines traditionnellement préoccupé par les questions éthiques, comme la philosophie et d'autres sciences humaines, sont peu habitués de travailler dans un cadre pratique. Tandis que les deux remarquent des malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et besoin de mystification de ces thématiques issue de la culture média. -Une étude plus récent envisage une nouvelle branche de l'AI, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée: +Une étude plus récent envisage une nouvelle branche de l'IA, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée: \begin{figure} \centering @@ -258,7 +256,7 @@ Une étude plus récent envisage une nouvelle branche de l'AI, intitulé \textit Ce type d'intelligence vise l’amélioration des capacités humaines en interaction avec des agents non-humains. Elle est proche du concept d' \gls{équilibre homme-machine} de Stiegler que nous avons décrit auparavant. Plus concrètement, au lieu d’être en compétition directe avec l’intelligence humaine, cette IA cherche à la sublimer. Cette approche utilise l’erreur comme outil d’apprentissage et intègre des principes de \textit{slow science}\cite{stengers2016another} pour permettre à l’humain de mieux intégrer les données de son environnement afin de coopérer avec la machine. En cherchant des analogies dans notre contexte particulier qui est le domaine de l’art, il est plus facile de se concentrer sur cet aspect de l’erreur comme outil d’apprentissage et donner place à l’expressivité de la machine. Les enjeux sont moins importants et les aboutissements technologiques pourraient correspondre à une forme de sérendipité. Néanmoins, même dans ce cas les considération éthiques\cite{ndior2019cairn}, les ressentis\cite{devillers2017robots} et les éventuelles réactions imprévisibles de la part des humains, dessinent une forme de moralité difficile à prédire pour chercher son correspondant artificiel. -Si cette nouvelle AI saura mieux réconcilier projections et craintes, le facteur humain et notre sentience restent pour l'instant difficiles à quantifier ou à intégrer dans des algorithmes de prédiction. Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{stengers2016another} pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et dénoncé publiquement une action contre des recherches concernant de pommes de terre génétiquement modifiées à Wetteren. Stengers questionne la neutralité de la recherche universitaire, en proposant une réflexion sur les possibilités d'un débat face à un consensus dominant des faits et choix politiques. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour s'expérimenter en dehors de ces limites. Pour elle cela renvoie à un endroit atemporel où une autre type de science, à l’opposé de celle qui se développe à une vitesse fulgurante sous nos yeux, germe ses revendications pour les années à venir: +Si cette nouvelle IA saura mieux réconcilier projections et craintes, le facteur humain et notre sentience restent pour l'instant difficiles à quantifier ou à intégrer dans des algorithmes de prédiction. Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{stengers2016another} pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et dénoncé publiquement une action contre des recherches concernant de pommes de terre génétiquement modifiées à Wetteren. Stengers questionne la neutralité de la recherche universitaire, en proposant une réflexion sur les possibilités d'un débat face à un consensus dominant des faits et choix politiques. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour s'expérimenter en dehors de ces limites. Pour elle cela renvoie à un endroit atemporel où une autre type de science, à l’opposé de celle qui se développe à une vitesse fulgurante sous nos yeux, germe ses revendications pour les années à venir: \begin{quote} ``Je ressens de la honte devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: ``I feel ashamed before those young people entering university with the hope of getting a better understanding of the world we live in. We know that those who enter university today belong to the generation that will have to face a future the challenges of which we just cannot imagine… Can we claim that what we are proposing them meets, or even vaguely meets, this situation? Can we also claim that we deserve the trust people still have in the role we, who are working at the university, and those we train, can play in this future? It is heard that our ways of life will have to change, and this certainly entails a change in the way we relate to our environment, social and ecological. Can we claim that such change does not also entail a change in the ways our academic knowledge relates to its environment?”}?”