adding more corrections on conclusions

This commit is contained in:
silviaC 2024-08-15 22:29:32 +02:00
parent 937a7fce91
commit 54d40a8797
1 changed files with 23 additions and 20 deletions

View File

@ -7,21 +7,24 @@
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques. Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière dIA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué. Parmi eux le Conseil consultatif externe sur les technologies avancées de Googgle, ou bien ChatGPT dont l'opacité des données d'entrainement a poussée des chercheurs s'investir dans la création de la fondation \textit{EleutherAI}. Sous lamendement de ces chercheurs, EleutherAI a publié récemment des données d'entrainement pour des grands modèles linguistiques comme le dataset \textit{Proof-Pile-2}\footnote{https://www.eleuther.ai/releases}. Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière dIA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Au nombre des initiatives récentes, certaines ont échoué. Parmi eux le Conseil consultatif externe sur les technologies avancées de Googgle, ou bien ChatGPT dont l'opacité des données d'entrainement\footnote{ Un entretien avec le chatbot concernant ce sujet est disponible en Annexe.} a poussée certains de ses chercheurs s'investir dans la création de la fondation \textit{EleutherAI}. Sous lamendement de ces chercheurs, EleutherAI a publié récemment des données d'entrainement pour des grands modèles linguistiques comme le dataset \textit{Proof-Pile-2}\footnote{https://www.eleuther.ai/releases}.
En parallèle des organismes comme l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence}, continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Leur mission est de œuvrer pour une démocratisation des pratiques en lien avec l'AI. Dans les prochaines pages je mapprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je lévoque pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques. En parallèle des organismes comme l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence}, continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Leur mission est d'œuvrer pour une démocratisation des pratiques en lien avec l'AI. Dans les prochaines pages je mapprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je lévoque pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et de la robotique, afin de mieux penser notre cohabitation avec les machines, dans les années à venir. Au sens large, mon intention est probablement de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à lintérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps cest nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. Dans ce contexte, la question de la moralité devient centrale, car cest très important dinterroger doù vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer ou parfois excuser leur limitations. Mais quel type de moralité leurs est propre et en quoi cette nouvelle moralité influence nos interactions avec eux ? Selon \cite{dodig2012robots} une \textit{moralité artificielle} doit dépendre du niveau daction, dautonomie et dintelligence d'un système. Elle doit se construire progressivement et vise plus généralement le \gls{transhumanisme} dont les robots cognitifs des prochaines générations impacteront des domaines comme la surveillance, l'ingénierie sociale, la robotique militaire, les services sexuels. Pour l'instant les enjeux éthiques de lIA concernent l'accumulation de données, en ligne et hors ligne. Ces données peuvent manipuler des comportements humains envers des choix irrationnels, mais lélément clé reste pour l'instant l'humain qui traite ces données. Une fois un robot capable de choix cognitifs, les enjeux éthiques ne seront plus les mêmes. Aujourd'hui la grande majorité des gens comprennent que des services supposément gratuits reposent en réalité sur une manque de transparence dans l'acquisition et la gestion des données qui les alimentent. Ces donnes qualifient lexpérience humaine comme une \textit{matière première gratuite}. La principale manière de les collecter par les GAFA (Amazon, Google/Alphabet, Apple, Facebook) implique de la manipulation envers des comportements addictifs. Cela est illustrée par le fait de penser les individus comme partie du marché\cite{zuboff2020age}. Shoshana Zuboff cite léconomiste Karl Polanyi qui a montré, il y a 70 ans, comment le marché du capitalisme industriel finit par détruire ce qu'elle est censé de vendre. La chercheuse se demande \textit{si le capitalisme industriel a mis en péril léquilibre de la nature, quel peut-être l'effroyable effet du capitalisme de surveillance sur la nature humaine?}\cite{zuboff2020age}. Elle partage une question qui lui est posée par un jeune gérant d'une usine \textit{Allons-nous tous travailler pour une machine intelligente ou y aura-t-il des personnes intelligentes autour de la machine?}\cite{zuboff2020age}. Dans son contexte, ce gérant remarque la modification de la nature même du travail qui se réduit d'une tache pratique et utile pour l'ensemble, à la surveillance des données électroniques. Le mouvement open source trace les lignes d'une forme de résistance à ces comportements antidémocratiques. Cependant, Zuboff nous incite à façonner une réponse sociétale unitaire, par une réglementation et des lois adaptés au chaque contexte. Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et de la robotique, afin de mieux penser notre cohabitation avec les machines, dans les années à venir. Au sens large, mon intention est probablement de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à lintérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps cest nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. Dans ce contexte, la question de la moralité devient centrale, car cest très important dinterroger doù vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer ou parfois excuser leur limitations. Mais quel type de moralité leurs est propre et en quoi cette nouvelle moralité influence nos interactions avec eux ? Selon \cite{dodig2012robots} une \textit{moralité artificielle} doit dépendre du niveau daction, dautonomie et dintelligence d'un système. Elle doit se construire progressivement et vise plus généralement le \gls{transhumanisme} dont les robots cognitifs des prochaines générations impacteront des domaines comme la surveillance, l'ingénierie sociale, la robotique militaire, les services sexuels. Pour l'instant les enjeux éthiques de lIA concernent l'accumulation de données, en ligne et hors ligne. Ces données peuvent manipuler des comportements humains envers des choix irrationnels, mais lélément clé reste pour l'instant l'humain qui traite ces données. Une fois un robot capable de choix cognitifs, les enjeux éthiques ne seront plus les mêmes. Aujourd'hui la grande majorité des gens comprennent que des services supposément gratuits reposent en réalité sur une manque de transparence dans l'acquisition et la gestion des données qui les alimentent. Ces donnes qualifient lexpérience humaine comme une \textit{matière première gratuite}. La principale manière de les collecter par les GAFA (Amazon, Google/Alphabet, Apple, Facebook) implique de la manipulation envers des comportements addictifs. Cela est illustrée par le fait de penser les individus comme partie du marché\cite{zuboff2020age}. Shoshana Zuboff cite léconomiste Karl Polanyi qui a montré, il y a 70 ans, comment le marché du capitalisme industriel finit par détruire ce qu'elle est censé de vendre. La chercheuse se demande \textit{si le capitalisme industriel a mis en péril léquilibre de la nature, quel peut-être l'effroyable effet du capitalisme de surveillance sur la nature humaine?}\cite{zuboff2020age}. Elle partage une question qui lui est posée par un jeune gérant d'une usine:
\begin{quote}
Allons-nous tous travailler pour une machine intelligente ou y aura-t-il des personnes intelligentes autour de la machine ?
\cite{zuboff2020age}
\end{quote}
Dans son contexte, le gérant remarque la modification de la nature même du travail qui se réduit d'une tache pratique et utile pour l'ensemble, à la surveillance des données électroniques. Le mouvement open source trace les lignes d'une forme de résistance à ces comportements antidémocratiques. Cependant, Zuboff nous incite à façonner une réponse sociétale unitaire, par une réglementation et des lois adaptés au chaque contexte.
Selon Stanford Encyclopedia of Philosophy, le domaine de l\textit{éthique de l'IA et de la robotique} regroupe aujourd'hui plusieurs sous-domaines déthique appliquée, dont la distinction principale se fait entre des systèmes IA en tant qu'objets (ou outils pour les humains) et des systèmes AI en tant que sujets, ou systèmes concernés par une morale propre, différente de celle des humains, que nous appelons ici \textit{éthique des machines}. Les défis spécifiques aux outils de l'IA regroupent des questions liées à la vie privée, aux préjugés et biais que cela peut engendrer, ainsi qu'à l'interaction homme-robot, aux conséquences sur le marché de l'emploi et aux conséquences de l'autonomie de ces systèmes en général. Selon Stanford Encyclopedia of Philosophy, le domaine de l\textit{éthique de l'IA et de la robotique} regroupe aujourd'hui plusieurs sous-domaines déthique appliquée, dont la distinction principale se fait entre des systèmes IA en tant qu'objets (ou outils pour les humains) et des systèmes AI en tant que sujets, ou systèmes concernés par une morale propre, différente de celle des humains, que nous appelons ici \textit{éthique des machines}. Les défis spécifiques aux outils de l'IA regroupent des questions liées à la vie privée, aux préjugés et biais que cela peut engendrer, ainsi qu'à l'interaction homme-robot, aux conséquences sur le marché de l'emploi et aux conséquences de l'autonomie de ces systèmes en général.
Comme mentionné déjà, certains robots fonctionnent grâce à l'IA, tandis que d'autres non. La plupart des robots industriels actuels sont pré-configurés et emploient très peu d'apprentissage ou de raisonnement dans leur taches. En 2021, le stock opérationnel mondial de robots industriels s'est triplé par rapport à il y a dix ans, avec un nombre total de 3,5 millions d'unités (notamment dans le secteur de l'industrie électronique et de l'automobile). Le marché de la robotique industrielle est extrêmement dynamique en Chine (plus de la moitié des installations de robots industriels), tandis que la Corée du Sud qui dispose de l'industrie la plus densément automatisée, avec 93 robots pour 1 000 employés. En Europe, l'Allemagne affiche un taux de 37 robots pour 1 000 employés. Comme mentionné déjà, certains robots fonctionnent grâce à l'IA, tandis que d'autres non. La plupart des robots industriels actuels sont pré-configurés et emploient très peu d'apprentissage ou de raisonnement dans leur taches. En 2021, le stock opérationnel mondial de robots industriels s'est triplé par rapport à il y a dix ans, avec un nombre total de 3,5 millions d'unités (notamment dans le secteur de l'industrie électronique et de l'automobile). Le marché de la robotique industrielle est extrêmement dynamique en Chine (plus de la moitié des installations de robots industriels), tandis que la Corée du Sud qui dispose de l'industrie la plus densément automatisée, avec 93 robots pour 1 000 employés. En Europe, l'Allemagne affiche un taux de 37 robots pour 1 000 employés.
Si les systèmes robotiques suscitent davantage dinquiétudes à cause de leurs capacités physiques (par exemple Si les systèmes robotiques suscitent davantage dinquiétudes à cause de leurs capacités physiques (par exemple
dans le domaine controversée de la robotique militaire et du \textit{Système d'armes létales autonome}) développés dans certaines pays, ce sont les systèmes dIA qui auront plus d'impact dans la société. Même si les défis sont nombreux, il existe un risque important que les préoccupations éthiques restent impuissantes face au pouvoir économique et politique des acteurs et décideurs industriels. dans le domaine controversée de la robotique militaire et du \textit{Système d'armes létales autonome}) développés dans certaines pays, ce sont les systèmes dIA qui auront plus d'impact dans la société. Même si les défis sont nombreux, il existe un risque important que les préoccupations éthiques restent impuissantes face au pouvoir économique et politique des acteurs et décideurs industriels. Des institutions travaillant sur les problématiques de l'\gls{éthique des robots}, essaient de pousser la réflexion plus loin et cibler certaines aspects relatives à la spécificité des robots, en tant quagents réels ancrés dans un environnement dynamique.
Des institutions travaillant sur les problématiques de l'\gls{éthique des robots}, essaient de pousser la réflexion plus loin et cibler certaines aspects relatives à la spécificité des robots, en tant quagents réels ancrés dans un environnement dynamique. L'une des premières initiatives abordant directement la question d'éthique des robots fut l'art. La nouvelle de science-fiction \textit{Runaround} écrite par Isaac Asimov en 1942 aborde les célèbres \textit{Trois lois de la robotique}, mises à jour par Asimov avec une quatrième, ou la loi zéro. Ces lois ont été actualisés en 2004, lorsque le principales institutions internationales de recherche, ont organisé à Fukuoka, au Japon, le \textit{Salon international de la robotique}. A cette occasion, les participants ont signé la \textit{Déclaration mondiale sur les robots} dont les points principaux mentionnent:
L'une des premières publications abordant directement la question d'éthique des robots fut la nouvelle de science-fiction \textit{Runaround} écrite par Isaac Asimov en 1942. Cette nouvelle aborde les célèbres \textit{Trois lois de la robotique}, mises à jour par Asimov avec une quatrième, ou la loi zéro. Ces lois ont été actualisés en 2004, lorsque le principales institutions internationales de recherche, ont organisé à Fukuoka, au Japon, le \textit{Salon international de la robotique} en février 2004. A cette occasion, les participants ont signé la \textit{Déclaration mondiale sur les robots} dont les points principaux mentionnent:
\begin{itemize} \begin{itemize}
\item Les robots de nouvelle génération seront des partenaires qui coexisteront avec les êtres humains ; \item Les robots de nouvelle génération seront des partenaires qui coexisteront avec les êtres humains ;
\item Les robots de nouvelle génération assisteront les êtres humains tant physiquement que psychologiquement ; \item Les robots de nouvelle génération assisteront les êtres humains tant physiquement que psychologiquement ;
@ -30,9 +33,9 @@ L'une des premières publications abordant directement la question d'éthique de
Le développement futur de la technologie robotique ne pourra dons pas se faire en dehors d'un cadre éthique. Léthique des robots et léthique de lIA, s'occupent de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots et les algorithmes intelligents, mais aussi les effets de ces derniers sur les humains. Cependant les robots sont des machines physiques alors que une IA est dématérialisé via des logiciels. De plus, certains robots ne fonctionnent pas avec des systèmes dIA et des systèmes dIA ne sont pas désignés exclusivement aux robots. Confiants dans les nombreuses contributions que les robots apporteront à l'humanité, les chercheurs considèrent moins la manière dont les machines peuvent être utilisées pour nuire aux humains, ou leur impact sur l'autonomie de ces derniers. C'est pour cela qu'un dialogue pluridisciplinaire est nécessaire. En interrogeant les points de vue humanistes, certaines enjeux seront plus claires. Le développement futur de la technologie robotique ne pourra dons pas se faire en dehors d'un cadre éthique. Léthique des robots et léthique de lIA, s'occupent de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots et les algorithmes intelligents, mais aussi les effets de ces derniers sur les humains. Cependant les robots sont des machines physiques alors que une IA est dématérialisé via des logiciels. De plus, certains robots ne fonctionnent pas avec des systèmes dIA et des systèmes dIA ne sont pas désignés exclusivement aux robots. Confiants dans les nombreuses contributions que les robots apporteront à l'humanité, les chercheurs considèrent moins la manière dont les machines peuvent être utilisées pour nuire aux humains, ou leur impact sur l'autonomie de ces derniers. C'est pour cela qu'un dialogue pluridisciplinaire est nécessaire. En interrogeant les points de vue humanistes, certaines enjeux seront plus claires.
Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le\textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et paradoxalement Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA type GPT-4. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet des entreprises ou instances politiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour briser la concurrence. Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le\textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et paradoxalement Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA type GPT-4. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet des entreprises ou des personnalités publiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour gagner en popularité. L'exemple de Musk et les controverses de son entreprise Neuralink\footnote{https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/} quant aux implants BCI (Brain-Computer Interface) suscitent l'attention de la communauté scientifique.
Ce qui est sur c'est que la quantité dé-mesurable des donnés ne peut pas être traités à une échelle humaine. Le Big Data devient un systeme récursif anonyme qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations - disponible à tout moment aux impératifs économiques. Selon Zuboff le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. En contrepoids certains sceptiques affirment que les craintes concernant l'IA reviennent sans cesse depuis sa création il y a plus de 60 années. À mi-chemin, l'éthique des machines\cite{anderson2007machine} trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont ces technologies modifient notre conception de l'humain et de la société. \cite{hunyadi2019artificial} cite son travail pour appuyer lhypothèse que le terme d\textit{agent moral artificiel} est philosophiquement illégitime. Afin déviter toute spéculation ou didéologie en lien avec l'éthique des machines, son auteur cherche à fournir une compréhension claire de ce que c'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains. Son contribution reste pertinente aujourd'hui, bien que les développements technologiques suscitent des nouveaux défis. Ce qui est sur c'est que la quantité dé-mesurable des donnés ne peut pas être traités à une échelle humaine. Le Big Data devient un systeme récursif anonyme qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations - disponible à tout moment aux impératifs économiques. Pour des chercheurs comme Zuboff le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. En contrepoids certains sceptiques affirment que les craintes concernant l'IA reviennent sans cesse depuis sa création il y a plus de 60 années. À mi-chemin, l'éthique des machines\cite{anderson2007machine} trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont ces technologies modifient notre conception de l'humain et de la société. Le philosophe Mark Hunyadi cite le travail de Moor\cite{hunyadi2019artificial} pour appuyer lhypothèse que le terme d\textit{agent moral artificiel} est philosophiquement illégitime. Afin déviter toute spéculation ou didéologie en lien avec l'éthique des machines, Hunyadi cherche à fournir une compréhension claire de ce que c'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains. Cette approche est innovante, bien que les développements technologiques et leur rythme effréné suscitent des nouveaux défis.
Il y a vingt ans la communauté scientifique abordait directement le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots peuvent être définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique: Il y a vingt ans la communauté scientifique abordait directement le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots peuvent être définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique:
@ -44,7 +47,7 @@ Il y a vingt ans la communauté scientifique abordait directement le problème d
\end{figure} \end{figure}
La capacité morale complète ou \textit{full moral agency} n'est aujourd'hui qu'une projection qui divise les prises de position. Dans les prochaines pages, les exemples que je cite offrent des \textit{pour} et des \textit{contre} quant à sa pertinence dans le monde des agents non-humains. La capacité morale complète ou \textit{full moral agency} n'est aujourd'hui qu'une projection qui divise les prises de position. Dans les prochaines pages, les exemples que je cite offrent des \textit{pour} et des \textit{contre} quant à sa pertinence dans le monde des agents non-humains.
Depuis ces constats, les défis éthiques liés aux technologies robotiques ont suscité beaucoup d'intérêt au cours des deux dernières décennies.\cite{zawieska2020disengagement} questionne l'engagement éthique au sein de la communauté robotique, connu sous le terme de \textit{roboéthique}. Si le terme éthique s'adresse essentiellement aux humains, une approche complémentaire devrait inclure l\textit{éthique vécue} , qui implique l'engagement réel dans une interaction et la manière dont cela structure lexpérience. Quant à la tendance de résoudre les problèmes émergents de roboéthique avec des principes éthiques humaine préexistants, la réflexion doit partir d'abord sur un consensus concernant la nature même des robots. Néanmoins ces derniers regroupent une pluralité de fonctions et de caractéristiques. Penser une éthique qui leurs est propre suppose employer des principes suffisamment générales pour éviter des contextes individuels risqués. La racine du débat éthique dans la robotique trouve ses origines dans un symposium international organisé par le roboticien Gianmarco Veruggio. En janvier 2004, la Scuola di Robotica - en collaboration avec l'Arts Lab de la Scuola Superiore Sant'Anna de Pise et l'Institut Théologique de la Pontificia Accademia della Santa Croce de Rome - ont organisé le premier \textit{Symposium International sur la Roboéthique}\footnote{www.Roboethics.org}. En 2006 apparait une première feuille de route propre à cette discipline. Le document se concentre principalement sur les réalisations du projet Atelier de Roboéthique fondé par EURON\cite{fleres2023integrative}. Il propose une définition de la roboéthique séparé en deux branches: la première se concentre sur les robots en tant quagents moraux, tandis que l'autre est axée sur les humains en tant que agents qui développent et interagissent avec des robots. Souvent, le débat éthique tend à considérer l'influence exercé par les robots sur notre société, en oubliant la dynamique d'une détermination mutuelle entre la société et ses robots. Une approche interdisciplinaire peut mieux observer les processus d'intégration dans la société des robots, ainsi que les dimensions multiples de ces enjeux. Ainsi le contexte socioculturel est repensé en lien avec des points de vues politiques et épistémologiques sur la question des robots. Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup des questions éthiques. Les mécanismes de coordination passent par un processus dynamique dinteractions pour déterminer comment ces agents identifiés par Dumouchel et Damiano comme des \textit{substituts} sont disposés à légard de leurs partenaires humains et l'inverse. Lélément clé de cette interaction sont les émotions. Caractéristiques saillantes de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation de ces artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit l\textit{éthologie artificielle} vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que lon trouve chez les animaux pourra également résoudre le problème des émotions, puisque (pour le meilleur et pour le pire) nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs propre à nos besoins. Nous partons du constat que les défis éthiques liés aux technologies robotiques ont suscité beaucoup d'intérêt au cours des deux dernières décennies.\cite{zawieska2020disengagement} questionne l'engagement éthique au sein de la communauté robotique, connu sous le terme de \textit{roboéthique}. Si le terme éthique s'adresse essentiellement aux humains, une approche complémentaire devrait inclure l\textit{éthique vécue} , qui implique l'engagement réel dans une interaction et la manière dont cela structure lexpérience. Quant à la tendance de résoudre les problèmes émergents de roboéthique avec des principes éthiques humaine préexistants, la réflexion doit partir d'abord sur un consensus concernant la nature même des robots. Néanmoins ces derniers regroupent une pluralité de fonctions et de caractéristiques. Penser une éthique qui leurs est propre suppose employer des principes suffisamment générales pour éviter des contextes individuels risqués. La racine du débat éthique dans la robotique trouve ses origines dans un symposium international organisé par le roboticien Gianmarco Veruggio. En janvier 2004, la Scuola di Robotica - en collaboration avec l'Arts Lab de la Scuola Superiore Sant'Anna de Pise et l'Institut Théologique de la Pontificia Accademia della Santa Croce de Rome - ont organisé le premier \textit{Symposium International sur la Roboéthique}\footnote{www.Roboethics.org}. En 2006 apparait une première feuille de route propre à cette discipline. Le document se concentre principalement sur les réalisations du projet Atelier de Roboéthique fondé par EURON\cite{fleres2023integrative}. Il propose une définition de la roboéthique séparé en deux branches: la première se concentre sur les robots en tant quagents moraux, tandis que l'autre est axée sur les humains en tant que agents qui développent et interagissent avec des robots. Souvent, le débat éthique tend à considérer l'influence exercé par les robots sur notre société, en oubliant la dynamique d'une détermination mutuelle entre la société et ses robots. Une approche interdisciplinaire peut mieux observer les processus d'intégration dans la société des robots, ainsi que les dimensions multiples de ces enjeux. Ainsi le contexte socioculturel est repensé en lien avec des points de vues politiques et épistémologiques sur la question des robots, comme nous l'avons vu plus haut avec Mark Hunyadi. Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup des questions éthiques. Les mécanismes de coordination passent par un processus dynamique dinteractions pour déterminer comment des agents identifiés par Dumouchel et Damiano comme des \textit{substituts} sont disposés à légard de leurs partenaires humains et l'inverse. Lélément clé de cette interaction sont les émotions. Caractéristiques saillantes de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation de ces artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit l\textit{éthologie artificielle} vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que lon trouve chez les animaux pourra également résoudre le problème des émotions, puisque (pour le meilleur et pour le pire) nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs propre à nos besoins. Or le parti-pris subjectif de nos expérimentations pratique désigne les robots comme différents des animaux et des humains - sorte despèce à part entière. Quelle type de discipline pourrait réconcilier alors leur statut et besoins?
Les arguments des partisans des machines capables d'une capacité morale complète s'emparent à leur tour des exemples issus du monde non-technologique. Parmi les plus connus défenseurs de l'approche transhumaniste, Ray Kurzweil est chercheur et aviseur en l'IA chez Google. Depuis 2012 il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul des ordinateurs augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite l'année 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}. Plus surprenant, son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec le médecin Terry Grossman, spécialiste en prolongation de la vie. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être à la façon \textit{new-age}: Les arguments des partisans des machines capables d'une capacité morale complète s'emparent à leur tour des exemples issus du monde non-technologique. Parmi les plus connus défenseurs de l'approche transhumaniste, Ray Kurzweil est chercheur et aviseur en l'IA chez Google. Depuis 2012 il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul des ordinateurs augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite l'année 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}. Plus surprenant, son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec le médecin Terry Grossman, spécialiste en prolongation de la vie. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être à la façon \textit{new-age}:
\begin{quote} \begin{quote}
@ -54,7 +57,7 @@ Les arguments des partisans des machines capables d'une capacité morale complè
Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles.” Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles.”
Leur guide est gratuit et disponible online\footnote{https://fantastic-voyage.net/ShortGuide.html}. Leur guide est gratuit et disponible online\footnote{https://fantastic-voyage.net/ShortGuide.html}.
\end{quote} \end{quote}
Les prochaines chapitres du \textit{Fantastic Voyage} se concentrent sur un état d'art pragmatique concernant les biotechnologies et les nanotechnologies dues à l'IA. Malgré leur enthousiasme, les auteurs fournissent très peu de considérations éthiques quant aux implications de la technologie sur la santé. Après le succès de son premier phare sur le sujet - \textit{The singularity is near}\cite{kurzweil2005singularity} - Kurzweil prévoit de faire apparaitre une suite en été 2024 \footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}. Suivant de prêt ces conseils et prédictions, l'entrepreneur russe Dmitry Itskov lance le programme \textit{Initiative 2045} qui regroupe en 2024 plus de 47000 enthousiastes. Ce projet développe des interfaces cerveau-machine suivant quatre étapes clés. Les prochaines chapitres du \textit{Fantastic Voyage} se concentrent sur un état d'art pragmatique concernant les biotechnologies et les nanotechnologies dues à l'IA. Malgré leur enthousiasme, les auteurs fournissent très peu de considérations éthiques quant aux implications de la technologie sur la santé. Après le succès de son premier livre phare sur le sujet - \textit{The singularity is near}\cite{kurzweil2005singularity} - Kurzweil prévoit de faire apparaitre une suite en été 2024 \footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}. Suivant de prêt ces conseils et prédictions, l'entrepreneur russe Dmitry Itskov lance le programme \textit{Initiative 2045} qui regroupe en 2024 plus de 47000 enthousiastes. Ce projet développe des interfaces cerveau-machine suivant quatre étapes clés, comme illustré dans le schéma plus bas:
\begin{figure} \begin{figure}
\centering \centering
\includegraphics[width=0.7\linewidth]{images/2045} \includegraphics[width=0.7\linewidth]{images/2045}
@ -63,20 +66,20 @@ Les prochaines chapitres du \textit{Fantastic Voyage} se concentrent sur un éta
\end{figure} \end{figure}
Pareil au Kurzweil, son initiative manque d'esprit critique à l'égard des hypothèses avancées, donnant plutôt l'impression d'une attitude prosélytique et sectaire que d'une réalité scientifique. Pareil au Kurzweil, son initiative manque d'esprit critique à l'égard des hypothèses avancées, donnant plutôt l'impression d'une attitude prosélytique et sectaire que d'une réalité scientifique.
Contrairement aux prédictions fantastiques sur l'IA promus dans les media, les machines dotées d'une véritable IA sont actuellement très coûteuses. Les seuls acteurs qui peuvent se permettre d'interagir avec, sont les grands entreprises internationales qui ont accès à nos données. Le nombre de personnes qui peuvent objectivement évaluer l'impact de ces technologies sur l'avenir étant très réduit, cela soulève des nombreux inquiétudes. Pour illustrer un exemple d'algorithme qui entraine une IA, les chercheurs de\cite{chowdhury2021ethics} prennent le cas d'un robot qui obtient une récompense pour préparer du thé. Pour atteindre son objectif, le robot va \textit{gagner} plein des récompenses. Cependant si lors de sa préparation, quelqu'un oublie une vase sur le trajet du robot, celui-ci va la renverser puisqu'il ne connait aucune instruction concernant cette vase. Ainsi pour un système dIA avancé, déployé dans le monde réel, il faut modéliser lapprentissage de l'agent en lien avec son environnement, or lenvironnent est constitué principalement des agents biologiques dont le comportement est imprévisible. Intégrer cela nécessite une prise de conscience collective des citoyens, des chercheurs, des décideurs politiques et des leaders de l'industrie quant aux enjeux éthiques de ces technologies numériques au-delà des simulations et contextes spécifiques. Contrairement aux prédictions fantastiques sur l'IA promus par les media et certains passionnés du sujet, les machines dotées d'une véritable IA sont actuellement très coûteuses. Les seuls acteurs qui peuvent se permettre d'interagir avec, sont les grands entreprises internationales qui ont accès à nos données. Le nombre de personnes qui peuvent objectivement évaluer l'impact de ces technologies sur l'avenir étant très réduit, cela soulève des nombreuses inquiétudes. Pour illustrer un exemple d'algorithme qui entraine une IA, les chercheurs de\cite{chowdhury2021ethics} prennent le cas d'un robot qui obtient une récompense pour préparer du thé. Pour atteindre son objectif, le robot va \textit{gagner} plein des récompenses. Cependant si lors de sa préparation, quelqu'un oublie une vase sur le trajet du robot, celui-ci va la renverser puisqu'il ne connait aucune instruction concernant cette vase. Ainsi pour un système dIA avancé, déployé dans le monde réel, il faut modéliser lapprentissage de l'agent en lien avec son environnement, or lenvironnent est constitué principalement des agents biologiques dont le comportement est imprévisible. Intégrer cela nécessite une prise de conscience collective des citoyens, des chercheurs, des décideurs politiques et des leaders de l'industrie quant aux enjeux éthiques de ces technologies numériques au-delà des simulations et contextes spécifiques.
Sur son blog, le roboticien Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks reprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conformes aux intervalles de temps qu'il a annoncé. Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant. Sur son blog, le roboticien Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks reprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conformes aux intervalles de temps qu'il a annoncé. Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant.
Sans pouvoir y trancher entre ces extrêmes, le philosophe Jean-Gabriel Ganascia propose un état des lieux de différents prises de position dans son livre \textit{Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle?}. L'auteur attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction et futurologue Vernor Vinge, dans l'essai \textit{La singularité technologique à venir}, datant de 1993, s'inspire des propos de John von Neumann - un des mathématiciens les plus influents du 20e siècle. Bien qu'il n'a jamais mentionné la singularité technologique, von Neumann aurait évoqué, dés les années 50, l'impact potentiellement irréversible du progrès technologique. Ganascia fait également référence à Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit la croissance exponentielle de la puissance de calcul des ordinateurs. Ainsi ses personnages posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac. Si l'entropie engage des états de désordre pour transformer une matière, serait-elle aussi propre aux processus informatiques, tout comme aux processus thermodynamiques? J'avance cette projection pour anticiper létat de chaos qu'une super-intelligence informatique peut provoquer lors de son apparition. Plus nous continuons cette analyse, plus nous nous rendons compte que l'état actuel d'art corresponds bien à cette description. Sans pouvoir y trancher entre ces extrêmes, jévoque le philosophe Jean-Gabriel Ganascia qui propose un état des lieux de différents prises de position dans son livre \textit{Le Mythe de la Singularité. Faut-il craindre l'intelligence artificielle?}. L'auteur attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction et futurologue Vernor Vinge. Dans l'essai \textit{La singularité technologique à venir}, datant de 1993, Vinge s'inspire des propos de John von Neumann - un des mathématiciens les plus influents du 20e siècle. Bien qu'il n'a jamais mentionné la singularité technologique, von Neumann aurait évoqué, dés les années 50, l'impact potentiellement irréversible du progrès technologique. Ganascia fait également référence à Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit la croissance exponentielle de la puissance de calcul des ordinateurs. Ainsi ses personnages posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac. Si l'entropie engage des états de désordre pour transformer une matière, serait-elle aussi propre aux processus informatiques, tout comme aux processus thermodynamiques? J'avance cette projection pour anticiper létat de chaos qu'une super-intelligence informatique peut provoquer lors de son apparition. Plus nous continuons cette analyse, plus nous nous rendons compte que l'état actuel d'art corresponds bien à cette description.
Puis Ganascia évoque Stephen Hawking mentionné plus haut, qui lance en 2014 un cri dalarme contre les technologies susceptibles de devenir incontrôlables. Cela en parallèle avec l'exemple du chercheur en cybernétique avec son \textit{Project Cybrog} commencé en 1998, pour connecter son système nerveux (et plus tard celui de son épouse) à des interfaces neuronales qui augmentent ses capacités physiques et ses moyens de communication\cite{warwick2004thought}. Un autre exemple pertinent dans l'état d'art de Ganascia est l'article intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} : Puis Ganascia évoque Stephen Hawking mentionné plus haut, qui lance en 2014 un cri dalarme contre les technologies susceptibles de devenir incontrôlables. Cela en parallèle avec l'exemple du chercheur en cybernétique Kevin Warwick et son \textit{Project Cybrog} commencé en 1998, pour connecter son système nerveux (et plus tard celui de son épouse) à des interfaces neuronales qui augmentent ses capacités physiques et ses moyens de communication\cite{warwick2004thought}. Un autre exemple pertinent dans l'état d'art de Ganascia est l'article intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} :
\begin{quote} \begin{quote}
``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...) Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. (...) Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir (...) ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.” ``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...) Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. (...) Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir (...) ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.”
\cite{joy2001pourquoi} \cite{joy2001pourquoi}
\end{quote} \end{quote}
Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui naurait plus besoin des humains. En opposition la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée en début 2015 par une poignée des spécialistes dintelligence artificielle inquiets des conséquences du développement de cette discipline. Sensible aux questions de techno-solutionnisme, Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour lui cette doctrine imprégnée par les stratégies de profit des multinationales de linformatique repose en réalité sur une extrapolation peu étayée de la loi de Moore. Tout cela mélangé avec un récit eschatologique bien éloigné de la rigueur scientifique. Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui naurait plus besoin des humains. De surcroît la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée en début 2015 par une poignée des spécialistes dintelligence artificielle inquiets des conséquences du développement de cette discipline. Sensible aux questions de techno-solutionnisme, Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour lui cette doctrine imprégnée par les stratégies de profit des multinationales de linformatique repose en réalité sur une extrapolation peu étayée de la loi de Moore. Tout cela mélangé avec un récit eschatologique bien éloigné de la rigueur scientifique.
Retournons à la question de la conscience, ses paradoxes et sa place dans les débats concernant une éthique des machines. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et en IA pour clarifier son rôle dans le fonctionnement humain reste une question fascinante. En sciences cognitives pr exemple, grâce au traitement du signal EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,54 Hz), thêta (47 Hz), alpha (712 Hz), bêta (1330 Hz) et ondes de la bande gamma (>30 Hz). Retournons à la question de la conscience, ses paradoxes et sa place dans les débats concernant une éthique des machines. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et en IA pour clarifier son rôle dans le fonctionnement humain reste une question fascinante. En sciences cognitives par exemple, grâce au traitement des signaux EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,54 Hz), thêta (47 Hz), alpha (712 Hz), bêta (1330 Hz) et ondes de la bande gamma (>30 Hz).
\begin{figure} \begin{figure}
\centering \centering
@ -84,10 +87,10 @@ Retournons à la question de la conscience, ses paradoxes et sa place dans les d
\caption{Structure du cerveau humain et formes d'onde. Source: \cite{liu2024cognitive}.} \caption{Structure du cerveau humain et formes d'onde. Source: \cite{liu2024cognitive}.}
\label{fig:brainwaves} \label{fig:brainwaves}
\end{figure} \end{figure}
Kevin Warwick
Ces derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent par exemple aux stades profonds du sommeil, ou aux laps de temps d'inattention. Cela est illustré par des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et lémergence d'une forme de CA seront possibles. Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir, y compris dans notre relation avec les machines. Plusieurs domaines scientifiques convergent au même point dacquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Si les objectifs de chaque domaine est différent, l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale. Ces derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent par exemple aux stades profonds du sommeil, ou aux laps de temps d'inattention. Cela est illustré par des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et lémergence d'une forme de CA seront possibles. Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir, y compris dans notre relation avec les machines. Plusieurs domaines scientifiques convergent au même point dacquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Si les objectifs de chaque domaine est différent, l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale.
Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones\footnote{type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire.}. Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer leur hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe américain Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}) que nous avons abordé dans la premier partie de ce manuscrit. Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire lexpérience de la conscience. Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones\footnote{type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire.}. Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie reste à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer leur hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}) que nous avons abordé dans la premier partie de ce manuscrit. Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire lexpérience de la conscience. Comme montré lors de nos laboratoires d'experimentation, la danse et les pratiques somatiques parviennent aux mêmes observations, probablement d'une manière plus intuitive.
De plus, ce qui rend dexpérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à lexpérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains, se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. Lémergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin dêtre résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, la définition suivante du statut moral: De plus, ce qui rend dexpérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à lexpérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains, se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. Lémergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin dêtre résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, la définition suivante du statut moral:
\begin{quote} \begin{quote}
@ -95,9 +98,9 @@ De plus, ce qui rend dexpérience humaine unique est sa \gls{sentience}, vue
\cite{bostrom2018ethics} \cite{bostrom2018ethics}
\end{quote} \end{quote}
Plus loin, l'\textit{hypothèse du monde vulnérable} ou \gls{vulnerable world hypothesis} de Bostrom promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, nous avons vu dans l'exemple de Zuboff que recourir délibérément à des algorithmes qui nous surveillent, rendra encore plus confus notre rapport à ces dernières puisque nous le faisons déjà sans le savoir. Quoi dire alors de leur capacité de nous manipuler alors qu'en 2014 un ordinateur passe le fameux test Touring, lorsquun chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}. Nous aurions clairement besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique. Parmi les problématiques traitées par léthique des algorithmes d'IA, les chercheurs évoquent les biais et léquité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Issue de ces problématiques, l'éthique des machines supervise la fabrication des artefacts qui se comportent de manière éthique, appelles AMA ou \textit{Artificial Moral Agents}. Cela concerne en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. Plus loin, l'\textit{hypothèse du monde vulnérable} ou \gls{vulnerable world hypothesis} de Bostrom promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, nous avons vu dans l'exemple de Zuboff que recourir délibérément à des algorithmes qui nous surveillent, rendra encore plus confus notre rapport à ces dernières puisque nous le faisons déjà sans le savoir. Quoi dire alors de leur capacité de nous manipuler alors qu'en 2014 un ordinateur passe le fameux test Touring, lorsquun chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}. Nous aurions clairement besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique.
Dans un effort de clarification de ces enjeux, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie ou la culture. C'est pour cela qu'une perspective philosophique (puis plus largement artistique) et éthique du question de la conscience est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre. La mise à disposition des informations afin de réfléchir collectivement à ces questions peut se faire au travers l'art, qui sait les adresser dans un registre moins complexe. Parmi les problématiques traitées par léthique des algorithmes d'IA, les chercheurs évoquent les biais et léquité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Issue de ces problématiques, l'éthique des machines supervise la fabrication des artefacts qui se comportent de manière éthique, appelles AMA ou \textit{Artificial Moral Agents}. Cela concerne en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. Dans un effort de clarification de ces enjeux, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie ou la culture. C'est pour cela qu'une perspective philosophique (puis plus largement artistique) et éthique du question de la conscience est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre. La mise à disposition des informations afin de réfléchir collectivement à ces questions peut se faire au travers l'art, qui sait les adresser dans un registre moins complexe.
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, jaimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité dune “collaboration” plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agence non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des neurones miroirs\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper linfluence de ces derniers sur les humains. Le projet \textit{code\_red}\cite{loke2023rouge} (2021) présenté dans un chapitre du livre \textit{Cultural Robotics: Social Robots and Their Emergent Cultural Ecologies}\cite{dunstan2023cultural} (2023), traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprends à dessiner des lèvres, pour mettre du rouge à lèvres sur une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte dengagement: marquer ses lèvres puis sa voix par une couleur rouge - symbole de la peinture de guerre, pour mieux réclamer ses droits. Linfluence du robot sur lhumain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où \textit{l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine}. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonances intra-corporelles}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit séchapper à une monopolisation humaine de la rencontre. Au contraire, comme le montre Gemeinboeck, éviter délibérément la focalisation sur l'individualisme des agents interactifs favorise un croisement des flux perceptuels et des dynamiques de mouvement qui donnent naissance à des effets émergents de signification. La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, jaimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité dune “collaboration” plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agence non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des neurones miroirs\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper linfluence de ces derniers sur les humains. Le projet \textit{code\_red}\cite{loke2023rouge} (2021) présenté dans un chapitre du livre \textit{Cultural Robotics: Social Robots and Their Emergent Cultural Ecologies}\cite{dunstan2023cultural} (2023), traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprends à dessiner des lèvres, pour mettre du rouge à lèvres sur une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte dengagement: marquer ses lèvres puis sa voix par une couleur rouge - symbole de la peinture de guerre, pour mieux réclamer ses droits. Linfluence du robot sur lhumain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où \textit{l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine}. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonances intra-corporelles}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit séchapper à une monopolisation humaine de la rencontre. Au contraire, comme le montre Gemeinboeck, éviter délibérément la focalisation sur l'individualisme des agents interactifs favorise un croisement des flux perceptuels et des dynamiques de mouvement qui donnent naissance à des effets émergents de signification.