first draft on general conclusion

This commit is contained in:
silviaC 2024-07-22 01:28:05 +02:00
parent d5827357df
commit bbd31299ce
3 changed files with 127 additions and 172 deletions

View File

@ -101,6 +101,13 @@
publisher={Springer} publisher={Springer}
} }
@article{zuboff2020age,
title={L{\^a}ge du capitalisme de surveillance},
author={Zuboff, Shoshana},
journal={Paris, Zulma},
year={2020}
}
@incollection{wallach2020consciousness, @incollection{wallach2020consciousness,
title={Consciousness and ethics: artificially conscious moral agents}, title={Consciousness and ethics: artificially conscious moral agents},
author={Wallach, Wendell and Allen, Colin and Franklin, Stan}, author={Wallach, Wendell and Allen, Colin and Franklin, Stan},

View File

@ -4,12 +4,108 @@ résoudraentrepreneursdilatabilitésparallèle\chapter*{Conclusion Générale}
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques. Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière dIA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué. Parmi eux, le Conseil consultatif externe sur les technologies avancées de Googgle, ou ChatGPT dont l'opacité des données d'entrainement a donné suite à la création de la fondation \textit{EleutherAI}. Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière dIA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué. Parmi eux, le Conseil consultatif externe sur les technologies avancées de Googgle, ou ChatGPT dont l'opacité des données d'entrainement a donné suite à la création de la fondation \textit{EleutherAI}.
En contrepoids (l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence} , entre outres) continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Leur mission est de œuvrer pour une démocratisation des pratiques en lien avec l'AI. Par exemple EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous lamendement des chercheurs. En contrepoids (l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence} , entre outres) continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Leur mission est de œuvrer pour une démocratisation des pratiques en lien avec l'AI. Par exemple, EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous lamendement des chercheurs. Dans les prochaines pages je mapprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je la mentionne pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
Dans les prochaines pages je mapprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je la mentionne pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et de la robotique afin de mieux penser notre cohabitation avec les machines, dans les années à venir. Au sens large, mon intention est probablement de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à lintérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps cest nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. La question de lidentité se pose, car cest très important dinterroger doù vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer leur limitations. Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et de la robotique afin de mieux penser notre cohabitation avec les machines, dans les années à venir. Au sens large, mon intention est probablement de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à lintérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps cest nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. La question de lidentité se pose, car cest très important dinterroger doù vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer leur limitations.
Selon \cite{dodig2012robots} la moralité artificielle doit dépendre du niveau daction, dautonomie et dintelligence d'un système. Elle doit se construire progressivement et vise les robots cognitifs des prochaines générations dans des domaines comme la surveillance, l'ingénierie sociale, les robots militaires, les robots sexuels et plus généralement le transhumanisme. Par exemple les enjeux éthiques de lIA dans la surveillance, concernent l'accumulation de données, en ligne et hors ligne, qui peut manipuler les comportements envers des choix irrationnels.
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, jaimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité dune “collaboration” plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agence non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des neurones miroirs\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper linfluence de ces derniers sur les humains. Le projet \textit{code\_red} (2021) présenté dans un chapitre\cite{loke2023rouge} du livre\cite{dunstan2023cultural}, traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprends à dessiner des lèvres, puis mettre du rouge à lèvres à une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte dengagement: marquer sa voix par une couleur rouge- symbole de la peinture de guerre, pour mieux réclamer ses droits. Linfluence du robot sur lhumain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où “l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine”. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonances intra-corporelles}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit séchapper à une monopolisation humaine de la rencontre. Au contraire, comme le montre Gemeinboeck, éviter délibérément la focalisation sur l'individualisme des agents interactifs favorise un croisement des flux perceptuels et des dynamiques de mouvement qui donnent naissance à des effets émergents de signification. Au cours des deux dernières décennies, les défis éthiques liés aux technologies robotiques ont suscité beaucoup d' intérêt.\cite{zawieska2020disengagement} questionne l'engagement éthique au sein de la communauté robotique, connu sous le terme de \textit{robo-éthique}. Si le terme éthique s'adresse essentiellement aux humains, une approche complémentaire devrait inclure l\textit{éthique vécue} , qui implique l'engagement réel dans une interaction et la manière dont cela structure lexpérience.
Quant à la tendance de résoudre les problèmes émergents de robot-éthique avec des principes éthiques humaine préexistants, la réflexion doit partir d'abord sur un consensus concernant la nature même des robots. Néanmoins ces derniers regroupent une pluralité de fonctions et caractéristiques, ce qui fait que souvent, penser une éthique qui leurs est propre, suppose employer des principes suffisamment générales pour biaiser des contextes individuels risqués.
La racine du débat éthique sur la robotique trouve ses origines dans le premier symposium international de robotique, organisé à Sanremo en 2004, par le roboticien Gianmarco Veruggio. En 2006 apparait une première feuille de route de cette discipline. Le document se concentre principalement sur les réalisations du Projet Atelier de Roboéthique fondé par EURON\cite{fleres2023integrative}. Il propose une définition de la robotéthique séparé en deux branches: la première se concentre sur les robots en tant quagents moraux, tandis que l'autre est axée sur les humains en tant que agents construisant et utilisant des robots.
Souvent, le débat éthique tend à considérer l'influence exercé par les robots sur notre société, en oubliant la dynamique d'une détermination mutuelle entre société et robotique. Des équipes interdisciplinaires pourront mieux observer les processus d'intégration dans la société des robots, ainsi que les dimensions multiples de ces enjeux. Le contexte socioculturel est repensé en lien avec des points de vues politiques et épistémologiques sur la question des robots.
L'éthique des machines trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont les technologies modifient notre conception de l'humain et de la société. \cite{hunyadi2019artificial} cite son travail pour appuyer lhypothèse que le terme dagent moral artificiel est philosophiquement illégitime. Afin déviter toute spéculation ou didéologie en lien avec l'éthique des machines, son auteur cherche à fournir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains.
Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup dintérêt de point de vue éthique. Les mécanismes de coordination passent par un processus dynamique dinteractions pour déterminer comment ces agents identifiés par Dumouchel et Damiano comme des \textit{substituts} sont disposés à légard de leurs partenaires humains et l'inverse. Lélément clé de cette interaction sont les émotions. Moments saillants de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation de ces artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit léthologie artificielle vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que lon trouve chez les animaux résoudra également le problème des émotions, puisque nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs par rapport à nos besoins.
La grande majorité des gens comprennent que des services supposément gratuits reposent en réalité sur une manque de transparence dans l'acquisition et la gestion des données qui alimentent ces services. Ces donnes qualifient dexpérience humaine comme \textit{matière première gratuite}. La principale manière de les collecter par les GAFA (Amazon, Google/Alphabet, Apple, Facebook) implique de la manipulation envers des comportements addictifs. Cela est illustré par Zuboff par le fait de penser les individus comme partie du marché\cite{zuboff2020age}. La quantité dé-mesurable des donnés ne peut pas être traités à une échelle humaine. Le Big Data devient un systeme récursif anonyme qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations qui reste disponible aux impératifs économiques.
Selon Zuboff le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. Si certains sceptiques affirment que les craintes de l'IA reviennent sans cesse depuis plus de 60 années, Jean-Gabriel Ganascia propose un état des lieux de différents chercheurs qui se sont pris à la question, sans y pouvoir y trancher. Il évoque Stephen Hawking, célèbre physicien et cosmologiste britannique, qui lance un cri dalarme contre les technologies susceptibles de devenir incontrôlables en 2014 . Puis à l'opposé, Kevin Warwick et son \textit{Project Cybrog} commencé en 1998, où il connecte son système nerveux (et plus tard celui de son épouse) à des pouces pour augmenter ses capacités physiques et ses moyens de communication\cite{warwick2004thought}.
Un autre exemple pertinent cité par Ganascia est l'article intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} :
\begin{quote}
``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...)Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}.(...)Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à
l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir(...); mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.”
\cite{joy2001pourquoi}
\end{quote}
Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui naurait plus besoin des humains. Ganascia évoque à son tour la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée début 2015 par une poignée des spécialistes dintelligence artificielle inquiets des conséquences du développement de leur discipline.
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour Ganascia cette doctrine imprégnée par les stratégies de profit des multinationales de linformatique repose en réalité sur une extrapolation peu étayée de la loi de Moore, mélangé avec un récit eschatologique bien éloigné la rigueur scientifique.
Quant à la question de léthique des machines, il cite \cite{anderson2007machine} dont les observations sont partagés dés 2006.
Entre autre, Ganascia attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant à son tour des propos de John von Neumann concernant ses équations mathématiques. Il évoque également Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Ainsi les chercheurs de Asimov posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac.
Ray Kurzweil est chercheur et aviseur en l'IA chez Google, où il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}.
Son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec l'expert en prolongation de la vie Terry Grossman. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être:
\begin{quote}
``Apportez des sachets de stévia lorsque vous mangez à l'extérieur.(...)
Vous pouvez préparer une vinaigrette à faible teneur en glucides et en matières grasses en combinant la stévia avec du jus de citron et/ou du vinaigre balsamique.(...)
Mangez des légumes pauvres en amidon à volonté.(...)
Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles.”
Le guide est gratuit et disponible online\footnote{https://fantastic-voyage.net/ShortGuide.html}.
\end{quote}
Les prochaines chapitres se concentrent sur un état d'art pragmatique concernant les biotechnologies et les nanotechnologies dues à l'IA. Malgré leur enthousiasme, les auteurs fournissent très peu considérations éthiques quant aux implications de la technologie sur la santé.
Après le succès de son premier livre sur le sujet- \textit{The singularity is near}\cite{kurzweil2005singularity}- Kurzweil prévoit de faire apparaitre en été 2024 une suite \footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}. Suivant ces conseils et prédictions, l'entrepreneur russe Dmitry Itskov lance le programme \textit{Initiative 2045} qui regroupe en 2024 plus de 47000 enthousiastes. Ce projet développe des interfaces cerveau-machine suivant quatre étapes clés.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/2045}
\caption{Les quatre étapes avant datteindre la Singularité. Source : http://2045.com/}
\label{fig:2045}
\end{figure}
Cependant son initiative manque d'esprit critique à l'égard des hypothèses avancées, donnant plutôt l'impression d'une aspiration que d'une réalité transhumaniste.
Sur son blog, Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks r``eprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conforme aux intervalles de temps qu'il a annoncé.
Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant.
Pareil a Kurzweil et Brooks, elle tente une sorte prophétie dans son livre. Elle cite léconomiste Karl Polanyi qui nous a montré il y a 70 ans comment le marché du capitalisme industriel finit par détruire ce qu'elle est censé vendre.\cite{zuboff2020age}. A son tour, elle se demande \textit{si le capitalisme industriel a mis en péril léquilibre de la nature, quel peut-être l'effroyable effet du capitalisme de surveillance sur la nature humaine?}\cite{zuboff2020age}. Elle partage une question qui lui est posée par un jeune gérant d'une usine \textit{Allons-nous tous travailler pour une machine intelligente ou y aura-t-il des personnes intelligentes autour de la machine?}\cite{zuboff2020age}. Dans son usine ce gérant remarque la modification de la nature même du travail qui se réduit d'une tache pratique et utile pour l'ensemble, à la surveillance des données électroniques.
Le mouvement open source trace les lignes d'une forme de résistance à ces comportements antidémocratiques. Cependant, nous devons façonner une réponse sociétale unitaire, y compris par une réglementation et des lois adaptés au chaque contexte.
Contrairement aux prédictions plus fantastiques de la presse populaire concernant l'IA, les machines dotées d'une véritable IA sont très coûteuses actuellement. Les seules personnes qui peuvent se permettre d'interagir avec, sont les grands entreprises internationales. Le nombre de personnes qui peuvent objectivement évaluer l'impact de ces technologies sur l'avenir étant très réduit, cela soulève des nombreux questions éthiques\cite{chowdhury2021ethics}.
Pour illustre, un exemple d'algorithme qui entraine une IA, les chercheurs illustrent le cas d'un robot qui obtient une récompense pour préparer du thé. Pour atteindre son objectif, le robot va \textit{gagner} plein des récompenses. Cependant si lors de sa préparation, quelqu'un oublie une vase sur le trajet du robot, celui-ci va la renverser puisqu'il ne connait aucune instruction concernant cette vase. Ainsi pour un système dIA avancé, déployé dans le monde réel, il faut modéliser lapprentissage de l'agent en lien avec son environnement. Cela va de pair avec une prise de conscience collective des citoyens, des chercheurs, des décideurs politiques et des leaders de l'industrie, quant aux dimensions éthiques des nouvelles technologies numériques.
Ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le\textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine.
En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres et équitablement distribuées.
Alors que le \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} est une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et l'entrepreneur Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA plus puissants que GPT-4 pour garantir la sécurité et la gouvernance. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}.
Dans une démarche similaire, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie et la culture institutionnelles.
Retournons à la question de la conscience et ses paradoxes. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et IA à clarifier son rôle dans le fonctionnement humain, est comme nous l'avons dit une question fascinante. En sciences cognitives pr exemple, grâce au traitement du signal EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,54 Hz), thêta (47 Hz), alpha (712 Hz), bêta (1330 Hz) et ondes de la bande gamma (>30 Hz).
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/brainwaves}
\caption{Structure du cerveau humain et formes d'onde. Source: \cite{liu2024cognitive}.}
\label{fig:brainwaves}
\end{figure}
Ces derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent aux stades profonds du sommeil, ou par des laps de temps brefs et soudains d'inattention. Elles représentent des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et lémergence d'une forme de CA seront possibles.
Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir. Plusieurs domaines scientifiques convergent au même point dacquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Cependant les objectifs de chaque domaine est différent et l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale.
C'est pour cela qu'une perspective philosophique (puis plus largement une artistique) et éthique de cette question est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre, avec son accord. Cet accord, ou la mise à disposition des informations afin de réfléchir collectivement à ces questions, peut se faire au travers l'art.
Ce qui rend dexpérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à lexpérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. Lémergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin dêtre résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
\begin{quote}
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
\cite{bostrom2018ethics}
\end{quote}
Plus loin, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, des algorithmes qui nous surveillent, afin de garantir notre objectivité, rendra encore plus confus notre rapport avec ces dernières. Nous aurions besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique. Parmi les problématiques traitées par léthique des algorithmes d'IA, les chercheurs évoquent les biais et léquité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Domaine issu de ces problématiques, l'éthique des machines concerne la fabrication des artefacts qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Leurs problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. En 2014 un ordinateur passe le fameux test Touring, lorsquun chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}. Ensuite les chercheurs ont même proposé un test alternatif, le \textit{test éthique de Turing}.
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, jaimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité dune “collaboration” plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agence non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des neurones miroirs\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper linfluence de ces derniers sur les humains. Le projet \textit{code\_red} (2021) présenté dans un chapitre\cite{loke2023rouge} du livre\cite{dunstan2023cultural}, traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprends à dessiner des lèvres, puis mettre du rouge à lèvres à une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte dengagement: marquer sa voix par une couleur rouge- symbole de la peinture de guerre, pour mieux réclamer ses droits. Linfluence du robot sur lhumain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où \textit{l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine}. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonances intra-corporelles}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit séchapper à une monopolisation humaine de la rencontre. Au contraire, comme le montre Gemeinboeck, éviter délibérément la focalisation sur l'individualisme des agents interactifs favorise un croisement des flux perceptuels et des dynamiques de mouvement qui donnent naissance à des effets émergents de signification.
Tandis que certains types de propriétés mentales peuvent être modélisables en informatique, d'autres sont seulement issues des organismes biologiques. Pour le philosophe Steve Torrence, les agents artificiels devront émuler certaines propriétés clés des organismes biologiques. Par exemple les formes d'auto-organisation et d'auto-entretien autonomes propres au vivat disposent de la sensibilité et d'une certain fonctionnement téléologique, ce que Torrence identifié chez les humains comme \textit{conscience de soi}:
\begin{quote}
``La notion de sensibilité doit être distinguée de celle de la conscience de soi : de nombreux êtres qui possèdent la première peuvent ne pas posséder la seconde. On peut soutenir que de nombreux mammifères possèdent la sensibilité, ou la conscience phénoménale — ils sont capables de ressentir la douleur, la peur, le plaisir sensuel, etc. Néanmoins, il est généralement admis que ces mammifères ne possèdent pas couramment la capacité d'articuler ou d'être conscients, d'une manière de second ordre, de ces états sensibles, et manquent donc de conscience de soi\footnote{``The notion of sentience should be distinguished from that of self-consciousness: many beings, which possess the former may not possess the latter. Arguably, many mammals possess sentience, or phenomenal consciousness—they are capable of feeling pain, fear, sensuous pleasure and so on. Nevertheless it is usually taken that such mammals do not standardly possess the ability to articulate or be aware, in a higher-order way, of such sentient states, and so lack self-consciousness.”}.”
\cite{torrance2008ethics}
\end{quote}
Pour les humains, les fondements d'une décision morale résident dans la conscience mais également dans l'inconscient, au travers nos émotions. Des chercheurs se demandent si les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées doivent avoir également une conscience artificielle\cite{wallach2020consciousness}. Selon eux, la recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience artificielle se sont développées en tant que domaines distincts une de l'autre. Pourtant, les deux sont susceptibles de converger avec lavènement des systèmes dotés d'\gls{intelligence artificielle générale}. Certains attributs de la conscience, comme la capacité d'émpathiser avec la souffrance des autres, ne sont pas quantifiables. Tout comme sa nature lorsqu'elle est propre aux non-humains reste à définir. L'étude de cas des auteurs de cet article concerne l'application de LIDA- un modèle computationnel et conceptuel de cognition humaine qui combine une analyse top-down avec une psychologie bottom-up pour structurer
une première approche des AMA. Cela permets dimplémenter des principes de
\textit{renforcement}, c'est à dire de récompenser l'algorithme pour un comportement qui mérite d'être loué, et lui donner lopportunité d'apprendre de ses expériences. LIDA est implémenté sur les fondements de la \gls{Global Workspace Theory} ou Théorie de l'Espace Global de Bernard Baars (1988), aujourd'hui considérée comme un tournant majeur dans les neurosciences cognitives et les études sur la conscience. Cette théorie traite du rôle de la conscience dans le traitement cognitif humain, avec une part d'études empiriques. \cite{wallach2020consciousness} cite le travail des équipes de chercheurs dirigées par Stanislas Dehaene, Murray Shanahan ou bien Stan Franklin qui ont développé des modèles computationnels qui instancient certains aspects de la GWT. Cependant une implémentation 100\% conforme aux principes de GWT est actuellement impossible.
L'article \textit{Towards self-aware robots}\cite{chatila2018toward} (2018) met en avant l'importance de la conscience de soi comme caractéristique principale des robots intelligents. Pour les chercheurs à l'origine de ce papier, un robot doit d'abord reposer sur la perception de soi, indépendamment de la perception de l'environnement et celle des autres agents. Lors de son interaction avec l'environnement, ce robot doit être capable d'auto-évaluation et de méta-raisonnement. Pour cela il doit construire des représentations sensori-motrices en lien avec différents éléments afin de se distinguer d'eux et de choisir délibérément des actions adaptés. Pour le chercheur Raja Chatilla, un robot doté de conscience de soi “est capable de transformer les comportements appris en compétences explicites et de caractériser les situations dans lesquelles ces compétences sont applicables, revenant à un comportement dirigé par un objectif planifié lorsqu'elles ne le sont pas.” Quant à la capacité de délibération sur son propre raisonnement, \cite{chatila2018toward} évoque un système capable de se représenter lui-même et l'humain avec lequel il interagit. Initialement motivé par des motivations de base, il devient capable de raisonner sur les moyens de les satisfaire pour ensuite déterminer ses propres objectifs. Cela lui permet entre autre de réussir le test de Sally et Anne, une expérience classique en psychologie développementale utilisée pour évaluer la théorie de l'esprit chez les enfants. Ce test détermine la capacité à comprendre que les autres peuvent avoir des croyances, des désirs et des perspectives différents, ce qui implique un second degré de conscience. En pratique, implémentation de ces principes passe par des bases théoriques déjà validées par des autres chercheurs, comme les modules illustrés par différents couleurs (par exemple le module de perception sensorielle ou dapprentissage sensoriel-moteur en jaune, tout comme le module de planification de taches en lien avec la reconnaissance de l'humain en vert ou celui de reconnaissance spatiale en bleu) dans l'illustration suivante. Cependant les auteurs de l'article admettent que ce travail est en cours et que seulement les prochaines expérimentations, pourront apporter une validation globale de leur prototype: L'article \textit{Towards self-aware robots}\cite{chatila2018toward} (2018) met en avant l'importance de la conscience de soi comme caractéristique principale des robots intelligents. Pour les chercheurs à l'origine de ce papier, un robot doit d'abord reposer sur la perception de soi, indépendamment de la perception de l'environnement et celle des autres agents. Lors de son interaction avec l'environnement, ce robot doit être capable d'auto-évaluation et de méta-raisonnement. Pour cela il doit construire des représentations sensori-motrices en lien avec différents éléments afin de se distinguer d'eux et de choisir délibérément des actions adaptés. Pour le chercheur Raja Chatilla, un robot doté de conscience de soi “est capable de transformer les comportements appris en compétences explicites et de caractériser les situations dans lesquelles ces compétences sont applicables, revenant à un comportement dirigé par un objectif planifié lorsqu'elles ne le sont pas.” Quant à la capacité de délibération sur son propre raisonnement, \cite{chatila2018toward} évoque un système capable de se représenter lui-même et l'humain avec lequel il interagit. Initialement motivé par des motivations de base, il devient capable de raisonner sur les moyens de les satisfaire pour ensuite déterminer ses propres objectifs. Cela lui permet entre autre de réussir le test de Sally et Anne, une expérience classique en psychologie développementale utilisée pour évaluer la théorie de l'esprit chez les enfants. Ce test détermine la capacité à comprendre que les autres peuvent avoir des croyances, des désirs et des perspectives différents, ce qui implique un second degré de conscience. En pratique, implémentation de ces principes passe par des bases théoriques déjà validées par des autres chercheurs, comme les modules illustrés par différents couleurs (par exemple le module de perception sensorielle ou dapprentissage sensoriel-moteur en jaune, tout comme le module de planification de taches en lien avec la reconnaissance de l'humain en vert ou celui de reconnaissance spatiale en bleu) dans l'illustration suivante. Cependant les auteurs de l'article admettent que ce travail est en cours et que seulement les prochaines expérimentations, pourront apporter une validation globale de leur prototype:
@ -39,39 +135,6 @@ Selon\cite{nass1997computers}, les individus adoptent des comportements sociaux
\cite{shaw2009looking} \cite{shaw2009looking}
\end{quote} \end{quote}
Contrairement aux prédictions plus fantastiques de la presse populaire concernant l'IA, les machines dotées d'une véritable IA sont très coûteuses actuellement. Les seules personnes qui peuvent se permettre d'interagir avec, sont les grands entreprises internationales. Le nombre de personnes qui peuvent objectivement évaluer l'impact de ces technologies sur l'avenir étant très réduit, cela soulève des nombreux questions éthiques\cite{chowdhury2021ethics}.
Pour illustre, un exemple d'algorithme qui entraine une IA, les chercheurs illustrent le cas d'un robot qui obtient une récompense pour préparer du thé. Pour atteindre son objectif, le robot va \textit{gagner} plein des récompenses. Cependant si lors de sa préparation, quelqu'un oublie une vase sur le trajet du robot, celui-ci va la renverser puisqu'il ne connait aucune instruction concernant cette vase. Ainsi pour un système dIA avancé, déployé dans le monde réel, il faut modéliser lapprentissage de l'agent en lien avec son environnement. Cela va de pair avec une prise de conscience collective des citoyens, des chercheurs, des décideurs politiques et des leaders de l'industrie, quant aux dimensions éthiques des nouvelles technologies numériques.
Ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le\textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine.
En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres et équitablement distribuées.
Alors que le \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} est une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et l'entrepreneur Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA plus puissants que GPT-4 pour garantir la sécurité et la gouvernance. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}.
Dans une démarche similaire, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie et la culture institutionnelles.
Retournons à la question de la conscience et ses paradoxes. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et IA à clarifier son rôle dans le fonctionnement humain, est comme nous l'avons dit une question fascinante. En sciences cognitives pr exemple, grâce au traitement du signal EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,54 Hz), thêta (47 Hz), alpha (712 Hz), bêta (1330 Hz) et ondes de la bande gamma (>30 Hz).
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/brainwaves}
\caption{Structure du cerveau humain et formes d'onde. Source: \cite{liu2024cognitive}.}
\label{fig:brainwaves}
\end{figure}
Ces derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent aux stades profonds du sommeil, ou par des laps de temps brefs et soudains d'inattention. Elles représentent des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et lémergence d'une forme de CA seront possibles.
Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir. Plusieurs domaines scientifiques convergent au même point dacquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Cependant les objectifs de chaque domaine est différent et l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale.
C'est pour cela qu'une perspective philosophique (puis plus largement une artistique) et éthique de cette question est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre, avec son accord. Cet accord, ou la mise à disposition des informations afin de réfléchir collectivement à ces questions, peut se faire au travers l'art.
Ce qui rend dexpérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à lexpérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. Lémergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin dêtre résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
\begin{quote}
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
\cite{bostrom2018ethics}
\end{quote}
Plus loin, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, avons-nous réellement besoin réellement d'une police pour raisonner de manière éthique? Des algorithmes qui nous surveillent, afin de garantir notre objectivité, rendra encore plus confus notre rapport avec ces dernières. Nous aurions besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique. Parmi les problématiques traitées par léthique des algorithmes d'IA, les chercheurs évoquent les biais et léquité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Domaine issu de ces problématiques, l'éthique des machines concerne la fabrication des artefacts qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Leurs problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. A cela des chercheurs ont même proposé un test alternatif, le \textit{test éthique de Turing}.
Il y a vingt ans des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots sont définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique: Il y a vingt ans des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots sont définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique:
@ -138,27 +201,6 @@ Dans son livre\cite{harari2017homo}, lhistorien Yuval Noah Harari déclare qu
Bien entendu, certaines aspects spécifiquement humains comme les soins, lamour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers. Bien entendu, certaines aspects spécifiquement humains comme les soins, lamour ou le sexe, ne pourront pas être complétement remplacés par des robots. Leur emploi engendre des contraintes en lien avec la sécurité et la responsabilité des produits, ainsi que la non-tromperie des usagers.
Ray Kurzweil est chercheur et aviseur en l'IA chez Google, où il étudie les articulations entre la technologie et la société. Selon ses estimations, la puissance de calcul augmente de manière exponentielle, en doublant environ tous les 2 ans depuis 1970 (suivant les principes de la loi de Moore). Ainsi pour lui, l'année 2030 ensuite 2045 sont des échéances importantes concernant la \gls{Singularité} et la dématérialisation de la conscience\cite{kurzweil2005singularity}.
Son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le métabolisme et les maladies. Ainsi il co-écrit une livre intitulé \textit{Fantastic Voyage} (2005) avec l'expert en prolongation de la vie Terry Grossman. Ensemble ils réfléchissent aux modalités pour préserver la bonne santé et la longévité. Structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry}, le livre regorge de conseils en bien-être:
\begin{quote}
``Apportez des sachets de stévia lorsque vous mangez à l'extérieur.(...)
Vous pouvez préparer une vinaigrette à faible teneur en glucides et en matières grasses en combinant la stévia avec du jus de citron et/ou du vinaigre balsamique.(...)
Mangez des légumes pauvres en amidon à volonté.(...)
Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles.”
Le guide est gratuit et disponible online\footnote{https://fantastic-voyage.net/ShortGuide.html}.
\end{quote}
Les prochaines chapitres se concentrent sur un état d'art pragmatique concernant les biotechnologies et les nanotechnologies dues à l'IA. Malgré leur enthousiasme, les auteurs fournissent très peu considérations éthiques quant aux implications de la technologie sur la santé.
Après le succès de son premier livre sur le sujet- \textit{The singularity is near}\cite{kurzweil2005singularity}- Kurzweil prévoit de faire apparaitre en été 2024 une suite \footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}. Suivant ces conseils et prédictions, l'entrepreneur russe Dmitry Itskov lance le programme \textit{Initiative 2045} qui regroupe en 2024 plus de 47000 enthousiastes. Ce projet développe des interfaces cerveau-machine suivant quatre étapes clés.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/2045}
\caption{Les quatre étapes avant datteindre la Singularité. Source : http://2045.com/}
\label{fig:2045}
\end{figure}
Cependant son initiative manque d'esprit critique à l'égard des hypothèses avancées, donnant plutôt l'impression d'une aspiration que d'une réalité transhumaniste.
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique denvergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le XXIème siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de létat actuel de lIA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter lallocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de prendre en compte les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA: Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique denvergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le XXIème siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de létat actuel de lIA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter lallocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de prendre en compte les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA:
\begin{itemize} \begin{itemize}
\item la difficulté de créer du matériel sûr et fiable dans le transport et les robots de service, \item la difficulté de créer du matériel sûr et fiable dans le transport et les robots de service,
@ -178,11 +220,10 @@ Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septem
\end{quote} \end{quote}
En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les Gafa. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure. En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité des événements. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les GAFA. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet. Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet.
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes} dont ils publient un étude de cas concernant louverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec les industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les Gafa, ne font rien pour clarifier le contexte. Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes} dont ils publient un étude de cas concernant louverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec les industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les GAFA, ne font rien pour clarifier le contexte.
Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les limites du traitement de l'information consciente dans la cognition humaine. Cela donne suite é des modèles de plus en plus basés sur des solutions émergents plutôt que sur une conception centrale de \textit{conscience}. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets physiques et les entités sociales (comme par exemple l'internet). D'une manière analogique, une machine intelligence devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne: Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les limites du traitement de l'information consciente dans la cognition humaine. Cela donne suite é des modèles de plus en plus basés sur des solutions émergents plutôt que sur une conception centrale de \textit{conscience}. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets physiques et les entités sociales (comme par exemple l'internet). D'une manière analogique, une machine intelligence devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne:
\begin{quote} \begin{quote}
@ -190,7 +231,7 @@ Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son
\cite{littman2022gathering} \cite{littman2022gathering}
\end{quote} \end{quote}
La critique du récit de la \gls{Singularité} a été soulevée sous divers angles. Les partisans du transhumanisme comme Kurzweil et Bostrom voient l'intelligence comme une propriété unidimensionnelle, modélisable par des équations mathématiques et atteignable avec des super-ordinateurs. Alors que d'un point de vue philosophique, la singularité peut correspondre à un mythe\cite{ganascia2017mythe} moderne. Dans l'historie de la religion, les mythes des peuples de la préhistoire sont différentes de celles de notre époque, étant fondés sur des présupposés ontologiques différentes. Selon Mircea Eliade, ces croyances et coutumes archaïques reposent sur une distinction claire entre le sacré et le profane\cite{eliade1949mythe}. Aujourd'hui cette séparation n'est plus d'actualité. De plus en plus des philosophes et sociologues notent la porosité des notions qui décrivent et identifient nos expériences phénoménologiques\cite{bauman2006vie, virilio2000ctheory}. Dans les media, quand elle n'est pas critiquée l'expérience spirituelle est banalisée au point dêtre dépourvue de son essence sacré. Ce type de \textit{pseudo-sacre} devient accessible au travers la technologie, au moins pour les défenseurs de la these transhumaniste. Dans son livre \textit{Leurre et malheur du transhumanisme} (2018), Olivier Rey analyse un type de propagande propre à lidéologie transhumaniste, issue d'une forme d'innovation dite \textit{disruptive}\cite{rey2018leurre} ou qui introduit une rupture par rapport à ce qui précède dans la société. Ainsi, les argumentes en faveur du transhumanisme mettent en avant des promesses mirifiques quant à l'avenir, pour ensuite réconcilier les sceptiques et conclure que le monde change en tout cas, avant d'admettre le caractère inéluctable de lexpérience. Entre utopie technologique et pressentiment dystopique, le transhumanisme et la \gls{Singularité}suscitent beaucoup de passions. La critique du récit de la \gls{Singularité} a été soulevée sous divers angles. Les partisans du transhumanisme comme Kurzweil et Bostrom voient l'intelligence comme une propriété unidimensionnelle, modélisable par des équations mathématiques et atteignable avec des super-ordinateurs. Alors que d'un point de vue philosophique, la singularité peut correspondre à un mythe\cite{ganascia2017mythe} moderne. Dans l'historie de la religion, les mythes des peuples de la préhistoire sont différentes de celles de notre époque, étant fondés sur des présupposés ontologiques différentes. Selon Mircea Eliade, ces croyances et coutumes archaïques reposent sur une distinction claire entre le sacré et le profane\cite{eliade1949mythe}. Aujourd'hui cette séparation n'est plus d'actualité. De plus en plus des philosophes et sociologues notent la porosité des notions qui décrivent et identifient nos expériences phénoménologiques\cite{bauman2006vie, virilio2000ctheory}. Dans les media, quand elle n'est pas critiquée l'expérience spirituelle est banalisée au point dêtre dépourvue de son essence sacré. Ce type de \textit{pseudo-sacre} devient accessible au travers la technologie, au moins pour les défenseurs de la these transhumaniste. Dans son livre \textit{Leurre et malheur du transhumanisme} (2018), Olivier Rey analyse un type de propagande propre à lidéologie transhumaniste, issue d'une forme d'innovation dite \textit{disruptive}\cite{rey2018leurre} ou qui introduit une rupture par rapport à ce qui précède dans la société. Ainsi, les argumentes en faveur du transhumanisme mettent en avant des promesses mirifiques quant à l'avenir, pour ensuite réconcilier les sceptiques et conclure que le monde change en tout cas, avant d'admettre le caractère inéluctable de lexpérience.
En contrepoids le phenomene de \textit{déterminisme technologique} voit le changement technique comme un facteur indépendant de la société. Selon cette these la société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science, alors que la technique influence la société. André Leroi-Gourhan est l'un des grands représentants du courant déterministe et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que \textit{le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon}.\cite{leroi1971evolution}. En contrepoids le phenomene de \textit{déterminisme technologique} voit le changement technique comme un facteur indépendant de la société. Selon cette these la société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science, alors que la technique influence la société. André Leroi-Gourhan est l'un des grands représentants du courant déterministe et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que \textit{le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon}.\cite{leroi1971evolution}.
Si les découvertes et applications de l'IA et de la robotique sont inscrites dans une course effrénée de l'innovation, nous pouvons observer clairement le rythme exponentiel de ces découvertes. D'ailleurs le terme \gls{dromologie} du philosophe français Paul Virilio souligne la manière dont la vitesse à laquelle quelque chose se produit peut changer la nature même d'une expérience. Il lie le progrès à la notion de progression (comme déplacement des personnes et des produits dans lespace et le temps) et à la vitesse de cette progression, pour expliquer sa these basé sur l'accident et la catastrophe. Si l'invention de l'avion a suivi de prêt celle du crash, Virilio se demande quelles seront les conséquences du progrès technologique de notre décennie. Si les découvertes et applications de l'IA et de la robotique sont inscrites dans une course effrénée de l'innovation, nous pouvons observer clairement le rythme exponentiel de ces découvertes. D'ailleurs le terme \gls{dromologie} du philosophe français Paul Virilio souligne la manière dont la vitesse à laquelle quelque chose se produit peut changer la nature même d'une expérience. Il lie le progrès à la notion de progression (comme déplacement des personnes et des produits dans lespace et le temps) et à la vitesse de cette progression, pour expliquer sa these basé sur l'accident et la catastrophe. Si l'invention de l'avion a suivi de prêt celle du crash, Virilio se demande quelles seront les conséquences du progrès technologique de notre décennie.
@ -220,42 +261,11 @@ Une alternative à la rhétorique du transhumanisme et de la \gls{Singularité}
Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. Machines are amoral, and it is dangerous to assume otherwise.” }.” Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{``A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. Machines are amoral, and it is dangerous to assume otherwise.” }.”
\cite{barrat2023our} \cite{barrat2023our}
\end{quote} \end{quote}
Sur son blog, Rodney Brooks s'est également engagé à faire des prédictions sur les avancées technologiques d'ici 2050, lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}. Pour légitimer sa démarche, Brooks r``eprends ses prédictions antérieures qu'il met à jour une fois le temps écroulé. Par exemple il note comment ses analyses du janvier 2018 concernant les voitures autonomes, la robotique, l'IA et l'apprentissage automatique, puis les voyages spatiaux humains, sont conforme aux intervalles de temps qu'il a annoncé.
Selon ses observations, un robot ne pourra être aussi intelligent, attentif et fidèle qu'un chien avant 2048. Tandis qu'un robot \textit{qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains} ne pourra pas être développé de son vivant.
Si \cite{ganascia2017mythe} note que les craintes de l'IA reviennent sans cesse depuis plus de 60 années, Jean-Gabriel Ganascia propose un état des lieux de différents chercheurs qui se sont pris à la question, sans y pouvoir y trancher. Il évoque Stephen Hawking, célèbre physicien et cosmologiste britannique, qui lance un cri dalarme contre les technologies susceptibles de devenir incontrôlables en 2014 . Puis à l'opposé, Kevin Warwick et son \textit{Project Cybrog} commencé en 1998, où il connecte son système nerveux (et plus tard celui de son épouse) à des pouces pour augmenter ses capacités physiques et ses moyens de communication\cite{warwick2004thought}.
Un autre exemple pertinent cité par Ganascia est l'article intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000) de l'informaticien Bill Joy, cofondateur de la société Sun-Microsystems\footnote{https://en.wikipedia.org/wiki/Sun\_Microsystems} :
\begin{quote}
``À ce jour, quelle est au juste la gravité du danger qui pèse sur nous? (...)Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}.(...)Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à
l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir(...); mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.”
\cite{joy2001pourquoi}
\end{quote}
Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui naurait plus besoin des humains. Ganascia évoque à son tour la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée début 2015 par une poignée des spécialistes dintelligence artificielle inquiets des conséquences du développement de leur discipline.
Entre autre, Ganascia attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant à son tour des propos de John von Neumann concernant ses équations mathématiques. Il évoque également Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Ainsi les chercheurs de Asimov posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac.
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour Ganascia cette doctrine imprégnée par les stratégies de profit des multinationales de linformatique repose en réalité sur une extrapolation peu étayée de la loi de Moore, mélangé avec un récit eschatologique bien éloigné la rigueur scientifique.
Quant à la question de léthique des machines, il cite \cite{anderson2007machine} dont les observations sont partagés dés 2006.
Une contribution intéressante dans ce sens est celle de\cite{nath2020problem} qui discrimine léthique des machines en trois catégories: le comportement des machines envers les utilisateurs humains, le comportement des machines envers dautres machines, ainsi quà léthique de ces interactions combinés. Le fondements de cette éthique reposerait selon les auteurs sur des décisions et des actions volontaires. Ainsi la notion desprit est au cœur de leur pensée éthique, puisque lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.
Un autre étude plus récent envisage une nouvelle branche de l'AI, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée:
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/AIforhumanity}
\caption{Source: \cite{ma2024ai}}
\label{fig:aiforhumanity}
\end{figure}
L'éthique des machines trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont les technologies modifient notre conception de l'humain et de la société. \cite{hunyadi2019artificial} cite son travail pour appuyer lhypothèse que le terme dagent moral artificiel est philosophiquement illégitime. Afin déviter toute spéculation ou didéologie en lien avec l'éthique des machines, son auteur cherche à fournir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains.
Si à la fin des années 80, la recherche sur lIA a connu une croissance remarquable, quarante ans après, de nombreux travaux cherchent à définir les valeurs qui devraient guider une éthique dans ce domaine. En absence d'un discours normatif, les chercheurs, les industriels et les décideurs politiques cherchent des moyens pour identifier les points de convergence afin de décider limplémentation future de ces stratégies.
\cite{correa2023worldwide} propose une synthèse autour de la gouvernance de lIA. Avant de fournir leurs résultats, les auteurs précisent le contexte de leur analyse en citant une travail préalable publié en 2019 qui a le mérite d'avoir identifié les principes éthiques les plus récurrents dans 84 documents évalués : la transparence (86 \%), la justice (81 \%), la non-malfaisance (71 \%), la responsabilité (71 \%) et la confidentialité (56 \%). Une autre synthèse issue d'un échantillon plus réduit de documents et apparue un an plus tard (2020) présente des résultats similaires, citant la responsabilité (77 \%), la confidentialité (77 \%), la justice (77 \%) et la transparence (68 \%) comme les éléments clé pour une éthique de l'IA. Cet dernier étude mentionne également la sous-représentation des institutions en Amérique du Sud, en Afrique et au Moyen-Orient dans l'analyse ainsi que des potentiels manquements comme: Si à la fin des années 80, la recherche sur lIA a connu une croissance remarquable, quarante ans après, de nombreux travaux cherchent à définir les valeurs qui devraient guider une éthique dans ce domaine. En absence d'un discours normatif, les chercheurs, les industriels et les décideurs politiques cherchent des moyens pour identifier les points de convergence afin de décider limplémentation future de ces stratégies. Une contribution intéressante dans ce sens est aussi celle de\cite{nath2020problem} qui discrimine léthique des machines en trois catégories: le comportement des machines envers les utilisateurs humains, le comportement des machines envers dautres machines, ainsi quà léthique de ces interactions combinés. Le fondements de cette éthique reposerait selon les auteurs sur des décisions et des actions volontaires. Ainsi la notion desprit est au cœur de leur pensée éthique, puisque lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.
Couramment la société oscille entre une résistance à la création de nouveautés éthiques et une pluralité d'éthiques issue des points de vue humanistes et/ou non-academiques. Le débat semble polarisé entre techno-enthousiasme et technophobe. Réalistes face à cette contrainte, \cite{correa2023worldwide} propose une synthèse autour de la gouvernance de lIA. Avant de fournir leurs résultats, les auteurs précisent le contexte de leur analyse en citant une travail préalable publié en 2019 qui a le mérite d'avoir identifié les principes éthiques les plus récurrents dans 84 documents évalués : la transparence (86 \%), la justice (81 \%), la non-malfaisance (71 \%), la responsabilité (71 \%) et la confidentialité (56 \%). Une autre synthèse issue d'un échantillon plus réduit de documents et apparue un an plus tard (2020) présente des résultats similaires, citant la responsabilité (77 \%), la confidentialité (77 \%), la justice (77 \%) et la transparence (68 \%) comme les éléments clé pour une éthique de l'IA. Cet dernier étude mentionne également la sous-représentation des institutions en Amérique du Sud, en Afrique et au Moyen-Orient dans l'analyse ainsi que des potentiels manquements comme:
\begin{itemize} \begin{itemize}
\item Le manque d'attention accordé aux questions relatives aux droits du travail, au chômage technologique, à la militarisation de l'IA, à la diffusion de la désinformation et à l'utilisation abusive de la technologie IA. \item Le manque d'attention accordé aux questions relatives aux droits du travail, au chômage technologique, à la militarisation de l'IA, à la diffusion de la désinformation et à l'utilisation abusive de la technologie IA.
\item Le manque de diversité de genre dans l'industrie technologique et l'éthique de l'IA. \item Le manque de diversité de genre dans l'industrie technologique et l'éthique de l'IA.
@ -273,88 +283,20 @@ Pour palier ces omissions, les auteurs proposent en 2023 un panel de 200 documen
La version intégrale de leur analyse est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}. La version intégrale de leur analyse est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}.
Les caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie privilégie une approche interdisciplinaire. \cite{anderson2022future} réfléchit à cette question de l'interdisciplinarité, compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques comme la robotique. En l'absence dun corpus interdisciplinaire de connaissances, linnovation et la transformation générées par les robots
au niveau sociétal est issue des observations issues directement des laboratoires. Ainsi, l'ensemble des connaissances disponibles sur les robots ont tendance à se concentrer sur les aspects techniques. Les caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie privilégie une approche interdisciplinaire. \cite{anderson2022future} réfléchit à cette question de l'interdisciplinarité, compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques comme la robotique. Concernant le rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en laboratoire, les chercheurs en robotique sont sensibles aux implications éthiques de leurs travaux. Dautre part, les chercheurs issus de disciplines traditionnellement préoccupé par les questions éthiques, comme la philosophie et d'autres sciences humaines, sont peu habitués de travailler dans un cadre pratique. Tandis que les deux remarquent des malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et besoin de mystification de ces thématiques issue de la culture média.
Un autre étude plus récent envisage une nouvelle branche de l'AI, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée:
Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones (type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire). Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer cette hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. \begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/AIforhumanity}
\caption{Source: \cite{ma2024ai}}
\label{fig:aiforhumanity}
\end{figure}
En 2014 un ordinateur passe le fameux test Touring, lorsquun chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}. Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones (type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire). Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer cette hypothèse\footnote{https://consciousnesscenter.arizona.edu/}. Le philosophe américain Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}). Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde, qui lui permet d'interagir avec les choses, est essentielle pour faire lexpérience de la conscience.
Le philosophe américain Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}). Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde qui lui permet d'interagir avec les choses est essentielle pour faire lexpérience de la conscience.
Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup dintérêt de point de vue éthique. Les mécanismes de coordination passent par un processus dynamique dinteractions pour déterminer comment ces agents identifiés par Dumouchel et Damiano comme des \textit{substituts} sont disposés à légard de leurs partenaires humains et l'inverse. Lélément clé de cette interaction sont les émotions. Moments saillants de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation de ces artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit léthologie artificielle vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que lon trouve chez les animaux résoudra également le problème des émotions, puisque nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs par rapport à nos besoins.
Tandis que certains types de propriétés mentales peuvent être modélisables en informatique, d'autres sont seulement issues des organismes biologiques. Pour le philosophe Steve Torrence, les agents artificiels devront émuler certaines propriétés clés des organismes biologiques. Par exemple les formes d'auto-organisation et d'auto-entretien autonomes propres au vivat disposent de la sensibilité et d'une certain fonctionnement téléologique, ce que Torrence identifié chez les humains comme \textit{conscience de soi}:
\begin{quote}
``La notion de sensibilité doit être distinguée de celle de la conscience de soi : de nombreux êtres qui possèdent la première peuvent ne pas posséder la seconde. On peut soutenir que de nombreux mammifères possèdent la sensibilité, ou la conscience phénoménale — ils sont capables de ressentir la douleur, la peur, le plaisir sensuel, etc. Néanmoins, il est généralement admis que ces mammifères ne possèdent pas couramment la capacité d'articuler ou d'être conscients, d'une manière de second ordre, de ces états sensibles, et manquent donc de conscience de soi\footnote{``The notion of sentience should be distinguished from that of self-consciousness: many beings, which possess the former may not possess the latter. Arguably, many mammals possess sentience, or phenomenal consciousness—they are capable of feeling pain, fear, sensuous pleasure and so on. Nevertheless it is usually taken that such mammals do not standardly possess the ability to articulate or be aware, in a higher-order way, of such sentient states, and so lack self-consciousness.”}.”
\cite{torrance2008ethics}
\end{quote}
Pour les humains, les fondements d'une décision morale résident dans la conscience. Les chercheurs se demandent si les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées nécessitent une conscience artificielle\cite{wallach2020consciousness}. Selon leur avis, la recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience artificielle se sont développées en tant que domaines indépendants. Pourtant, les deux domaines sont susceptibles de converger avec l'instanciation de systèmes dotés d'\gls{intelligence artificielle générale}. Certainement des attributs de la conscience comme la capacité d'émpathiser avec la souffrance des autres et sa nature lorsqu'elle est propre aux non-humains reste une question ouverte. Le travail des auteurs de cet article avec l'application de LIDA- un modèle computationnel et conceptuel de la cognition humaine- est une première approche du rôle de la conscience dans les décisions morales.
\cite{dodig2012robots}
est que la moralité artificielle doit venir par degrés et dépendre du niveau daction, dautonomie et dintelligence de la machine.
Des systèmes tels que les robots cognitifs sont en cours de développement et devraient faire partie de notre vie quotidienne dans les décennies à venir. Il faut donc sassurer que leur comportement est adéquat. Par analogie avec l'intelligence artificielle, qui est la capacité d'une machine à effectuer des activités qui nécessiteraient de l'intelligence chez les humains, la moralité artificielle est considérée comme la capacité d'une machine à effectuer des activités qui nécessiteraient de la moralité chez les humains. La capacité de moralité artificielle (artificielle), telle que laction artificielle, la responsabilité artificielle, les intentions artificielles, les émotions artificielles (synthétiques), etc., se manifeste à des degrés divers et dépend du type dagent.
surveillance biquiteuse, (2) ingénierie sociale, (3) robots militaires, (4) robots sexuels et (5) transhumanisme. À lexception partielle du transhumanisme, tous ces domaines dinteraction entre lIA et les services robotiques présentent déjà des problèmes éthiques dans la pratique. Mais ces cinq domaines soulèveront des préoccupations supplémentaires à lavenir à mesure que ces technologies se développeront. Ces problèmes ont de graves conséquences et il est impératif de les étudier et de les résoudre dès maintenant.
Les enjeux éthiques de lIA dans la surveillance vont au-delà de la simple accumulation de données et de lorientation de lattention : ils incluent lutilisation dinformations pour manipuler les comportements, en ligne et hors ligne, dune manière qui sape les choix rationnels autonomes. Bien sûr, les efforts visant à manipuler les comportements sont anciens, mais ils peuvent acquérir une nouvelle dimension lorsquils utilisent des systèmes dIA.
\cite{zawieska2020disengagement}
Au cours des deux dernières décennies, les défis éthiques liés aux technologies robotiques ont suscité un intérêt croissant parmi différentes communautés de recherche et non universitaires, en particulier dans le domaine de la robotique. Même si les raisons daborder la robotéthique sont claires, il faut mieux comprendre pourquoi ne pas sengager dans la question de léthique. Cet article se concentre sur un engagement limité ou absent envers l'éthique qui a lieu au sein de certaines parties de la communauté robotique et ses implications pour la conceptualisation de l'être humain. Lhypothèse sous-jacente est que le terme éthique signifie essentiellement humain. Ainsi, cet article discute une hypothèse de travail selon laquelle, en évitant de sengager dans la robotique, les roboticiens contribuent au processus tacite de déshumanisation émergeant dans et en dehors de la robotique. Une approche alternative inclut léthique vécue , qui implique non seulement dincorporer des approches éthiques formelles dans le travail des roboticiens, mais également d être éthique et de sengager réellement dans une réflexion et une pratique éthiques.
\cite{fleres2023integrative}
La racine du débat éthique sur la robotique trouve son origine dans le premier symposium international de robotique, organisé à Sanremo par le roboticien Gianmarco Veruggio en 2004.
En 2006, la première feuille de route de la robotique a été publiée.
Ce document a rassemblé toutes les réalisations atteintes au sein du Projet Atelier de Roboéthique fondé par EURON, parmi lesquels : (a) une définition de la robot-éthique qui melaccent sur mesure la différence entre l'éthique des robots, à savoir une branche déthique se concentrant sur les robots en tant quagents éthiques et les robots l'éthique, c'est-à-dire une branche de l'éthique axée sur les humains en tant que
agents construisant et utilisant des robots ; (b) la transdisciplinarité nature de la robot-éthique et une liste de toutes les disciplines impliquées. lignes; (c) un ensemble de principes éthiques pertinents pour la robotique,
basé sur des principes éthiques issus de la bioéthique et des principes fondamentaux droits humains; (d) lindividuation des principaux enjeux éthiques. cernes liés aux différents domaines de la robotique. En 2014, un
Une nouvelle étape dans le développement de la robotéthique a été marquée par les lignes directrices sur la régulation de la robotique
Cet article propose une approche intégrative de la recherche en robotique, basée sur l'introduction de l'interdisciplinarité en laboratoire. Une telle approche permettra aux chercheurs de divers domaines dacquérir une compréhension plus nuancée de la technologie, de la manière dont elle est développée et de ses impacts potentiels. Nous décrivons comment un philosophe a passé du temps dans des laboratoires de robotique de différents pays européens au sein d'une équipe interdisciplinaire, obtenant ainsi un aperçu de leurs travaux et de leurs perspectives, notamment de la façon dont les chercheurs en robotique perçoivent les questions éthiques liées à la recherche en robotique. En nous concentrant sur les questions soulevées par la motion du Parlement européen sur la robotique, nous avons développé un séminaire et un questionnaire qui ont étudié les questions d'éthique, de personnalité électronique et le rôle de la politique dans l'éthique de la recherche. Nos résultats soulignent que même si les chercheurs en robotique se soucient des implications éthiques de leurs travaux et soutiennent les politiques qui répondent aux préoccupations éthiques, ils estiment qu'il existe d'importants malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et de confiance. dans, le rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en robotique. Nous proposons qu'une approche intégrative puisse dissiper ces malentendus en démystifiant la manière dont les connaissances sont créées dans différents domaines.
scénario appelle à lintervention dune enquête éthique
assurer la durabilité sociale de la robotique . Additionner
Au niveau national, il stimule la recherche éthique sur les robots pour s'engager dans un processus de réflexion visant à dépasser les limites et lacunes qui caractérisent ses expressions actuelles. Basé sur pré-
explorations précédentes, les principales insuffisances affecter lenquête éthique contemporaine sur les robots peut être
schématiquement répertoriés comme suit manque dintégration disciplinaire efficace. Sur celui
dautre part, des chercheurs issus de disciplines traditionnellement
préoccupé par les questions éthiques, de la philosophie et d'autres
des sciences humaines aux disciplines des sciences sociales, ne sont pas nécessairement
manquent souvent dexpertise en matière déthique.
Absence dun corpus interdisciplinaire de connaissances sur
linnovation et la transformation générées par les robots
au niveau sociétal. Actuellement, l'ensemble des connaissances
disponibles sur les robots ont tendance à se concentrer sur les aspects techniques.
Explorations des processus de production, intégration et limpact social des robots qui considèrent leur
dimensions multiples (par exemple, anthropologique, psychologique)
cal, socioculturel, politique, ontologique, épistémologique
dimensions), ainsi que leurs interconnexions, sont encore en
leurs premiers balbutiements et il n'existe pas encore d'approche convenue pour
mener une enquête éthique.
Déterminisme technologique .
souvent, le débat éthique tend à considérer notre société
contextes en tant quobjets passifs dactions transformatrices exercées
cisé par les robots, et ne détecte pas la dynamique des
détermination mutuelle entre société et robotique dans
auquel sinscrit le développement des robots
Une résistance à la création de nouveautés éthiques.
Il existe une tendance diffuse à résoudre les problèmes émergents
de robot-éthique, certainement nouvelle, avec des principes éthiques préexistants
approches, développées pour aborder des questions ethniques complètement différentes.
questions iques. Le recours intensif à des principes éthiques en est un bon exemple.
cadres développés dans le domaine de la bioéthique pour aborder
questions éthiques liées à la robotique.
La stagnation du débat éthique, qui apparaît souvent
polarisée dans lalternative stérile entre techno-enthousiasme et technophobie utopie technologique
anisme et pressentiment dystopique
Une fois que nous avons compris une technologie dans son contexte, nous devons façonner notre réponse sociétale, y compris la réglementation et la loi.
La trace de données que nous laissons derrière nous est la façon dont nos services gratuits sont payés mais nous ne sommes pas informés de cette collecte de données et de la valeur de cette nouvelle matière première, et nous sommes manipulés pour laisser toujours plus de données de ce type. Pour les big 5(Amazon, Google/Alphabet, Microsoft, Apple, Facebook), la principale partie de leur activité de collecte de données semble reposer sur la tromperie, lexploitation des faiblesses humaines, lencouragement de la procrastination, la génération de dépendances et la manipulation
Dans cette économie de la surveillance, lobjectif principal des médias sociaux, des jeux vidéo et de la majeure partie dInternet est dattirer, de maintenir et de diriger lattention et donc la fourniture de données. \textit{La surveillance est le modèle économique d'Internet} (Schneier 2015). Cette économie de surveillance et dattention est parfois appelée {capitalisme de surveillance} (Zuboff 2019). Cela a donné lieu à de nombreuses tentatives pour échapper à lemprise de ces entreprises, par exemple dans des exercices de minimalisme (Newport 2019), parfois à travers le mouvement open source, mais il semble que les citoyens daujourdhui ont perdu le degré dautonomie nécessaire pour s'évader tout en poursuivant pleinement leur vie et leur travail. Nous avons perdu la propriété de nos données, si propriété est ici le bon rapport. Nous avons sans doute perdu le contrôle de nos données.
\section*{Conclusion chapitre 1} \section*{Conclusion chapitre 1}

View File

@ -386,6 +386,12 @@ enablef={true},
description={Le terme \textit{workspace}, en français l'\textit{espace opérationnel}, représente l'espace physique dans lequel le robot évolue.}, description={Le terme \textit{workspace}, en français l'\textit{espace opérationnel}, représente l'espace physique dans lequel le robot évolue.},
enablef={true}, enablef={true},
} }
\newglossaryentry{Global Workspace Theory}{
name={\textit{Global Workspace Theory}},
description={ \textit{Global Workspace Theory (GWT)}, en français la \textit{Théorie de l'Espace Global}, est une théorie développée par Bernard Baars en 1988 qui propose un modèle pour comprendre la conscience et son rôle dans le traitement cognitif humain. La GWT propose que la conscience fonctionne comme un \textit{espace de travail global} dans lequel diverses informations provenant de différentes parties du cerveau sont intégrées et diffusées pour être accessibles par des processus cognitifs supérieurs, tels que la prise de décision, la résolution de problèmes et la planification.},
enablef={true},
}
\newglossaryentry{readiness potential}{ \newglossaryentry{readiness potential}{
name={\textit{the readiness potential}}, name={\textit{the readiness potential}},
description={Le terme de \textit{the readiness potential}, en français \textit{potentiel de préparation}, représente une petite accumulation de potentiel électrique enregistré au niveau du cuir chevelu par électroencéphalographie, associé à l'activité neuronale impliquée dans la préparation au mouvement. Ce concept a été promu par le neuroscientifique Benjamin Libet qui a utilisé le décalage temporel entre le temps auto-déclaré dintention consciente et lexécution d'un mouvement, pour affirmer que nous manquons de libre arbitre.}, description={Le terme de \textit{the readiness potential}, en français \textit{potentiel de préparation}, représente une petite accumulation de potentiel électrique enregistré au niveau du cuir chevelu par électroencéphalographie, associé à l'activité neuronale impliquée dans la préparation au mouvement. Ce concept a été promu par le neuroscientifique Benjamin Libet qui a utilisé le décalage temporel entre le temps auto-déclaré dintention consciente et lexécution d'un mouvement, pour affirmer que nous manquons de libre arbitre.},