design interdisciplinarity and roboethics

This commit is contained in:
silviaC 2024-06-18 20:05:22 +02:00
parent 229468e8f8
commit 089ce364eb
2 changed files with 204 additions and 14 deletions

View File

@ -1,3 +1,81 @@
@article{fleres2023integrative,
title={Integrative Robo-Ethics: Uncovering Roboticists Attitudes to Ethics and Moving Forward},
author={Fleres, Antonio and Veling, Louise and Broz, Frank and Damiano, Luisa},
journal={International Journal of Social Robotics},
volume={15},
number={12},
pages={2019-2037},
year={2023},
publisher={Springer}
}
@article{zawieska2020disengagement,
title={Disengagement with ethics in robotics as a tacit form of dehumanisation},
author={Zawieska, Karolina},
journal={AI \& SOCIETY},
volume={35},
number={4},
pages={869-883},
year={2020},
publisher={Springer}
}
@article{dodig2012robots,
title={Robots: ethical by design},
author={Dodig Crnkovic, Gordana and {\c{C}}{\"u}r{\"u}kl{\"u}, Baran},
journal={Ethics and Information Technology},
volume={14},
pages={61-71},
year={2012},
publisher={Springer}
}
@incollection{wallach2020consciousness,
title={Consciousness and ethics: artificially conscious moral agents},
author={Wallach, Wendell and Allen, Colin and Franklin, Stan},
booktitle={Machine Ethics and Robot Ethics},
pages={299-314},
year={2020},
publisher={Routledge}
}
@article{torrance2008ethics,
title={Ethics and consciousness in artificial agents},
author={Torrance, Steve},
journal={Ai \& Society},
volume={22},
pages={495-521},
year={2008},
publisher={Springer}
}
@book{dumouchel2016vivre,
title={Vivre avec les robots. Essai sur l'empathie artificielle: Essai sur l'empathie artificielle},
author={Dumouchel, Paul and Damiano, Luisa},
year={2016},
publisher={M{\'e}dia Diffusion}
}
@article{joy2001pourquoi,
title={Pourquoi le futur n'a pas besoin de nous},
author={Joy, Bill},
journal={Revue des Deux Mondes},
pages={92-99},
year={2001},
publisher={JSTOR}
}
@article{brooks2001relationship,
title={The relationship between matter and life},
author={Brooks, Rodney},
journal={Nature},
volume={409},
number={6818},
pages={409-411},
year={2001},
publisher={Nature Publishing Group UK London}
}
@inproceedings{anderson2022future,
title={Is the Future of AI Ethics Interdisciplinary?},
author={Anderson, Marc M},
@ -50,23 +128,23 @@
year={2024},
publisher={John Wiley \& Sons}
}
@book{leroi1971evolution,
title={Evolution et techniques},
author={Leroi-Gourhan, Andr{\'e}},
volume={1},
year={1971},
publisher={A. Michel}
}
@book{ganascia2017mythe,
title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?},
title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?},
author={Ganascia, Jean-Gabriel},
year={2017},
publisher={M{\'e}dia Diffusion}
}
@book{barrat2023our,
@book{bar
@book{leroi1971evolution,
title={Evolution et techniques},
author={Leroi-Gourhan, Andr{\'e}},
volume={1},
year={1971},
publisher={A. Michel}
}
@book{ganascia2017mythe,
rat2023our,
title={Our final invention: Artificial intelligence and the end of the human era},
author={Barrat, James},
year={2023},

View File

@ -284,10 +284,23 @@ Bien entendu, certaines contraintes assez fondamentales de léthique des affa
débats philosophiques où lautonomie est le fondement de la responsabilité et de la personnalité. Dans ce contexte, la responsabilité implique l'autonomie, mais pas l'inverse, de sorte qu'il peut y avoir des systèmes qui disposent de degrés d'autonomie technique sans soulever de questions de responsabilité.
L'idée de singularité est que si la trajectoire de l'intelligence artificielle atteint des systèmes ayant un niveau d'intelligence humain, alors ces systèmes auraient eux-mêmes la capacité de développer des systèmes d'IA surpassant le niveau d'intelligence humain, c'est-à-dire qu'ils seraient superintelligents. De tels systèmes d'IA superintelligents s'amélioreraient rapidement eux-mêmes ou développeraient des systèmes encore plus intelligents. Ce tournant radical des événements après avoir atteint l'IA superintelligente est la singularité à partir de laquelle le développement de l'IA échappe au contrôle humain et devient difficile à prédire
Kurzweil souligne essentiellement que la puissance de calcul augmente de manière exponentielle, c'est-à-dire qu'elle double environ tous les 2 ans depuis 1970 conformément à la loi de Moore sur le nombre de transistors, et qu'elle continuera à le faire pendant un certain temps. Il a prédit dans (Kurzweil 1999) qu'en 2010, les superordinateurs atteindraient la capacité de calcul humaine, qu'en 2030, le téléchargement de l'esprit serait possible et qu'en 2045, la singularité se produirait.
Kurzweil est un enfant surdoué, Il est chercheur principal et visionnaire de l'IA chez Google, où il étudie les implications à long terme de la technologie et de la société.
souligne essentiellement que la puissance de calcul augmente de manière exponentielle, c'est-à-dire qu'elle double environ tous les 2 ans depuis 1970 conformément à la loi de Moore sur le nombre de transistors, et qu'elle continuera à le faire pendant un certain temps. Il a prédit dans (Kurzweil 1999) qu'en 2010, les superordinateurs atteindraient la capacité de calcul humaine, qu'en 2030, le téléchargement de l'esprit serait possible et qu'en 2045, la singularité se produirait.
\cite{kurzweil2005singularity}
Deux études on été faites dans le cadre du projet \textit{One Hundred Year Study on Artificial Intelligence} de l'Université de Stanford.
Livre structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry} Emportez-en avec vous. Apportez des sachets de stévia lorsque vous mangez à l'extérieur.
Vous pouvez préparer une vinaigrette à faible teneur en glucides et en matières grasses en combinant la stévia avec du jus de citron et/ou du vinaigre balsamique.
*Mangez des légumes pauvres en amidon à volonté. Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles. Le guide est disponible online\footnote{https://fantastic-voyage.net/ShortGuide.htm}
Une suite à son bestseller de 2005\cite{kurzweil2005singularity} est prévue apparaitre en été 2024\footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}
La suite se concentrant sur les avancés et biotechnologies nanotechnologies dues à l'IA, dans une perspective pragmatique et sans aucune considération éthique.
Son expérience personnelle avec le diabète l'a amené à sinvestir dans des recherches sur le metabolisme et le corps
Le premier, en 2016
Pour le grand public,
il vise à fournir une représentation accessible, scientifiquement et technologiquement précise
@ -403,7 +416,7 @@ research has raised concerns about the impact of
Cette mixité accrue entre la recherche académique et industrielle a suscité des préoccupations concernant l'impact de
En septembre 2016, le projet "One Hundred Year Study on Artificial Intelligence" (AI100) de Stanford a publié le premier rapport de son évaluation périodique à long terme de l'intelligence artificielle (IA) et de son impact sur la société. Il a été rédigé par un panel de 17 auteurs, chacun étant profondément enraciné dans la recherche en IA, présidé par Peter Stone de l'Université du Texas à Austin. Le rapport, intitulé "Artificial Intelligence and Life in 2030", examine huit domaines des environnements urbains typiques sur lesquels l'IA est susceptible d'avoir un impact dans les années à venir : les transports, les robots domestiques et de service, les soins de santé, l'éducation, la sécurité publique, les communautés à faibles ressources, l'emploi et le lieu de travail, ainsi que le divertissement. Il vise à fournir au grand public une représentation scientifiquement et technologiquement précise de l'état actuel de l'IA et de son potentiel, à aider à orienter les décisions dans l'industrie et les gouvernements, ainsi qu'à informer la recherche et le développement dans ce domaine. La mission de ce rapport a été confiée au panel par le Comité Permanent de l'AI100, présidé par Barbara Grosz de l'Université Harvard.
En septembre 2016, le projet One Hundred Year Study on Artificial Intelligence (AI100) de Stanford a publié le premier rapport de son évaluation périodique à long terme de l'intelligence artificielle (IA) et de son impact sur la société. Il a été rédigé par un panel de 17 auteurs, chacun étant profondément enraciné dans la recherche en IA, présidé par Peter Stone de l'Université du Texas à Austin. Le rapport, intitulé Artificial Intelligence and Life in 2030, examine huit domaines des environnements urbains typiques sur lesquels l'IA est susceptible d'avoir un impact dans les années à venir : les transports, les robots domestiques et de service, les soins de santé, l'éducation, la sécurité publique, les communautés à faibles ressources, l'emploi et le lieu de travail, ainsi que le divertissement. Il vise à fournir au grand public une représentation scientifiquement et technologiquement précise de l'état actuel de l'IA et de son potentiel, à aider à orienter les décisions dans l'industrie et les gouvernements, ainsi qu'à informer la recherche et le développement dans ce domaine. La mission de ce rapport a été confiée au panel par le Comité Permanent de l'AI100, présidé par Barbara Grosz de l'Université Harvard.
La critique du récit de la singularité a été soulevée sous divers angles. Kurzweil et Bostrom semblent supposer que l'intelligence est une propriété unidimensionnelle et que l'ensemble des agents intelligents est totalement ordonné au sens mathématique, mais aucun des deux ne discute de l'intelligence en profondeur dans leurs livres. En général, il est juste de dire que, malgré quelques efforts, les hypothèses faites dans le puissant récit de la superintelligence et de la singularité n'ont pas été examinées en détail. Une question est de savoir si une telle singularité se produira jamais — elle peut être conceptuellement impossible, pratiquement impossible ou ne peut simplement pas se produire en raison d'événements contingents, y compris des personnes qui l'empêchent activement. Philosophiquement, la question intéressante est de savoir si la singularité n'est qu'un mythe Ganascia 2017, et non sur la trajectoire de la recherche en IA actuelle. C'est une hypothèse souvent faite par les praticiens (par exemple, Brooks 2017). Ils peuvent le faire parce qu'ils craignent les répercussions en termes de relations publiques, parce qu'ils surestiment les problèmes pratiques, ou parce qu'ils ont de bonnes raisons de penser que la superintelligence est un résultat improbable de la recherche actuelle en IA (Müller à paraître-a). Cette discussion soulève la question de savoir si la préoccupation concernant la singularité n'est qu'un récit sur une IA fictive basée sur les peurs humaines.
C'est la frontière entre la recherche universitaire et industrielle en IA
@ -492,6 +505,23 @@ Cest bien plus difficile que la plupart des gens ne limaginent : beaucoup
Un robot qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains. pas de son vivant
\cite{ganascia2017mythe}
Faut-il craindre lintelligence artificielle ? Grande question, et dabord parce quelle revient sans cesse, depuis les années 60 environ,
Cest dailleurs par un tableau de ces inquiétudes que Jean-Gabriel Ganascia ouvre son livre : cest par exemple, Stephen Hawking, le célèbre physicien et cosmologiste britannique, qui lance un cri dalarme en 2014 contre les technologies susceptibles de devenir incontrôlables, cest Kevin Warwick, cybernéticien qui se fait connaître du grand public en 1998 lorsquil exhibe à la presse la puce de silicium pour montrer que lon peut lintroduire sous la peau et transformer ainsi le corps en organisme cybernétique, ou cest encore le chercheur belge, Hugo de Garis, qui va jusquà imaginer une guerre mondiale et fratricide entre cosmits , détenteurs dune intelligence artificielle, et les terrans qui veulent conserver à tout prix lhomme à sa suprématie.
À laube du millénaire, Bill Joy, le cofondateur de la société Sun-Microsystem, prétendit sonner le tocsin en faisant paraître un article retentissant intitulé : \textit{Pourquoi le futur na pas besoin de nous ?} (2000)
\begin{quote}
À ce jour, quelle est au juste la gravité [du] danger qui pèse sur nous? [...] Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. [...] Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à
l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir [...] ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.
\cite{joy2001pourquoi}
\end{quote}
Avant et après lui, bien dautres qui, comme lui, contribuèrent à la conception des technologies de linformation et bâtirent lempire quelles ont aujourdhui sur le monde, font maintenant mine de tinter le glas funèbre pour éveiller nos consciences assoupies… Même si, de lun à lautre, la chanson et lair diffèrent quelque peu, le refrain demeure identique : nous courrons un grand risque avec le déploiement massif des technologies, car un précipice souvre devant nous. Ce qui ici, dans la formulation de Bill Joy, retient notre attention tient à la référence explicite à un futur qui naurait pas, voire plus, besoin de nous. Cette invocation du futur fait écho à dautres, par exemple au titre de louvrage de Moravec The Future of Robot and Human Intelligence ou aux noms de deux instituts de prospective très engagés, lInstitut du futur de la vie8, qui fit paraître en janvier 2015 une lettre ouverte signée des spécialistes dintelligence artificielle inquiets des conséquences du développement de leur discipline, et lInstitut sur le futur de lhumanité dOxford7 dont le seul intitulé suffit à indiquer les orientations transhumanistes.
Le futur naurait ou naura plus besoin de nous ! Prise au pied de la lettre, et sans même en discuter la cause, laffirmation déroute : de quel futur parle-t-on …
Critique des proche deugénisme
Retrace l'apparition du terme de \textit{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant des propos de John von Neumann dans ses équations mathématiques.
puis Isaac Asimov qui dans son nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs
ais Jean-Gabriel Ganascia sattache à démontrer que :1) Le terme même dIA est abusivement utilisé par les promoteurs de la singularité et que les capacités des ordinateurs, aussi impressionnantes soient-elles, ne peuvent par principe leur conférer ces pouvoirs espérés ou redoutés.2) Loin dêtre neuve, la perspective de la singularité recycle de vieilles idéologies gnostiques et millénaristes, rénovées par un habillage technofuturiste, tout en étant sous-tendue par les stratégies de communication mercantiles des multinationales de linformatique.Voici un essai critique et concis sur ce thème à grand retentissement public par lun des meilleurs experts des humanités numériques.
les prophéties à propos de la Singularité reposent sur une extrapolation infondée de la loi de Moore, une épistémologie aporétique (à la fois matérialiste et dualiste dans ses prémisses) et, plus encore, sur un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique.
une perspective transhumaniste ou catastrophiste (non éclairée et dystopique), lesquelles versions se sont substituées au fil du temps au premier (concept
La quesion de l'ethique des machines a été abordé dés 2006\cite{anderson2007machine}
\cite{nath2020problem}
@ -516,6 +546,88 @@ Après lhiver de lIA à la fin des années 80, la recherche sur lIA a c
\cite{anderson2022future} réfléchit à la question de l'interdisciplinarité : si léthique de lIA devait devenir interdisciplinaire, le deviendra-t-elle compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques, et quelles tensions ou caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie, pourrait-elle empêcher l'interdisciplinarité ? Je me concentrerai principalement sur la relation interdisciplinaire potentielle entre le développement de lIA et léthique en tant que philosophie, mais je mégarerai également quelque peu dans dautres disciplines. Je conclurai en proposant quelques réflexions sur ce qu'il faut peut-être pour intégrer l'éthique dans l'engagement interdisciplinaire avec le développement technologique, par ex. le philosophe devra acquérir des connaissances techniques proportionnellement au développeur technologique qui apprendra des connaissances éthiques.
\cite{brooks2001relationship}
Appelons cela l'hypothèse du nouveau truc l'hypothèse selon laquelle il pourrait y avoir une sorte de truc supplémentaire dans les systèmes vivants qui échappe à notre compréhension scientifique actuelle. Roger Penrose, par exemple, a déjà émis l'hypothèse d'une forme faible de nouveau truc comme explication de la conscience. Il suggère que les effets quantiques dans les microtubules des cellules nerveuses pourraient être le lieu de la conscience au niveau de la cellule individuelle, qui se combine en fonctions d'onde plus grandes au niveau de l'organisme. Penrose n'a pas élaboré une théorie réelle de la manière dont cela pourrait fonctionner. Il a plutôt suggéré que cela pourrait être un élément critique qui devra être intégré dans une compréhension finale. C'est une forme faible de nouveau truc car elle ne repose sur rien en dehors du domaine de la physique actuelle. Pour certains, cela peut avoir un certain attrait en ce qu'il unifie une grande découverte en physique avec une grande question en biologie — la nature de la conscience. David Chalmers a hypothéqué une forme plus forte de nouveau truc comme explication alternative pour la conscience. Il suggère qu'un type fondamentalement nouveau, de l'ordre d'importance du spin ou du charme en physique des particules, pourrait être nécessaire pour expliquer la conscience. Ce serait une nouvelle sorte de propriété physique des choses dans l'Univers, soumise à des lois physiques que nous ne comprenons pas encore. D'autres philosophes, tant naturels que religieux, pourraient hypothéquer une entité plus ineffable comme une âme ou un élan vital — la force vitale. Une autre façon dont cette découverte inimaginable pourrait se produire est par le biais des nouvelles mathématiques. Cela ne nécessiterait pas la présence de nouvelles physiques dans les systèmes vivants.
Le Touring passé en 2014 par un chatbot qui se faisait passer par un garçon de 13 ans d'Ukraine. Hilary W. Putnam, lhypothèse du cerveau dans la cuve (1981). Supposons quun cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il na pas dexpérience sensorielle du monde et il na jamais interagi avec les choses. Pour celui qui na pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
\cite{dumouchel2016vivre} les enjeux de la robotique sociale, la question de l'autonomie et des manifestations affectives trompeuses des agents artificiels
la dynamique des échanges affectifs résultat de nos intentions d'action les émotions deviennent des moments saillants des mécanismes de coordination
processus dynamique dinteractions qui détermine comment ils sont disposés à légard de leurs partenaires humains et l'inverse
les substitues mystification qui abusent de notre naïveté
chapitre 5, statut d'animaux sauvages
\cite{torrance2008ethics}
les agents artificiels manquent de certaines propriétés clés des organismes biologiques,
Le point de vue organique soutient également que la sensibilité et la téléologie nécessitent des formes d'auto-organisation et d'auto-entretien autonomes fondées sur la biologie.
Une distinction forte doit être établie entre les propriétés cognitives et phénoménologiques de l'esprit. Il est avancé que la mentalité n'est peut-être pas un domaine composite : certains types de propriétés mentales peuvent être informatiques, tandis que d'autres peuvent nécessiter une base intrinsèquement biologique.
\begin{quote}
La notion de sensibilité doit être distinguée de celle de la conscience de soi : de nombreux êtres qui possèdent la première peuvent ne pas posséder la seconde. On peut soutenir que de nombreux mammifères possèdent la sensibilité, ou la conscience phénoménale — ils sont capables de ressentir la douleur, la peur, le plaisir sensuel, etc. Néanmoins, il est généralement admis que ces mammifères ne possèdent pas couramment la capacité d'articuler ou d'être conscients, d'une manière de second ordre, de ces états sensibles, et manquent donc de conscience de soi\footnote{The notion of sentience should be distinguished from that of self-consciousness: many beings, which possess the former may not possess the latter. Arguably, many mammals possess sentience, or phenomenal consciousness—they are capable of feeling pain, fear, sensuous pleasure and so on. Nevertheless it is usually taken that such mammals do not standardly possess the ability to articulate or be aware, in a higher-order way, of such sentient states, and so lack self-consciousness.}
\cite{torrance2008ethics}
\end{quote}
\cite{wallach2020consciousness}
Quels rôles ou fonctions la conscience remplit-elle dans la prise de décisions morales ? Les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées nécessiteront-ils une conscience machine ? La capacité de prendre des décisions morales doit-elle être considérée comme une caractéristique essentielle pour être désigné comme un agent pleinement conscient ? La recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience machine se sont développées en tant que domaines d'enquête indépendants. Pourtant, il existe un chevauchement significatif. Les deux domaines sont susceptibles de progresser grâce à l'instanciation de systèmes dotés d'intelligence artificielle générale (IAG). Certainement, des classes particulières de prise de décisions morales nécessiteront des attributs de conscience tels que la capacité à empathiser avec la douleur et la souffrance des autres. Mais dans cet article, nous proposerons que la conscience joue également un rôle fonctionnel dans la prise de la plupart, sinon de toutes, des décisions morales. Le travail des auteurs de cet article avec LIDA, un modèle computationnel et conceptuel de la cognition humaine, aidera à illustrer comment la conscience peut être comprise comme jouant un rôle très large dans la prise de toutes les décisions, y compris les décisions morales.
\cite{dodig2012robots}
est que la moralité artificielle doit venir par degrés et dépendre du niveau daction, dautonomie et dintelligence de la machine.
Des systèmes tels que les robots cognitifs sont en cours de développement et devraient faire partie de notre vie quotidienne dans les décennies à venir. Il faut donc sassurer que leur comportement est adéquat. Par analogie avec l'intelligence artificielle, qui est la capacité d'une machine à effectuer des activités qui nécessiteraient de l'intelligence chez les humains, la moralité artificielle est considérée comme la capacité d'une machine à effectuer des activités qui nécessiteraient de la moralité chez les humains. La capacité de moralité artificielle (artificielle), telle que laction artificielle, la responsabilité artificielle, les intentions artificielles, les émotions artificielles (synthétiques), etc., se manifeste à des degrés divers et dépend du type dagent.
surveillance biquiteuse, (2) ingénierie sociale, (3) robots militaires, (4) robots sexuels et (5) transhumanisme. À lexception partielle du transhumanisme, tous ces domaines dinteraction entre lIA et les services robotiques présentent déjà des problèmes éthiques dans la pratique. Mais ces cinq domaines soulèveront des préoccupations supplémentaires à lavenir à mesure que ces technologies se développeront. Ces problèmes ont de graves conséquences et il est impératif de les étudier et de les résoudre dès maintenant.
\cite{zawieska2020disengagement}
Au cours des deux dernières décennies, les défis éthiques liés aux technologies robotiques ont suscité un intérêt croissant parmi différentes communautés de recherche et non universitaires, en particulier dans le domaine de la robotique. Même si les raisons daborder la robotéthique sont claires, il faut mieux comprendre pourquoi ne pas sengager dans la question de léthique. Cet article se concentre sur un engagement limité ou absent envers l'éthique qui a lieu au sein de certaines parties de la communauté robotique et ses implications pour la conceptualisation de l'être humain. Lhypothèse sous-jacente est que le terme éthique signifie essentiellement humain. Ainsi, cet article discute une hypothèse de travail selon laquelle, en évitant de sengager dans la robotique, les roboticiens contribuent au processus tacite de déshumanisation émergeant dans et en dehors de la robotique. Une approche alternative inclut léthique vécue , qui implique non seulement dincorporer des approches éthiques formelles dans le travail des roboticiens, mais également d être éthique et de sengager réellement dans une réflexion et une pratique éthiques.
\cite{fleres2023integrative}
La racine du débat éthique sur la robotique trouve son origine dans le premier symposium international de robotique, organisé à Sanremo par le roboticien Gianmarco Veruggio en 2004.
En 2006, la première feuille de route de la robotique a été publiée.
Ce document a rassemblé toutes les réalisations atteintes au sein du Projet Atelier de Roboéthique fondé par EURON, parmi lesquels : (a) une définition de la robot-éthique qui melaccent sur mesure la différence entre l'éthique des robots, à savoir une branche déthique se concentrant sur les robots en tant quagents éthiques et les robots l'éthique, c'est-à-dire une branche de l'éthique axée sur les humains en tant que
agents construisant et utilisant des robots ; (b) la transdisciplinarité nature de la robot-éthique et une liste de toutes les disciplines impliquées. lignes; (c) un ensemble de principes éthiques pertinents pour la robotique,
basé sur des principes éthiques issus de la bioéthique et des principes fondamentaux droits humains; (d) lindividuation des principaux enjeux éthiques. cernes liés aux différents domaines de la robotique. En 2014, un
Une nouvelle étape dans le développement de la robotéthique a été marquée par les lignes directrices sur la régulation de la robotique
Cet article propose une approche intégrative de la recherche en robotique, basée sur l'introduction de l'interdisciplinarité en laboratoire. Une telle approche permettra aux chercheurs de divers domaines dacquérir une compréhension plus nuancée de la technologie, de la manière dont elle est développée et de ses impacts potentiels. Nous décrivons comment un philosophe a passé du temps dans des laboratoires de robotique de différents pays européens au sein d'une équipe interdisciplinaire, obtenant ainsi un aperçu de leurs travaux et de leurs perspectives, notamment de la façon dont les chercheurs en robotique perçoivent les questions éthiques liées à la recherche en robotique. En nous concentrant sur les questions soulevées par la motion du Parlement européen sur la robotique, nous avons développé un séminaire et un questionnaire qui ont étudié les questions d'éthique, de personnalité électronique et le rôle de la politique dans l'éthique de la recherche. Nos résultats soulignent que même si les chercheurs en robotique se soucient des implications éthiques de leurs travaux et soutiennent les politiques qui répondent aux préoccupations éthiques, ils estiment qu'il existe d'importants malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et de confiance. dans, le rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en robotique. Nous proposons qu'une approche intégrative puisse dissiper ces malentendus en démystifiant la manière dont les connaissances sont créées dans différents domaines.
scénario appelle à lintervention dune enquête éthique
assurer la durabilité sociale de la robotique . Additionner
Au niveau national, il stimule la recherche éthique sur les robots pour s'engager dans un processus de réflexion visant à dépasser les limites et lacunes qui caractérisent ses expressions actuelles. Basé sur pré-
explorations précédentes, les principales insuffisances affecter lenquête éthique contemporaine sur les robots peut être
schématiquement répertoriés comme suit manque dintégration disciplinaire efficace. Sur celui
dautre part, des chercheurs issus de disciplines traditionnellement
préoccupé par les questions éthiques, de la philosophie et d'autres
des sciences humaines aux disciplines des sciences sociales, ne sont pas nécessairement
manquent souvent dexpertise en matière déthique.
Absence dun corpus interdisciplinaire de connaissances sur
linnovation et la transformation générées par les robots
au niveau sociétal. Actuellement, l'ensemble des connaissances
disponibles sur les robots ont tendance à se concentrer sur les aspects techniques.
Explorations des processus de production, intégration et limpact social des robots qui considèrent leur
dimensions multiples (par exemple, anthropologique, psychologique)
cal, socioculturel, politique, ontologique, épistémologique
dimensions), ainsi que leurs interconnexions, sont encore en
leurs premiers balbutiements et il n'existe pas encore d'approche convenue pour
mener une enquête éthique.
Déterminisme technologique .
souvent, le débat éthique tend à considérer notre société
contextes en tant quobjets passifs dactions transformatrices exercées
cisé par les robots, et ne détecte pas la dynamique des
détermination mutuelle entre société et robotique dans
auquel sinscrit le développement des robots
Une résistance à la création de nouveautés éthiques.
Il existe une tendance diffuse à résoudre les problèmes émergents
de robot-éthique, certainement nouvelle, avec des principes éthiques préexistants
approches, développées pour aborder des questions ethniques complètement différentes.
questions iques. Le recours intensif à des principes éthiques en est un bon exemple.
cadres développés dans le domaine de la bioéthique pour aborder
questions éthiques liées à la robotique.
La stagnation du débat éthique, qui apparaît souvent
polarisée dans lalternative stérile entre techno-enthousiasme et technophobie utopie technologique
anisme et pressentiment dystopique
\section*{Conclusion chapitre 1}
\section*{Ouverture}