updates on emotions, LIDA and artificial ethology

This commit is contained in:
silviaC 2024-07-20 20:50:38 +02:00
parent ed77ab5c2a
commit d5827357df
2 changed files with 7 additions and 16 deletions

View File

@ -121,7 +121,7 @@
}
@book{dumouchel2016vivre,
title={Vivre avec les robots. Essai sur l'empathie artificielle: Essai sur l'empathie artificielle},
title={Vivre avec les robots. Essai sur l'empathie artificielle},
author={Dumouchel, Paul and Damiano, Luisa},
year={2016},
publisher={M{\'e}dia Diffusion}

View File

@ -1,4 +1,4 @@
entrepreneursdilatabilitésparallèle\chapter*{Conclusion Générale}
résoudraentrepreneursdilatabilitésparallèle\chapter*{Conclusion Générale}
\addcontentsline{toc}{chapter}{Conclusion Générale}
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
@ -280,26 +280,17 @@ Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penr
En 2014 un ordinateur passe le fameux test Touring, lorsquun chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}.
Le philosophe américain Hilary W. Putnam partage également cet avis. Son \textit{Hypothèse du cerveau dans la cuve} (1981) est similaire à l'argument de la Chambre Chinoise (voir \gls{Chinese Room Argument}). Selon Putman cela décrit un cerveau qui baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle puisque sans un corps, il ne peut pas savoir à quoi les mots qu'il désigne se réfèrent. Cette expérience sensorielle du monde qui lui permet d'interagir avec les choses est essentielle pour faire lexpérience de la conscience.
Le philosophe américain Hilary W. Putnam partage cet avis. lhypothèse du cerveau dans la cuve (1981). Supposons quun cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il na pas dexpérience sensorielle du monde et il na jamais interagi avec les choses. Pour celui qui na pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
Le livre \textit{Vivre avec les robots. Essai sur l'empathie artificielle} (2016) traite des enjeux de la robotique sociale, dont la question de l'autonomie et celle des manifestations affectives trompeuses des agents artificiels suscitent beaucoup dintérêt de point de vue éthique. Les mécanismes de coordination passent par un processus dynamique dinteractions pour déterminer comment ces agents identifiés par Dumouchel et Damiano comme des \textit{substituts} sont disposés à légard de leurs partenaires humains et l'inverse. Lélément clé de cette interaction sont les émotions. Moments saillants de notre existence, les agents artificiels les simulent. Cela encourage une certaine mystification et anthropomorphisation de ces artefacts et dans certaines cas un abus de confiance. Le chapitre \textit{Les animaux-machines, le cyborg et le taxi} introduit léthologie artificielle vue comme ``un ensemble de recherches qui font usage de robots pour comprendre, analyser et reproduire de façon expérimentale certains aspects du comportement animal”\cite{dumouchel2016vivre}. Réaliser des créatures artificielles susceptibles de mettre en œuvre certains comportements que lon trouve chez les animaux résoudra également le problème des émotions, puisque nous nous sommes déjà habitués à considérer les animaux et leurs émotions dans une hiérarchie des valeurs par rapport à nos besoins.
\cite{dumouchel2016vivre} les enjeux de la robotique sociale, la question de l'autonomie et des manifestations affectives trompeuses des agents artificiels
la dynamique des échanges affectifs résultat de nos intentions d'action les émotions deviennent des moments saillants des mécanismes de coordination
processus dynamique dinteractions qui détermine comment ils sont disposés à légard de leurs partenaires humains et l'inverse
les substitues mystification qui abusent de notre naïveté
chapitre 5, statut d'animaux sauvages
\cite{torrance2008ethics}
les agents artificiels manquent de certaines propriétés clés des organismes biologiques,
Le point de vue organique soutient également que la sensibilité et la téléologie nécessitent des formes d'auto-organisation et d'auto-entretien autonomes fondées sur la biologie.
Une distinction forte doit être établie entre les propriétés cognitives et phénoménologiques de l'esprit. Il est avancé que la mentalité n'est peut-être pas un domaine composite : certains types de propriétés mentales peuvent être informatiques, tandis que d'autres peuvent nécessiter une base intrinsèquement biologique.
Tandis que certains types de propriétés mentales peuvent être modélisables en informatique, d'autres sont seulement issues des organismes biologiques. Pour le philosophe Steve Torrence, les agents artificiels devront émuler certaines propriétés clés des organismes biologiques. Par exemple les formes d'auto-organisation et d'auto-entretien autonomes propres au vivat disposent de la sensibilité et d'une certain fonctionnement téléologique, ce que Torrence identifié chez les humains comme \textit{conscience de soi}:
\begin{quote}
La notion de sensibilité doit être distinguée de celle de la conscience de soi : de nombreux êtres qui possèdent la première peuvent ne pas posséder la seconde. On peut soutenir que de nombreux mammifères possèdent la sensibilité, ou la conscience phénoménale — ils sont capables de ressentir la douleur, la peur, le plaisir sensuel, etc. Néanmoins, il est généralement admis que ces mammifères ne possèdent pas couramment la capacité d'articuler ou d'être conscients, d'une manière de second ordre, de ces états sensibles, et manquent donc de conscience de soi\footnote{The notion of sentience should be distinguished from that of self-consciousness: many beings, which possess the former may not possess the latter. Arguably, many mammals possess sentience, or phenomenal consciousness—they are capable of feeling pain, fear, sensuous pleasure and so on. Nevertheless it is usually taken that such mammals do not standardly possess the ability to articulate or be aware, in a higher-order way, of such sentient states, and so lack self-consciousness.}
``La notion de sensibilité doit être distinguée de celle de la conscience de soi : de nombreux êtres qui possèdent la première peuvent ne pas posséder la seconde. On peut soutenir que de nombreux mammifères possèdent la sensibilité, ou la conscience phénoménale — ils sont capables de ressentir la douleur, la peur, le plaisir sensuel, etc. Néanmoins, il est généralement admis que ces mammifères ne possèdent pas couramment la capacité d'articuler ou d'être conscients, d'une manière de second ordre, de ces états sensibles, et manquent donc de conscience de soi\footnote{``The notion of sentience should be distinguished from that of self-consciousness: many beings, which possess the former may not possess the latter. Arguably, many mammals possess sentience, or phenomenal consciousness—they are capable of feeling pain, fear, sensuous pleasure and so on. Nevertheless it is usually taken that such mammals do not standardly possess the ability to articulate or be aware, in a higher-order way, of such sentient states, and so lack self-consciousness.”}.”
\cite{torrance2008ethics}
\end{quote}
\cite{wallach2020consciousness}
Quels rôles ou fonctions la conscience remplit-elle dans la prise de décisions morales ? Les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées nécessiteront-ils une conscience machine ? La capacité de prendre des décisions morales doit-elle être considérée comme une caractéristique essentielle pour être désigné comme un agent pleinement conscient ? La recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience machine se sont développées en tant que domaines d'enquête indépendants. Pourtant, il existe un chevauchement significatif. Les deux domaines sont susceptibles de progresser grâce à l'instanciation de systèmes dotés d'intelligence artificielle générale (IAG). Certainement, des classes particulières de prise de décisions morales nécessiteront des attributs de conscience tels que la capacité à empathiser avec la douleur et la souffrance des autres. Mais dans cet article, nous proposerons que la conscience joue également un rôle fonctionnel dans la prise de la plupart, sinon de toutes, des décisions morales. Le travail des auteurs de cet article avec LIDA, un modèle computationnel et conceptuel de la cognition humaine, aidera à illustrer comment la conscience peut être comprise comme jouant un rôle très large dans la prise de toutes les décisions, y compris les décisions morales.
Pour les humains, les fondements d'une décision morale résident dans la conscience. Les chercheurs se demandent si les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées nécessitent une conscience artificielle\cite{wallach2020consciousness}. Selon leur avis, la recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience artificielle se sont développées en tant que domaines indépendants. Pourtant, les deux domaines sont susceptibles de converger avec l'instanciation de systèmes dotés d'\gls{intelligence artificielle générale}. Certainement des attributs de la conscience comme la capacité d'émpathiser avec la souffrance des autres et sa nature lorsqu'elle est propre aux non-humains reste une question ouverte. Le travail des auteurs de cet article avec l'application de LIDA- un modèle computationnel et conceptuel de la cognition humaine- est une première approche du rôle de la conscience dans les décisions morales.
\cite{dodig2012robots}
est que la moralité artificielle doit venir par degrés et dépendre du niveau daction, dautonomie et dintelligence de la machine.