Chapitre 2. Perception du corps et du mouvement dans la robotique Affective schemas remain unconscious when not matched with accommodation. J. Piaget 2.1 Approche cognitiviste pour la compréhension du corps 2.1.1a Types de cognition Pour témoigner de la difficulté de nommer les termes qui concernent ce chapitre, et les appartenances que chaque auteur réclame, nous introduisons la définition de l’artiste Simon Penny qui dans son anthologie Making sense: cognition, computing, art and embodiment, énumère les quelques définitions en lien avec la cognition : “Confusion arises when discussing cognition, because several schools of thought have quite different interpretations. As noted in part I, the autopoietic conception of cognition is incompatible with the cognitivist conception (which is derived from Anglo-American analytic philosophy, though ana­lytic philosophers have accused cognitivists of being a bit sloppy). Continen­tal philosophers (phenomenologists) draw distinctions differently. When Lakoff and Johnson talk about the cognitive unconscious, their conceptions of the conscious and unconscious diverge from Freudian ideas. One reason for this confusion of terminology is precisely the condition of the paradigm shift itself. Neologisms (some of them clunky) and borrowings from other languages abound because existing language is built around dualist concepts. New language is needed. Maturana and Varela coine autopoiesis. Gibson invented affordance. Likewise umwelt and enactivim and other terms are now part of a new vocabulary.”(Penny Making sense P. 195) Au début du XXe siècle, entre un vision matérialiste et son contrepoids marqué par le dualisme corps-esprit, des chercheurs tels Raymond Ruyer (citer papier Ruyer) ou Bergson (citer matière et mémoire) expliquent l’activité cognitive par la réalité physiologique du cerveau et son lien avec le corps. Ainsi Ruyer affirmait que “c’est du cerveau réel, de sa subjectivité, que naissent les sensations”, alors que pour Bergson le cerveau est un instrument en relation avec le corps (citer Andrieu) dont le mouvement est compris par la mécanique. Toujours pour Ruyer: “Le cerveau n’est pas un instrument, une machine à fabriquer la conscience, la subjectivité. Comment une machine le pourrait-elle? Tout l’organisme est, en soi, subjectivité. Le cerveau est un instrument à transporter, appliquer la conscience primaire de l’organisme à la tâche d’organisation du monde extérieur…le cerveau est le lieu de l’organisme par où passent les circuits externes, la fabrication des outils et des machines, la création des oeuvres d’art, des institutions sociales, l’organisation et l’entretien de tous les produits de la culture. Le cerveau est en nous comme une partie embryonnaire conservée. (...) Le “je” psychologique et cortical est le résultat d’un devenir mais second car il côtoie l’organique de sa mémoire corporelle. Cette coexistence est une intégration plutot qu’un emboîtement, car l’activité de la conscience ne peut être séparée de son tissu vivant, se définissant ainsi comme une conscience sensorielle” (citer Andrieu p.10) Dans notre contexte spécifique, cette conscience du corps, de son vécu immanent continent un savoir non-réfléchi et involontaire qui peut se cultiver par des pratiques somatiques et d’éveil corporel. Notre démarche est d’attribuer au mouvement une place primordiale dans la constitution de la conscience et de l’être en général. La theorie 4E de la cognition (The 4E cognition theory) https://www.researchgate.net/publication/280447321_Introduction_to_the_Special_Issue_on_4E_Cognition Nous présentons le concept de cognition sous l’angle de la théorie 4E dont les débats actuels se concentrent sur le lieu où se trouve la cognition et son lien avec la perception et l’action.Une des prémisses de cette théorie est que l’activité perceptive-motrice est constitutive pour la cognition (citer). La théorie 4E de la cognition défend l’hypothèse selon laquelle la cognition est plus qu’un modèle cartésien d’opération dans le cerveau. L’idée que le cerveau est similaire à un ordinateur, promeut les phénomènes cognitifs entièrement déterminés par leur rôle fonctionnel. Cependant dans la théorie 4E de la cognition, les phénomènes cognitifs sont étudiés en lien avec leur environnement. Des processus comme les détails biologiques et physiologiques du corps d’un agent, définies comme des processus extra-crâniens, sont analysés dans son environnement naturel actif. Cela donne suite à deux hypothèses d’analyse: selon l’hypothèse forte, les processus cognitifs sont essentiellement produites lors des processus extra-crâniens ; alors que pour l’hypothèse faible, ils y sont seulement à moitié résultats des processus extra-crâniens. Ces processus extra-crâniens sont à leur tour corporels (selon la dichotomie cerveau-corps) ou extracorporels (impliquant un couplage cerveau-corps-environnement). Le livre offre des précisions concernant les caractéristiques centrales de la théorie 4E, basée sur: la cognition incarnée ou incorporée (embodied), la cognition ancrée (embedded),la cognition énactée (enacted) et la cognition étendue (extended). Dans les prochaines pages, un sub-chapitre de notre étude porte sur la cognition incarnée, dont les désaccords entre les comportementalistes et les cognitivistes, la situent au cœur des débats en neurosciences. Dans notre contexte, cette propriété de la cognition d’être incorporée signifie être causalement dépendante de processus extracorporels qui ont lieu dans l’environnement proche du corps. Un autre sous-chapitre traite de l’enaction, vue par le neurologue Francesco Varela comme thèse sur la continuité entre la vie et l’esprit. L’approche traditionnelle de la cognition se concentre sur les processus neuronaux, alors que la théorie de la cognition 4E vise plutôt l’action incarnée dans le corps. Cette théorie amène des nouvelles façons d’intégrer la complexité des phénomènes cognitifs. Ces phénomènes sont étudiés sous un angle physiologique, suivant les avancements dans plusieurs domaines connexes. Dans son introduction au livre dédié à cette théorie (cite Menary), la position intégrationniste du philosophe Richard Menary offre une nouvelle contribution à l’approche incarnée et intégrée. Pour lui, les systèmes cognitifs fonctionnent grâce à l’intégration des fonctions neuronales et corporelles avec les fonctions de représentation. Cognitivisme La théorie 4E de la cognition marque également une rupture avec la vision traditionnelle du cognitivisme- centrée autour de représentations et calculs mentaux. Ce courant apparu dans les années 1950 a été promu entre outre par les recherches de Jean Piaget sur la biologie du développement et sur les découvertes en cybernétique, établie comme alternative à une science de l’esprit selon Varela: “The central intuition behind cognitivism is that intelligence—human intelligence included—so resembles computation in its essential characteristics that cognition can actually be defined as computations of symbolic representations. Clearly this orientation could not have emerged without the basis laid during the previous decade. The main difference was that one of the many original, tentative ideas was now promoted to a full-blown hypothesis, with a strong desire to set its boundaries apart from its broader, exploratory, and interdisciplinary roots, where the social and biological sciences figured preeminently with all their multifarious complexity.” (Varela P. 40) Les modèles théoriques et pratiques inspirés par cognitivisme, comme le constructivisme, placent les mécanismes de construction active des savoirs et l’apprentissage au centre de leur préoccupation. A son tour, le cognitivisme hérite des approchés précédentes la préoccupation pour le comportement, à la place des processus internes de cerveau, comme processus d’acquisition de savoirs. Un des questionnements du cognitivisme est de démontrer comment les états intentionnels qui ont des propriétés causales (désirs, intentions), sont physiquement possibles et capables de provoquer un comportement. Pour expliquer cela, Valera utilise la notion de calcul symbolique où les calculs sont définis comme opérations sur des symboles qui respectent ou sont contraints par ces valeurs sémantiques. Cependant il souligne qu’un ordinateur ne fonctionne que sur la forme physique des symboles qu’il calcule; il n’a pas accès à leur valeur sémantique. Avec le temps, l’idée que la logique ne suffit pas pour simuler et comprendre le fonctionnement du cerveau, dont le fonctionnement est distributif, a fait émerger de points de vue contradictoires sur le cognitivisme. Dans le livre “4E Cognition: Historical Roots, Key Concepts, and Central Issues”, Albert Newen, Shaun Gallagher, and Leon De Bruin offrent une perspective globale de la théorie 4E de la cognition. Leur chapitre “Brain–Body–Environment Coupling and Basic Sensory” explore le concept d’intentionnalité propre à cette approche. Ainsi, l’hypothèse selon laquelle la perception est orientée vers l’action, conduit à considérer l’intentionnalité motrice comme facteur qui la facilité : “The notion that perception is action-oriented leads to a consideration of a very basic motor intentionality —a concept that derives from phenomenology (e.g., Merleau-Ponty 2012), but that can also be found in pragmatists such as John Dewey. As Robert Brandom notes, citing Dewey, the “most fundamental kind of intentionality (in the sense of directedness toward objects) is the practical involvement with objects exhibited by a sentient creature dealing skillfully with its world” (2008, p. 178). This captures a form of intentionality that is built into skillful bodily movement in tandem with environmental demands.” Pour nous, ce genre d’intentionnalité qui ne part pas le résultat d’un processus mental, est représentatif pour l’état d’intentionnalité de geste dansé, mais aussi des robots. Alternativement, la notion d’incarnation, telle qu’elle est définie dans la théorie 4E, nécessite un couplage complexe entre le cerveau, le corps et l’environnement. Ce couplage est la base de tout système robotique où les processus internes sont en lien direct avec l’environnement. Le role de l’affecte Le concept d’affecte est également au cœur des études sur la cognition dans la théorie 4E où l’émotion est vue comme une affectivité située. Dans cette acceptation, la cognition n’est pas un processus quantifiable, similaire à un modèle informatique. L’affect nécessite une conception incarnée et située de la cognition. Les processus empathiques de la petite enfance ou les situations sociales sophistiquées qui caractérisent l’âge adulte, donnent une dimension plus complexe à ce phénomène. Ainsi nous remarquons que ce n’est pas seulement le sentiment conscient d’émotion qui est important. Les processus affectifs inconscients comme la faim ou la fatigue, la douleur ou le plaisir jouent un rôle tout aussi important, et peuvent biaiser la perception. De façon similaire, la chercheuse Branka Zei Pollermann introduit “le modèle unifié de cognition” basé sur les théories de Jean Piaget, Ludwig von Bertalanffy et Louis J. Prieto . Ce modèle stipule que les espaces affectives (affected spaces) facilitent des comportements adaptatifs lors des processus cognitifs. La théorie générale des systèmes trouve aujourd’hui de multiples applications. La modélisation des organismes humains, appelés comme “systèmes ouverts” par Ludwig von Bertalanffy , intéresse les roboticiens également et nous allons détailler cela dans les prochaines pages. L.J Prieto (1975) base sa théorie autour du concept de praxis (vu comme action intentionnelle) et la façon dont cela structure la cognition. Il identifie “une caractéristique qui semble apparaître toujours dans la connaissance scientifique et qui ne se retrouve pas, en revanche, dans la connaissance non scientifique, à savoir l’explicitation des concepts avec lesquels la connaissance en question opère.” Alors que Jean Piaget identifie deux concepts-clé pour caractériser l’interaction des systèmes dites intelligentes avec l’environnement. Le premier est le concept d’ assimilation des schémas de comportement préexistant et l’autre le concept d’adaptation- considéré comme moment d’équilibre entre deux états, évoquant un sentiment de plaisir si cet équilibre atteint. Selon la théorie de Piaget, l’intelligence humaine se développe avec l’âge passant par plusieurs étapes parmi lesquelles: l’intelligence logico-mathématique, musicale, spatiale, corporelle-kinesthésique, interpersonnelle et ainsi de suite. Le chercheur Olivier Houdé, specialiste en developpement cognitif, complète cette théorie (citer Houdé), en situant trois phases de l’intelligence humaine modélisés dans des algorithmes: l’intelligence sensori-motrice (avant 6 ans), l’intelligence opérationnelle concrète tel comme définie par Jean Piaget (entre 7 et 12 ans) et l’intelligence propre à la résistance cognitive, nommé intelligence opérationnelle formelle (de l’adolescence à l’âge adulte) permettant le raisonnement scientifique et l’ apprentissage des valeurs et normes sociales. Dans son analyse “A unified model of cognition, emotion and action”, Pollermann montre comment le comportement adaptatif d’un système est défini par sa capacité de correspondre aux cinq critères suivants: “A.sentir l’environnement externe et interne, interpréter puis stocker l’information B. utiliser la mémoire et les signaux perceptives pour décider C. réguler les ressources internes( pour les humains il s’agit d’ ajustements au niveau somatique et neuroendocrin) D. transformer les actions choisies en modèles de comportement E. evaluer le rendu (perception, procession de l’information et mémoire)” De façon analogique, ces critères correspondent à des propriétés des émotions, caractérisées par des attributs comme la valence (critère A et E via des stimuli extérieurs), la capacité d’activation (critère C et D, selon les feedback de sous-systèmes) et la potence (correspondant au critère B). Plus loin en parlant des émotions, Pollermann cite le neuropsychologist Douglas Watt pour qui lorsque les paramètres de base dépassent les variations connues, l’état est ressenti et interprété comme émotionnel: “When internal physiological states are outside a desirable range, both visceral sensations and action dispositions are activated.” Les auteurs se questionnent également sur le rôle des représentations mentales concernant cette théorie. Dans les années 1990, Varela, Thompson et Rosch écrivent “The Embodied Mind- Cognitive Science and Human Experience” pour faire un état de lieu des caractéristiques des sciences cognitives, plus précisément la façon dont le cerveau, le corps et l’environnement sont intégrés dans la cognition. Ils lient l’avènement de cette discipline à celle de la cybernétique, en lui associant plusieurs découvertes qui ont influencé à leur tour d’autre domaines parmi lesquelles nous mentionnons: l’utilisation de la logique mathématique pour modéliser le système nerveux en neuroscience, l’invention des machines et algorithmes pour traiter de l’information et définir une intelligence artificielle, des mises en pratique de la théorie des systèmes en ingénierie par la théorie du contrôle en robotique, les premiers exemples de systèmes auto-organisés, etc. Concernant les prochaines étapes dans les sciences cognitives, les approches et directions sont différentes selon le modèle théorique qu’elles réclament comme point d’origine. Lors des dernières décennies, ces disciplines ont suscité beaucoup de débats entre les prises de position fonctionnelles des neurobiologistes qui ignorent le rôle du corps et les phénoménologues et philosophes qui visent le vécu expérientiel. La théorie de 4E est vue par la communauté scientifique comme la plus récente tentative de structurer ces approches et renouveler les avancées théoriques du début de XXe siècle. C’est également important de remarquer le fait que ces nouveaux paradigmes et concepts ont également engendré l’apparition des nouvelles disciplines comme la philosophie de l’esprit (de l’anglais : philosophy of mind) dont la question centrale est la relation entre corps et esprit et leur ancrage dans l’environnement, ou la philosophie des sciences (de l’anglais : philosophy of mind) qui étudie la nature même de l’activité scientifique et ses spécificités et l’épistémologie (du grec épistemos-”science” et logos “ discours”), dont l’objet est l’analyse critique d’une science en particulier, du point de vue de son évolution, sa valeur, et sa portée scientifique et philosophique. C’est également important de mentionner leur impact sur des disciplines connexes, tels les études sur la conscience, dont les débats et arguments ont suivi de pret ceux sur la cognition. 2.1.1b Types de conscience Souvent nous disons qu’un organisme vivant est conscient lorsqu’il est éveillé. Quelle sera alors le qualificatif pour les robots ou d’autres types d’organismes artificiels? Nous partons de l’hypothèse que pour les organismes vivants, chacun a son propre ressenti concernant la conscience. Si pour l’intelligence, des propriétés tels : calcul mental, apprentissage et mémoire arrivent à mieux définir ses propriétés, nous avons vu plus haut que pour la conscience ce qui est important c’est l’expérience subjective immédiate- le qualia. En parallèle avec l’intelligence, des processus comme la perception et la motricité sensorielle, la capacité de prédire l’environnement ou de témoigner des comportements complexes, structurent notre imaginaire autour de cette notion. Étant donné l’imprécision des concepts et la multiplicité des points de vue selon les disciplines, il semble peu probable que nous nous mettions d’accord sur une seule définition de la conscience dans notre étude. Ce qui nous intéresse cependant est de comprendre dans quelle mesure le dualisme corps-esprit et le matérialisme trouvent un écho dans l’exercice artistique que nous imaginons Cet exercice prend appui sur plusieurs concepts propres à chaque vision (dualiste ou moniste) dans une tentative de les homogénéiser. Puisque les débats sur la conscience, comme ceux sur la cognition se heurtent toujours à des questions de définition, nous allons tenter définir ce terme selon différentes disciplines. La plus importante est la vision neuroscientifique et neurobiologique du terme. Pour cela nous nous appuyons sur la littérature (citer livre Firston et art Anil Seth). Selon les critères que les chercheurs emploient, il existent différentes propriétés de la conscience. Un premier critère est celui du niveau de conscience, propre aux créatures vivantes- ce niveau varie entre plusieurs étapes parmi lesquelles les états végétatifs, les états de sommeil sans rêve et l’état d’éveil conscient vif)/. Le deuxième est de se concentrer sur le contenu de la conscience et ainsi avoir une connaissance réflexive de son propre état mental. Si pour les créatures vivantes, il existe des sortes de “stimuli autoréférentiels” (citer paper vanhaudenhuyse) (comme le fait de suivre son reflet dans le miroir) pour détecter son propre niveau de conscience, pour les machines ce phénomène n’a pas encore pu être implémenté. L’article (citer paper vanhaudenhuyse) propose un schéma qui détaille la corrélation entre le niveau d’éveil et la conscience de soi et de l’environnement. Ainsi nous apprenons qu’il existe des variations entre l’état végetatif (propre aux patients réveillés d’une coma sans état de conscience détectée)caractérisé par des mouvements réflexes, et l’état de conscience minimale ou le patient est capable de comportements incohérents mais reproductibles et soutenus, montrant de signes clairs de conscience de leur environnement et d’eux mêmes. Plus loin les auteurs font la distinction entre la conscience et la conscience de soi, en listant les propriétés de la conscience de soi: “ la conscience qu’il existe d’autres consciences que la nôtre; notre capacité de répondre adéquatement à des stimuli de l’environnement; notre aptitude à reconnaître notre corps comme étant lenôtre; la métaconscience nous permet de comprendre nos comportements et ceux des autres en terme de désirs etcroyances; la connaissance que nous avons de nous-mêmes comme le narrateur de notre propre vie” (paper vanhaudenhuyse p.529) Cependant lorsque identifiés grâce à la neuro-imagerie fonctionnelle, les processus autoréférentiels semblent présents seulement lors des états d’éveil actif. Dans la même mesure, lors des états de conscience altérés dont l’évolution n’est pas linéaire, le rapport à l’environnement est déterminant. Nous nous demandons alors quelle analogie appliquer sur notre étude de cas ? Il existe ensuite un autre type de classification selon la nature phénoménologique de la conscience et son accessibilité, suivant les recherches du philosophe Ned Block qui différencie la conscience phénoménologique (comment une certaine expérience est perçue par le sujet) de celle définie comme conscience d’accès (disponible pour des processus cognitifs comme le langage). Block décrit les deux de la façon suivante: "Phenomenal consciousness is experience; the phenomenally conscious aspect of a state is what it is like to be in that state. The mark of access-consciousness, by contrast, is availability for use in reasoning and rationally guiding speech and action." (citer Block) Ainsi la conscience phénoménale résulte d’expériences sensorielles et de notre perception mélangeant de sensations comme l’ouïe ou l’odorat, des sensations type douleur ou perceptions type proprioception, ainsi que des émotions tel la peur, parmi autres. A l’opposée, la conscience d’accès est disponible pour une utilisation dans le raisonnement et pour le contrôle conscient direct de l’action et de la parole. Pour Block, la « rapportabilité » de la conscience d’accès est d’une grande importance pratique. Selon lui, la conscience d’accès doit être « représentative » car seul le contenu représentatif peut figurer dans le raisonnement. Des exemples de conscience d’accès sont les pensées, les croyances et les désirs. Une conséquence directe de cette classification de Block qui divise la conscience en deux types, est le fait de considérer l’esprit comme résultant de processus fondamentalement logiques et ainsi modélisable d’un point de vue algorithmique. Cette vision computationnelle de l’esprit implique également que la conscience peut être modélisée par un programme informatique. Pour détailler, sa tentative de décrire une certaine conscience comme une conscience phénoménale ne peut pas réussir à identifier une catégorie distincte d’états conscients. Comme mentionné ci-dessus, Block estime que la conscience phénoménale et la conscience d’accès interagissent normalement, mais il est possible d’avoir une conscience d’accès sans conscience phénoménale. En particulier, Block croit comme Dennet que les zombies (entendu ici comme des androïdes) sont possibles et qu’un robot qui est de point de vue informatique identique à une personne, pourrait exister tout en n’ayant aucune conscience phénoménale. Cependant à la différence de Dannet, Block affirme qu’il existe des expériences conscientes difficilement traduisibles par des algorithmes. Pour lui, l’existence de ces expériences relève « du problème difficile » de la conscience. Parmi les théories des sciences cognitives qui identifient les états psychologiques à des processus neurophysiologiques, la théorie de l’identité esprit-cerveau est apparue dans les années 1960. Pour les partisans de cette hypothèse, les états mentaux et les états du cerveau sont numériquement identiques. L’idée que les pensées et notre esprit résident exclusivement dans des processus neurophysiologiques étant une perspective naturaliste, les neurosciences nous permettent de comprendre en quoi certaines structures et certains processus neurophysiologiques du cerveau sont prédictibles par des machines. Cependant, les phénomènes mentaux sont multiples et chaque individu les traduit différemment dans sa personnalité. Nos perceptions, sensations, désirs, et croyances sont influencés par notre contexte socio-culturel. Pour les anticiper par des prédictions, les scientifiques doivent faire appel à d’ autres méthodes et théories. Un courant dérivé de cette théorie de l’identité esprit-cerveau est l’instrumentalisme, mis en place par le philosophe et penseur Daniel Dannett. Cette théorie considère les modèles scientifiques comme des instruments, nous permettant d’analyser et modéliser les phénomènes pour ensuite les devancer par des prédictions. Ses positions concernant le libre arbitre et la conscience ont suscité beaucoup de controverses. Ainsi dans son livre “Consciousness Explained” (1991) il explique comment la conscience est le résultat des processus cognitives et physiologiques dans le cerveau. Son analogie de la conscience vue comme un article académique coécrit par une poignée de scientifiques explique comment plusieurs processus mentaux peuvent exister simultanément dans le cerveau, sans forcément se connaître l’ un l’autre. Ce principe correspond à un état où plusieurs brouillons coexistent simultanément et indépendamment de chaque contribution- attestant l’existence du papier principal. En extrapolant ces principes au terme de conscience, il nie cependant l’existence de qualia, vu comme expérience subjective directe et personnelle. Des philosophes tels John Searle ont suggéré qu’il y a quelque chose de fondamental dans l’expérience subjective qui ne peut pas être capturé par les programmes informatiques conventionnels. Dans une de leurs correspondances, Searle réponds à ses arguments de la façon suivante: “To make explicit the differences between conscious events and, for example, mountains and molecules, I said consciousness has a first-person or subjective ontology. By that I mean that conscious states only exist when experienced by a subject and they exist only from the first-person point of view of that subject. Such events are the data which a theory of consciousness is supposed to explain. In my account of consciousness I start with the data; Dennett denies the existence of the data. To put it as clearly as I can: in his book, Consciousness Explained, Dennett denies the existence of consciousness. He continues to use the word, but he means something different by it. For him, it refers only to third-person phenomena, not to the first-person conscious feelings and experiences we all have. For Dennett there is no difference between us humans and complex zombies who lack any inner feelings, because we are all just complex zombies.” Un des arguments le plus fameux que Searle avance dans leur débat est celui appelé the ‘Chinese Room Argument’, où une personne enfermée dans une chambre communique avec l’extérieur en chinois, sans comprendre les symboles chinois. Ce fonctionnement est similaire aux algorithmes de traduction qui exécutent des équivalences entre des mots, sans saisir leur sens. The hard problem of consciousnes Dans son article, “Facing Up to the Problem of Consciousness” le philosophe David J. Chalmers affirme qu’il n’y a pas qu’un seul problème lorsque nous essayons de définir la conscience. Pour lui il s’agit d’un terme ambigu en référence à des phénomènes différents, et propose de diviser les objectifs en deux catégories- le problème facile de la conscience et le problème difficile de la conscience. Le problème facile de la conscience continent les hypothèses qui pourront trouver leurs solutions dans l’avenir immédiat- notamment les processus neurophysiologiques dans le cerveau et l’intelligence sensorielle du corps qui donnent accès à des explications des capacités et des fonctions cognitives. Chalmers illustre les phénomènes qui correspondent à cet état. Pour lui un état mental est conscient lorsqu’il est décrit par des mots, ou lorsqu’il est accessible comme ressenti interne. Un système est conscient de certaines informations lorsqu’il traite et intègre cette information, puis modifie son comportement en conséquence. De la même façon, une action est consciente quand elle est délibérée. Alors que le problème difficile de la conscience atteste de l’incapacité de modéliser certaines expériences subjectives et leur vécu. Pour citer Chalmers: “Is undeniable that some organisms are subjects of experience. But the question of how it is that these systems are subjects of experience is perplexing. Why is it that when our cognitive systems engage in visual and auditory information-processing, we have visual or auditory experience: the quality of deep blue, the sensation of middle C? How can we explain why there is something it is like to entertain a mental image, or to experience an emotion? It is widely agreed that experience arises from a physical basis, but we have no good explanation of why and how it arises. Why should physical processing give rise to a rich inner life at all? It seems objectively unreasonable that it should, and yet it does.”(Chalmers p.3) Son argumentation va plus loin, en donnant l’exemple de la perception visuelle. Il décrit comment les formes d’ondes électromagnétiques empiétant sur la rétine, sont discriminées et catégorisées par un système visuel pour que cette catégorisation est vécue comme la sensation de vif rouge. Ensuite, il montre comment l’expérience consciente qui survient lorsque ces fonctions sont exécutées, est difficile à expliquer et vérifier - correspondant à ce que la communauté philosophique a défini comme une sorte de “lacune explicative entre les fonctions et l’expérience”. Il propose que les théories sur la conscience traitent l’expérience comme partie intégrante: “I suggest that a theory of consciousness should take experience as fundamental. We know that a theory of consciousness requires the addition of something fundamental to our ontology, as everything in physical theory is compatible with the absence of consciousness. We might add some entirely new nonphysical feature, from which experience can be derived, but it is hard to see what such a feature would be like. More likely, we will take experience itself as a fundamental feature of the world, alongside mass, charge, and space-time.”(Chalmers p.14) En anglais le terme de conscience permet une déclinaison en deux instances, celle de conscience comme vécu expérientiel et celui d’awareness ou forme de réceptivité caractérisé par le principe de la cohérence: “Various specific hypotheses have been put forward. For example, Crick and Koch (1990) suggest that 40-Hz oscillations may be the neural correlate of consciousness, whereas Libet (1993) suggests that temporally-extended neural activity is central.If we accept the principle of coherence, the most direct physical correlate of consciousness is awareness: the process whereby information is made directly available for global control. The different specific hypotheses can be interpreted as empirical suggestions about how awareness might be achieved. For example, Crick and Koch suggest that 40-Hz oscillations are the gateway by which information is integrated into working memory and thereby made available to later processes. Similarly, it is natural to suppose that Libet’s temporally extended activity is relevant precisely because only that sort of activity achieves global availability.” Pareil au Chalmers, Block croit que nous pouvons avoir des expériences conscientes qui ne sont pas traduisibles par des algorithmes de calcul. Un exemple de conscience phénoménale discuté par Block est un bruit fort que nous ne remarquons pas consciemment parce que nous faisons attention à autre chose. Dans sa classification, le fait d’entendre le bruit (puisque nous ne pouvons pas couvrir notre oreille comme la paupière) relève de la conscience phénoménale alors que le fait de ne pas s’en rendre compte relève de la conscience d’accès. Cela suggère que ce type de conscience phénoménale décrite par Block, est basée sur une activité cérébrale classifiée comme inconsciente donc difficilement modélisable par des algorithmes de calcul. Le rôle de l’introspection L’introspection peut nous permettre d’être conscients des processus mentaux qui semblent avoir une séquence linéaire comme la production de la parole ou des lignes de raisonnement. Elle agit également lors des actes artistiques. Pendant la phase de création, un artiste sonde son imaginaire pour clarifier ses intuitions. Lorsque nous faisons référence à l’exemple de Block, c’est intéressant de mentionner un possible scénario où la personne aurait prêté attention au bruit auparavant ignoré, comme un type d’expérience subjective, à la limite de la conscience d’accès, pour ensuite déterminer à partir de quand le bruit est devenu conscient. Cette introspection liée à un stimulus extérieur, trouve son équivalent dans l’acte d’introspection de l’artiste qui veut mieux comprendre sa démarche. La distinction de Block entre conscience phénoménale et conscience d’accès a des implications importantes pour les neuroscientifiques et les informaticiens qui cherchent à modéliser une conscience artificielle dans des dispositifs tels les robots. Mais une fois cette intention exprimée, comment pouvons-nous savoir si l’algorithme a produit une conscience semblable à celle de l’homme? Dans la même mesure, produire ces expériences subjectives de la conscience phénoménale dans des robots implique des considérations éthiques. Heureusement le moyen pour doter rationnellement les machines de nos expériences personnelles, parfois irrationnelles, n’est pas encore à notre portée. Selon les avancées des sciences cela pourra se faire par des mécanismes non informatiques. Même si la communauté scientifique est divisée et de nombreux neuro-biologistes et informaticiens estiment que les philosophes sont trop pessimistes quant aux capacités des algorithmes à modéliser la conscience humaine, il est important de comprendre nos motivations et intentions face à cela. Peu importe ce que nous identifions comme processus physiques qui génèrent la conscience, tant que nous ne pouvons pas comprendre comment ils se manifestent dans chaque individualité nous ne comprendrons pas leur impacte une fois réalisée. Mais une fois cela fait, il reste toujours un problème de vérification car en construisant des machines qui fonctionnent comme nous, nous n’avons aucun moyen de savoir si le rendu biologique suffit pour une expérience intérieure interne. En d’autre termes, comment pouvons-nous savoir si un robot a une conscience phénoménale alors que notre moyen actuel pour déterminer cela dans les humains passe par le vécu expérientiel? D’autres philosophes tels Thomas Nagel affirment qu’il est impossible de déterminer les points communs entre une expérience directe, évoquée à la première personne et les descriptions à la troisième personne des expériences passées qui forment à leur tour des modèles. Dans son article "What Is It Like to Be a Bat?" (1974) traduit en français par “ Qu’est-ce que cela veut dire d’être un chauve-souri?”, le philosophe décrit la conscience comme un phénomène partagé par beaucoup des organismes vivants (notamment les mammifères dont le chauve-souris), dans le même temps faisant une distinction entre conscience et perception sensorielle. Pour lui, ce que tous les organismes partagent, c’est ce qu’il appelle le « caractère subjectif de l’expérience ». Cette nature subjective bloque toute tentative d’expliquer la conscience par des moyens objectifs comme les neurosciences ou la robotique. L’auteur a choisi la métaphore des chauves-souris en raison de leur appareil sensoriel originel. En effet, les chauves-souris utilisent l’écholocalisation pour naviguer et percevoir des objets, cette méthode de perception étant similaire à la vision des humains. L’auteur affirme que les humains dotés de sens similaires ne peuvent pas cependant expérimenter l’état d’esprit d’une chauve-souris, puisque leur cerveau ne s’est pas développé comme celui d’une chauve-souris dès sa naissance. En échange des comportements de type voler, naviguer en sonar ou se suspendre à l’envers comme une chauve-souris, faciliteront des expériences similaires à ce qu’une chauve-souris peut vivre. Cette hypothèse est évoqué avec des autres mots par Penny qui mentionne l’origine du concept de spécificité des capacités sensorielles, dans son chapitre “The biology of cognition”. Ainsi Penny mentionne le travail du biologiste Jacob Von Uexkull, au début du XXe siècle : “Von Uexkull argued that the experiential world of a creature is specific to that species, given to it by virtue of its particular suite of sensorimotor capabilities. He called this the creature’s umwelt, which we might translate as life-world or experience-world. Put simply, in sensory experience, there is no objective world "out there." By this logic, mind and world are simultaneously cocreated. (...)Different species do not share umwelts, even if they happen to be physi­cally colocated. Umwelts may intersect, like Venn diagrams, in which case different species can identify similar things. Creatures may cohabit the same "place" and be unaware of each other because their umwelts do not inter­sect, due to differences of scale, sensory capability, and so on. Some animals construct their umwelts via senses others do not have—such as the infra­red sensing of some snakes, the echolocation of bats, the electro-sensing of platypus and some weakly electric fish, and the magneto-sensing of the hammerhead shark.” (penny making sense p. 17 Ainsi selon les capacités sensorielles de chacun, il est possible d’avoir une conscience phénoménale et d’accéder à la conscience d’accès indépendamment, bien qu’en général, les deux interagissent. Le papier (citer friston p. 195) liste également les propriétés de la conscience: avoir un contenu phénoménal spécifique, être en contact direct avec la réalité et pas ses représentations, être instantanée. La conscience dévient alors un aspect direct et privé de la vie mentale de chacun, puisque cela nous est impossible de faire l’expérience d’une autre conscience que la nôtre. Nous pouvons faire cependant l’expérience d’une subjectivité, en écoutant le ressenti d’une autre personne. Dans son article, “Consciousness: The last 50 years.” le neuroscientifique Anil K. Seth souligne le caractère interdisciplinaire des études sur la conscience et la volonté de tisser des ponts entre les expériences phénoménologiques et le fonctionnement neuronal. Pour lui, l’expérience phénoménologique ne peut pas exister sans l’ancrage du corps dans son environnement - en anglais “ an environment embedded embodiment processes”. Seth trace l’histoire des études sur la conscience , en tant que phénomène neurologique identifiant une première étape entre 1960 et 1990. Ainsi, après un intérêt particulier pour des études comportementales, les scientifiques mettent les bases d’une nouvelle science cognitive. Cette science atteste l’existence d’un état mental interne qui fait la médiation entre réponse et stimulation et qui fait beaucoup de polémique à son époque. Seth cite entre autres le psychologue Stuart Sutherland qui affirmait en 1989 : “Consciousness is a fascinating but elusive phenomenon. It is impossible to specify what it is, what it does, or why it evolved. Nothing worth reading has been written on it. “ Tandis que des autres chercheurs qu’il cite, se heurtent aux limites de leurs recherches respectives quant à l’unité de la conscience. Il note la contribution de Michael Gazzaniga sur le fait que possiblement la conscience se manifeste à travers plusieurs processus selon les hémisphères cérébraux (alternant des processus cognitifs entre l’hémisphère droit et gauche). Aussi celle de Benjamin Libert qui fait des expériences en lien avec le libre arbitre et les mouvements volontaires. La deuxième étape dans l’évolution des études sur la conscience commence dans les années 1990 jusqu’au moment présent. Cette période est marqué par les études de Christoph Koch dont le papier “Towards a neurobiological theory of consciousness” inspirent la voie de ce qu’aujourd’hui s’appelle “the hard problem of consciousness” ou la simulation neurobiologique de la conscience comme processus purement physiologique. Seth mentionne également Karl Friston dont le principe d’énergie libre (Free Energy Principle- FEP) renforce l’hypothèse que la perception est influencée par l’action, au niveau neuronal. Devenu entre-temps principe normatif qui décrit les systèmes adaptatifs capables d’auto-organisation, le FEP est sujet à des nombreux débats dans la communauté scientifique, notamment en lien avec le concept de représentation ou modification interne propre aux organismes vivants (cite pezzulo et sims) . Relation conscience-action Dans le chapitre “What’s the use of consciousness” du livre The Pragmatic Turn Toward Action-Oriented Views in Cognitive Science, résultat d’une semaine de débats entre neurologues, psychologues et philosophes, Anil Seth décrit une nouvelle approche dans les sciences cognitives qui vise le rôle de l’action dans les processus cognitives et implicitement la conscience. A l’opposé des représentations internes suite au calcul mental, l’action favorise une vision énactée (enacted), ancrée (embedded) et incorporée (embodied) de systèmes cognitifs. Pour Seth, cela marque une tournure pragmatique dans l’évolution de ces sciences et leur vécu expérientiel associé. Avec ses collègues, ils établissent quatre approche théoriques clé, pour mieux définir leur cadre: 1/ le cerveau Baesyian (Baesyian brain) - cette approche définit la perception comme un processus d’inférence des signaux sensorielles; elle définit aussi le rôle des erreurs comme moyen d’affiner cette inférence 2/ la contingence sensori-motrice (sensorimotor contingency- SMC)- pour cette approche, la perception est une capacité d’engagement dans l’environnement qui s’améliore avec le temps 3/ le système de control adaptatif-distributif(distributed adaptive control- DAC)- envisage le cerveau comme outil incorporé en relation avec l’environnement 4/ l’autonomie énactée est un principe qui stipule l’importance de l’autonomie et de l’auto-organisation pour la cognition, en lien avec le travail du neurologue Francesco Varela. Une de leurs questions principales est “Comment l’action structure la conscience et qu’est ce que détermine la cognition de l’action?”(cite page 262) Schema of theoretical frameworks qui ont servi comme discussions pour la relation action-conscience. P 266 Frist La boucle perception-action-cognition Toujours dans le même chapitre, les chercheurs Chris D. Frith et Thomas Metzinger partent de l’idée que la conscience en tant qu’expérience subjective, influence certains comportements. Ainsi ils abordent la question de la conscience du point de vue de la théorie de l’évolution, en précisant que sa présence, détectée chez certains animaux et humains, implique un “certain avantage évolutif”. Ils identifient la relation perception-action-cognition comme cadre d’exploration pour les expériences subjectives: “conscious experience could then be a single, generative model of reality including a mode of the self as currently acting, perceiving, and thinking.” (friston, p.194) Dans le monde des machines, les résultats les plus concluants pour illustrer des processus mentaux sont dans le domaine de l’intelligence artificielle. Avant de comprendre ce qu’est la conscience artificielle, nous nous appuyons sur les résultats et les problématiques propres à ce domaine. Homéostasie physiologique, IA et autopoièse Le philosophe et psychologue Zoltan Torey, décrit dans son livre “The crucible of consciousness” la difficulté des scientifiques d’argumenter l’existence de la conscience, au-delà du formalisme mathématico-logique. Pour lui le formalisme est seulement une spécification des opérations et transactions neuronales dans le cerveau. Ces opérations deviennent des instances de protocoles pour des machines. Mais, comme le remarque Roger Penrose, que Torey cite: “Algorithms themselves never ascertain truths. It would be as easy to make an algorithm produce nothing but falsehood as it would be to make it produce truths. One needs external insights to decide the validity or otherwise of an algorithm.” Ces “discriminants externes” sont pour Torey, la preuve même que les systèmes gouvernés par ce formalisme sont incomplets. De plus, il extrapole sa démonstration à tout système formel- mathématique, logique ou philosophie analytique, en précisant que le cerveau qui a généré ces formalismes par des opérations mentales ne peut pas être modélisé par un ordinateur- puisque que cet ordinateur ne génère pas des autres systemes à son tour. Cela rejoint, au moins en partie, la visions de Michel Bitbol pour qui l’expérience phénoménologique de la conscience ne peut pas être vérifié par des critères: “ nous n’avons rigoureusement aucun critère nous permettant de savoir, ni même de deviner, qu’un artéfact fabriqué par nous est ou n’est pas doté de conscience phénoménale. Il est vrai que nous pourrions tomber dessus par hasard, et mettre en place les conditions d’une conscience phénoménale sans le faire exprès; mais dans ce cas, nul signe, pas le plus petit indice, ne nous permettrait de savoir que nous avons réussi (ou de savoir le contraire). C’est ce que signale à juste titre le neurobiologiste Jesse Prinz : « À quel degré de proximité avec le cerveau humain un ordinateur doit-il parvenir, avant que nous puissions dire qu’il est probablement conscient ? Il n’y a aucune manière de répondre à cette question. »” La conscience artificielle : Une critique pensée et vécue. Michel Bitbol Archives Husserl, France Chroniques Phénoménologiques, 2018 Pour aller plus loin, des chercheurs (citer art multitudes) sintérrogent sur la façon dont notre société s’est emparé du phénomène de l’intelligence artificielle, notamment sa branche connexionniste avec ses prédictions calculées et des ouvriers à la tâche qui nourrissent des algorithmes de machine learning. Puisque cela se répercute dans toutes les domaines de nos vies, ils prônent une culture critique de l’IA, et les biais statistiques que cela engendre, en prenant conscience du fait que “nous sommes les sens et la conscience des machines”. Ainsi la perspective d’une “weak AI” (où les programmes simulent et modélisent la pensée humaine), prédomine celle de “strong AI”(où les programmes “pensent” par elles-mêmes). De la même manière, le neurologue Stanislas Dehaene considère que les processus inconscients, sont la preuve que la conscience ne peut-pas être modélisée: “We cannot be conscious of what we are not conscious of”. This truism has deep consequences. Because we are blind to our unconscious processes, we tend to underestimate their role in our mental life. However, cognitive neuroscientists developed various means of presenting images or sounds without inducing any conscious experience and then used behavioral and brain imaging to probe their processing depth(...) Subliminal digits, words, faces, or objects can be invariantly recognized and influence motor, semantic, and decision levels of processing. Neuroimaging methods reveal that the vast majority of brain areas can be activated nonconsciously.” What is consciousness, and could machines have it? Stanislas Dehaene, Lau H, Kouider S, revue Science, 2017 Pour mieux illustrer le concept d’intelligence artificielle, nous faisons référence aux raisonnements de la philosophe Catherine Malabou. Pour elle, il s’agit d’une relation de coopération entre humain et machine: “J’ai refusé dès le début de me placer dans l’optique d’une compétition entre homme et machine. C’est la façon de voir la plus courante, je la laisse à d’autres et préfère tenter d’ouvrir une autre voie. En effet, choisir la compétition, c’est perdre à tous les coups. Car la mise en concurrence homme/machine est un faux problème. Pour de multiples raisons. J’en évoquerai une seule ici. Croire qu’il existe une réalité humaine intacte de toute aliénation technologique est une illusion qui s’effondre facilement dès que l’on prend en compte le fait que le cerveau humain – parlons de lui puisque c’est bien de lui qu’il s’agit – s’est développé épigénétiquement dans son interaction avec les artefacts. Leroi-Gourhan l’explique magnifiquement. Du silex à la cybernétique, le mécanisme de l’interaction est le même. Notre cerveau ne peut fonctionner qu’à se mettre au dehors, à prolonger son système par des prothèses (cf. « l’exorganologie » de Bernard Stiegler), au point qu’il est impossible de faire la part, dans l’évolution cérébrale des hommes depuis la préhistoire, entre nature et technique. Un cerveau qui ne serait pas prolongé par des artifices serait un cerveau mort.” Malabou souligne la distinction entre le concept philosophique d’intellect et celui d’intelligence, dont l’apparition est plutôt liée au Bergson et au développement de la psychologie expérimentale en fin de XIXe siècle. Elle défend un point de vue matérialiste selon lequel: “l’esprit, l’entendement, disons toutes les fonctions intellectuelles, comme on voudra les appeler, sont étroitement dépendantes des bases matérielles et organiques sur lesquelles elles reposent. Ayant beaucoup travaillé sur le cerveau, je suis convaincue qu’il n’existe pas de lieu séparé qui abriterait les opérations mentales et cognitives, elles dérivent toutes de processus neuronaux. Il est donc impossible de ne pas associer intelligence et cerveau.” Cependant, réduire l’intelligence humaine a du calcul mathématique et des termes quantitatifs, n’a pas de sens pour elle, sauf si ce calcul invente les concepts sur lesquels il résonne. Plus spécifiquement, elle propose comme définition minima de l’intelligence “l’invention de son objet”. Dans un entretien avec Catherine Malabou, le cinéaste Ariel Kyrou cite le livre “Cerveau augmenté, homme diminué” du philosophe Miguel Benasayag pour qui « la pensée n’est pas déposée dans les réseaux de neurones comme un software figé installé dans le hardware. Elle est distribuée dans le corps et dans le milieu, dans l’échange entre l’un et l’autre, ainsi que dans l’histoire – s’inscrivant ainsi dans une évolution complexe qui n’a aucun rapport avec celle des versions successives de logiciels enrichis de nouvelles lignes de code informatique (2.0, 2.1, 2.12, etc.). » Pour Kyrou l’aboutissement de tout cela sera une IA qui arrive par elle-même à définir son sujet de recherche. Puis il évoque ce qu’il identifie comme différences entre sa pensée et celle de Malabou, notamment du point de vue des conséquences que les avancées de la recherche en IA apporteront. Il évoque également ce qu’ils partagent comme opinions autour de trois axes: “la façon dont les « techniques », du silex à l’écriture et dorénavant au monde numérique, contribuent à fabriquer et à faire évoluer notre cerveau, comme l’ont montré l’archéologue et ethnologue André Leroi-Gourhan et sur un registre philosophique selon moi déterminant Bernard Stiegler ; la nécessité d’éviter tout réductionnisme, d’où qu’il vienne, qu’il se veuille scientifique, psychologique ou philosophique ; et enfin l’importance cruciale de laisser grandes ouvertes les portes du futur, c’est-à-dire de ne jamais réduire l’avenir à une voie unique, qui serait connue d’avance des « sachant » de toutes obédiences.”(citer Kyrou) La perspective théorique que dans un futur plus ou moins lointain, un autre type d’intelligence- plurielle, imprévisible et complémentaire à l’intelligence humaine- verra le jour. Ainsi l’intelligence artificielle connexionniste transpose le modèle des réseaux de neurones et leur façon de traiter l’information basée sur des calculs à des machines, tandis que l’intelligence artificielle symbolique traite cette information par la manipulation de symboles en explorant des données massives sur le comportement humain. Hémisphère droite comme symbole de la créativité Hémisphère gauche comme symbole de la pensée analytique 2.1.2 Embodiment. Body schema vs. Body image Le début des années 1990 est marqué par la publication de plusieurs ouvrages comme celles de Brooks, Dreyfus et Varela, Thompson & Rosch. Plusieurs de ces ouvrages mentionnent le terme de cognition incarnée- Embodied Cognition qui englobe des notions en sciences cognitives, informatique et phénoménologie mais aussi linguistique et mysticisme oriental parmi autres. TRente ans plus tard, l’artiste et chercheur Simon Penny va plus loin dans l’appréhension du phénomène de la conscience en le liant à celui de la cognition: “Cognition is held not to occur (exclusively) in the head or necessarily in some immaterial space of logical manipulation of symbolic tokens. These approaches propose, in different ways, that cognition is embodied; integrated with non-neural bodily tissues; or extends into artifacts, the designed environment,social systems, and cultural networks (...) We cannot meaningfully speak of intelligence as occurring exclusively inside the skull, connecting to the body and the world via mechanistic sensors and effectors. On the contrary, cognition is biologically material and embodied, and discussing it outside such contexts is of dubious value. Furthermore, cognition is dynamic; it occurs as a temporally ongoing relational engagement with architectures, artifacts, tools, language, human (and interspecies) relationships, and social systems. (...) The computer is a machine for manipulating symbols. The world is not symbols; we turn the world into symbols for the computer. Humans are the analog to digital interface between the world and the internet. The world remains outside the computer and outside the symbolic, but under the hegemony of the digital, the conflation of the products of computing with the world, bizarrely, goes unremarked.” Simon Penny in Making Sense: Cognition, Computing, Art, and Embodiment (2019) How the body shapes the mind Dans son livre, Gallagher présente le rôle du schéma corporel dans une gamme de fonctions cognitives perceptives, parmi lesquelles la différenciation de soi et des autres. “In the beginning, that is, at the time of our birth, our human capacities for perception and behavior have already been shaped by our movement. Prenatal bodily movement has already been organized along the lines of our own human shape, in proprioceptive and cross-modal registrations, in ways that provide a capacity for experiencing a basic distinction between our own embodied existence and everything else. As a result, when we first open our eyes, not only can we see but also our vision, imperfect as it is, is already attuned to those shapes that resemble our own shape. More precisely and quite literally, we can see our own possibilities in the faces of others. The infant, minutes after birth, is capable of imitating the gesture that it sees on the face of another person. It is thus capable of a certain kind of movement that foreshadows intentional action, and that propels it into a human world. “ (p.1) Dans son livre “How the body shapes the mind”, le philosophe Shaun Gallagher avance l’idée que la compréhension scientifique et phénoménologique du corps est essentielle pour comprendre des phénomènes tels que la conscience ou la cognition. Son approche vise à développer un vocabulaire commun inspiré par “les processus cérébraux en neurosciences, les expressions comportementales en psychologie, les préoccupations de conception en intelligence artificielle et en robotique, et les débats sur l’expérience incarnée dans la phénoménologie et la philosophie de l’esprit”. Entre outre, son livre traite des phénomènes tels l’apprentissage de nouveau-nés par l’imitation, la conscience de soi, le libre arbitre, la cognition sociale et l’intersubjectivité, la perception intermodale pour en citer quelques-unes des thématiques abordées. Gallagher aborde ces sujets au travers des concepts comme l’’image corporelle et le schéma corporel, la proprioception et la théorie de l’enactivisme. Une de ses hypothèses est la théorie de l’ancrage physique ou the physical grounding hypothesis (PGH) en anglais. Cette théorie stipule que le contenu et le fonctionnement de l’esprit sont fondés sur les propriétés physiques et l’expérience incarnée de l’agent. Loin de promouvoir l’influence du physique sur le mental, Gallagher souligne la complexité des facteurs impliquées dans toute explication adéquate de la cognition. Plus loin, le chercheur décrit le concept de schéma corporel et sa différence par rapport à l’image corporelle. Ainsi dans son acceptation le schéma corporel est un système de capacités sensori-motrices, englobant tous les aspects non-conscients du contrôle moteur, y compris les processus sous-corticaux, pré-moteurs et moteurs dans le cerveau. Il mentionne également les systèmes d’information nécessaires au bon fonctionnement de ces processus. Il distingue le concept de schéma corporel de celui d’’image corporelle vu comme résultat des expériences perceptives du corps. Gallagher distingue les différences entre les deux termes au niveau conceptuel, mais aussi au niveau empirique donnant l’exemple d’un patient qui dans un état de négligence ne se préoccupe de son image de soi pour se laver ou s’habiller. Cependant ses capacités motrices telles que la marche ou les tâches bimanuelles telles restent intactes et il les exerce. Cela montre que même si l’image corporelle est altérée ou endommagée, le schéma corporel reste intact. De même, les sujets qui ont perdu un membre ont la capacité de le ressentir (citer the limb phanom theory). Plus loin, Gallagher illustre le cas des malformations congénitales, où le membre fantôme est signalé quelques années après la naissance, d’habitude après une intervention chirurgicale, un accident ou un autre événement corporel important. Ainsi la probabilité qu’un schéma corporel ou une image corporelles soient innés, est très réduite. Dans les cas de membres fantômes, des informations contradictoires entre la proprioception (qui pourrait indiquer la présence d’un membre) et la vision (qui l’infirme) se basent sur la vision. 2.1.3 Théories sur l’enaction Les paradigmes sur l’énaction (enactive theory) ont émergé avec la publication du livre The Embodied Mind que nous avons déjà mentionné plus haut. Cette théorie stipule que les expériences perceptives ne sont pas des événements internes dans notre tête, mais plutôt des actions que nous produisons à travers notre exploration sensorimotrice de l’ environnement. Dernièrement les sciences cognitives se sont orientées vers l’autonomie biologique et la subjectivité comme concepts clés de la cognition incarnée (cite Ziemke AI). 2.1.4 Anthropomorphism. Animacy and animacy Pourquoi l’intelligence a besoin d’un corps ? Dans leur livre “How the body shapes the way we think, Rolf Pfeifer et Josh Bongard soulignent l’importance de la morphologie du corps et ainsi de l’embodiment sur l’intelligence d’un système. Leur point de départ est le fonctionnement humain qu’ils extrapolent aux machines, avec l’idée que pour être intelligent, nous avons besoin d’un corps physiques: “One of the most elementary capacities of any creature is categorization: the ability to make distinctions in the real world. If we cannot distinguish food from nonfood, dangerous from safe objects and situations, our parents from other people, or our home from the rest of the world, we are not going to survive for very long. Likewise, robots incapable of making basic distinctions, e.g., a household robot that cannot distinguish garbage from antiques, a vacuum cleaner from a dishwasher, or pets from babies will not be very useful. We will attempt to demonstrate that the formation of such categories is very directly determined by our embodiment, i.e., our morphology and the material properties of our body. Morphology includes the shape of the body, the kinds of limbs and where they are attached, the kinds of sensors (eyes, ears, nose, skin for touch and temperature, mouth for taste) and where on the body they are found. By material properties we mean, for example, the deformability of the fingertips and of the skin, or the elasticity of the muscle-tendon system. When interacting with the real world, the body is stimulated in very particular ways, and this stimulation provides, in a sense, the raw material for the brain to work with. As we will see later, this raw material can be used to create categories—cups, apples, pets, people—that describe the environment in a natural way.” (How the body, p.2) Indépendamment des multiples perspectives et définitions impliquées dans le concept d’ intelligence, ce que Pfeifer et Bongard considèrent intuitivement comme intelligent est investi par deux caractéristiques: la capacité d’adaptation et la diversité. Plus concrètement, les agents intelligents se conforment toujours aux exigences physiques et les règles sociales de leur environnement, et exploiter ces règles pour produire différents comportements selon le contexte: “All animals, humans, and robots have to comply with the fact that there is gravity and friction, and that locomotion requires energy: there is simply no way out of it. But adapting to these constraints and exploiting them in particular ways opens up the possibility of walking, running, drinking from a cup, putting dishes on a table, playing soccer, or riding a bicycle. Diversity means that the agent can perform many different types of behavior so that he—or she or it—can react appropriately to a given situation. An agent that only walks, or only plays chess, or only runs is intuitively considered less intelligent than one that can also build toy cars out of a Lego kit, pour beer into a glass, and give a lecture in front of a critical audience. Learning, which is mentioned in many definitions of intelligence, is a powerful means for increasing behavioral diversity over time.” (Rolf Pfeifer et Josh Bongard p.16) Le libre arbitre vs “the readiness potential” Pour aller plus loin et illustrer leur point de vue sur la dualité corps-esprit, ils citent l’expérience du neurologue Benjamin Libet qui, avec ses collègues, investigue les phénomènes qui opérant dans le cerveau au moment où une action intentionnelle a lieu. Plus spécifiquement, l’expérience demande aux participants de bouger leur doigt spontanément, quand ils veulent. En parallèle, ils regardent une horloge avec un point de lumière tournant, afin d’indiquer l’endroit où est le point sur l’horloge lorsqu’ils prennent leur décision consciente de vouloir exécuter un mouvement de doigt. Pendant ces instructions, Liebt et son équipe analysent l’activité cérébrale avec des capteurs d’électroencéphalographie (EEG) et mesurent le mouvement réel des doigts avec des capteurs électromyographiques (EMG). Leurs résultats prouvent que le début de l’activité cérébrale commence plus d’une demi-seconde avant le mouvement réel des doigts et plus de 300 ms avant que les sujets ne prennent conscience qu’ils veulent bouger leur doigt. Ils définissent alors le facteur de “readiness potential” (potentiel de préparation) - pour illustrer le fait que la volonté consciente de bouger le doigt se produit un intervalle significatif après le début de l’activité cérébrale pertinente. Cette expérience démontre que le concept de libre arbitre est plus complexe à définir que ce que nous entendons par “décisions consciente” et influe sur les débats actuels concernant l’intelligence artificielle. Si 40 ans après cette expérience, il nous est toujours difficile de modéliser le facteur de “readiness potential” , rendre des robots capables de prendre des décisions “conscientes” reste un défi. Cependant cela n’empêche pas la communauté scientifique d’imaginer d’ autres pistes d’exploration et hypothèses de recherche. Une de ces pistes réside dans l’importance de l’interaction avec l’environnement. Si un agent ou un système à un corps physique (is embedded), il est soumis aux lois de la physique qui impliquent de s’habituer à la gravité et aux forces de friction, ainsi qu’à l’approvisionnement en énergie pour survivre. Ainsi cela pose de nouveaux défis pour ce qu’il y a de capacité d’adaptation et des multiples négociations entre les calculs internes et des actions directes: “the real importance of embodiment comes from the interaction between physical processes and what we might want to call information processes. In biological agents, this concerns the relation between physical actions and neural processing—or, to put it somewhat casually, between the body and the brain. The equivalent in a robot would be the relation between the robot’s actions and its control program.” (Rolf Pfeifer et Josh Bongard p.18) Pour illustrer cela, ils font une comparaison entre l’action d’attraper un verre par un humain et par un robot. Si pour l’humain, le tissu de ses bout des doigts s’adapte à la forme du verre, le calcul de forces à appliquer se fait en conséquence. Cependant pour une main de robot le tissu est rigide, il n’y a pas cette possibilité d’adaptation et plus souvent le verre se casse car la force appliquée n’est pas la bonne. Ainsi ils argumentent l’hypothèse que l’intelligence humaine est distribuée dans tout le corps, et pas que dans le cerveau. Concernant la capacité de robots d’entreprendre des actions, traduit ici comme détermination de l’anglais agency, Ziemke affirme: “The idea behind this approach can be summarized by the slogan that ‘perceiving is a way of acting’; or more precisely, “what we perceive is determined by what we do (or what we know how to do)” . In other words, it is claimed that perception is a skillful mode of exploration of the environment which draws on an implicit understanding of sensorimotor regularities, that is, perception is constituted by a kind of bodily know-how. In general, the sensorimotor account emphasizes the importance of action in perception. The capacity for action is not only needed in order to make use of sensorimotor skills, it is also a necessary condition for the acquisition of such skills since “only through self -movement can one test and so learn the relevant patterns of sensorimotor dependence” . Accordingly, for perception to be constituted it is not sufficient for a system to simply undergo an interaction with its environment, since the exercise of a skill requires an intention and an agent (not necessarily a ‘homunculus’) that does the intending. In other words, the dynamic sensorimotor approach needs a notion of selfhood or agency which is the locus of intentional action in the world.” (Ziemke IA p. 473) Pour continuer cette idée, le chercheur se demande si les boucles sensorimotrices disposent des moyens conceptuels pour distinguer les actions intentionnelles d’un agent autonome des mouvements accidentels . 2.2 L’Effet du mouvement et du toucher sur l’acceptation des robots Qu’il s’agisse d’un objet mobile avec une source d’énergie, programmé pour « sentir » et « interagir » avec son environnement (cite A. Mayor, Gods and robots: myths, machines) ou d’un agent capable de percevoir son environnement par des capteurs et agissant sur cet environnement par l’intermédiaire d’effecteurs (selon la définition de Russell et Norvig dans leur sur papier l’intelligence artificielle citée par Pfeifer et Bongard), les robots ont fait immersion dans notre réalité depuis quelques décennies déjà. Indépendamment du fait qu’ils exécutent du travail utile pour les humains comme imaginé initialement par l’écrivain tcheque qui a donné leur nom (cite kopek), leur place dans notre société est désormais acquise. Cependant, nous attendons de ces robots qu’ils fassent précisément ce que nous voulons qu’ils fassent, avec l’espoir qu’un jour ils seront capables de nous surprendre en proposant des idées ou des comportements inattendus par eux-mêmes. 2.2.1 La robotique basée sur le comportement. Behavior-based robotics (BBR) La robotique basée sur le comportement s’inspire des systèmes biologiques et souvent du monde animal (comportement des insectes) pour construire des dispositifs réactifs à l’environnement. Un des caractéristiques les plus importantes de cette discipline est l’adaptabilité des systèmes qui en font partie. Ainsi, les robots basés sur le comportement (BBR) sont moins dotés avec de la puissance de calcul pour réaliser des des actions et leur comportement émerge des interactions qu’ils ont avec l’environnement. Le type d’intelligence artificielle qui opère dans ces systèmes est inspiré par la branche faible de l’AI. Leur programmation contient un set de base de comportements spécifiques, selon l’environnement où ils opèrent et les problèmes qu’ils doivent résoudre. Quand un comportement n’est pas adapté à un contexte particulier, ils s’appuient sur des erreurs pour améliorer leur modèle interne. Le fondateur de cette discipline est Rodney Brooks, qui par ses expérimentations au Massachusetts Institute of Technology, dans les années 1980, a mis les bases de la robotique basée sur le comportement. Ses premiers robots, construits à roues et à pattes, ont été construits suite à ses observations des comportements anthropomorphiques - éviter un obstacle, s’approcher d’une source de lumière, chercher à économiser sa batterie lors de longs trajets etc. Une des influences de Brooks est le travail de neurophysiologiste et pionnier de la robotique W. Gray Walter. Fin des années 1940, Gray Walter a développé un certain nombre de robots simples basés sur des comportements ressemblant à des animaux. Ces prototypes de robots ont aidé Gray Walter à mieux comprendre le fonctionnement du cerveau des animaux, par des modèles simples de leurs opérations de base. Les plus connus sont Elmer et Elsie (abréviation de ELectro MEchanical Robots, Light Sensitive), recouverts d’une coque en plastique transparent similaire aux tortues. Enfant, Brooks a lu son livre- The Living Brain, pour ensuite construire ses propres prototypes. Connu pour sa critique de l’IA symbolique, Brooks voit la logique et le raisonnement comme des processus mentaux propres aux humains. Au lieu de se focaliser sur le traitement des symboles, les représentations internes et la cognition, il propose de construire des modèles basés sur l’interaction avec le monde réel. Ces modèles ont inspiré les théories sur l’incorporation (embodiment) et l ’intelligence incarnée. Schema distributed intelligence Brooks; À leur tour, ces théories ont donné suite à des innovations dans le domaine de l’intelligence artificielle au cours des trois dernières décennies. Selon (cite Ziemke), l’approche de l’intelligence incarnée (embodied AI) s’est imposée comme une méthodologie fiable pour comprendre la cognition et ainsi résoudre les problèmes fondamentaux et paradoxes de l’IA traditionnelle tels The Chinese Room Argument mentionné plus haut. 2.2.2 Cognitive developmental robotics “Ce processus de reconnaissance de soi est de plus en plus étudié en robotique pour mimer le développement des capacités motrices et d’interaction sociale chez l’enfant. Mais de telles corrélations statistiques entre ce qui est perçu par les caméras du robot et ses ordres moteurs peuvent être calculées sans une quelconque notion de conscience de soi. Ici, la mesure du degré d’information intégrée dans le programme informatique du robot apporterait une réponse quantitative et précise sur le degré de conscience attendu en lien avec un tel processus.” prof. Raja Chatila, ISIR et le test du miroir, 2016 Prof. Asada supervise également des études sur le développement de l’empathie artificielle et le rôle de la “contagion émotionnelle” dans la mimique motrice. Il implémente des processus de cognition que les bébés développent dans leurs premiers mois, à des robots artificiels. L’évolution corporelle et la croissance des humains est pour lui un des concepts clé de la robotique cognitive. “Cognitive Developmental Robotics aims at understanding human cognitive developmental process by synthetic or constructive approaches. Its core ideas are "physical embodiment" and "social interaction" that enable information structuring through interactions with the environment, including other agents.” prof. Minoru Asada, SISReCPost-cognitivisme 2.2.3 Artificial emotions and sociable robots 2.2.4 Symmetry and synchrony Le rôle du mouvement sur la conscience de soi Le chercheur Tom Ziemke, professeur en cognitive system spécialiste dans la recherche de formes incarnées de conscience ou embodied cognition parle de la relation entre l’IA incarnée dans des dispositifs physiques et la biologie synthétique. Selon lui, un programme qui assure une relation entre le robot et son environnement via des capteurs et actionneurs, représente une forme d’IA incarnée. Son travail, inspiré par F.J. Varela, lie l’intelligence à l’état d’ autopoiese comme façon d’organiser la vie. Ziemke se demande si la conscience est essentiellement liée au domaine du vivant, ou si tout système autonome auto-référentiel est capable d’une forme de conscience. >>>>>>> 80af162 ([txt] Unix line endings)