ok jusqu 71
This commit is contained in:
parent
2d3fc8dcb4
commit
011b4e7518
|
@ -425,43 +425,38 @@ Dans son introduction au livre dédié à cette hypothèse\cite{Menary}, la posi
|
|||
|
||||
\subsection{La boucle perception-action-cognition}
|
||||
|
||||
Les chercheurs Chris D. Frith et Thomas Metzinger\cite{livre metzinger} avancent l’idée que la conscience en tant qu’expérience subjective, peut influencer certains comportements. Ils abordent cela du point de vue de la théorie de l’évolution, en précisant que la présence de la conscience, détectée chez certains animaux et humains, implique un ``certain avantage évolutif”. De cette manière, la relation perception-action-cognition devient un cadre d’exploration pour ces expériences subjectives:
|
||||
Selon cette hypothèse, la cognition est le résultat du couplage entre la perception et l'action d'un sujet sur son environnemt.
|
||||
Les chercheurs Chris D. Frith et Thomas Metzinger\cite{livre metzinger} avancent l’idée que la conscience, en tant qu’expérience subjective et auto-reflexive, détermine les comportements. Ils remarquent que du point de vue de la théorie de l’évolution, la présence de la conscience, détectée chez certains animaux et humains facilite une meilleure intégration et maîtrise de son environnemt. De cette manière, la relation perception-action-cognition devient le cadre d’exploration idéal pour les expériences subjectives:
|
||||
\begin{quote}
|
||||
``conscious
|
||||
experience could then be a single, generative model of reality including a mode
|
||||
of the self as currently acting, perceiving, and thinking.” (friston, p.194)
|
||||
\end{quote}
|
||||
|
||||
Dans le livre \textit{4E Cognition: Historical Roots, Key Concepts, and Central Issues}, Albert Newen, Shaun Gallagher, and Leon De Bruin offrent une perspective globale sur cela. Le chapitre \textit{Brain–Body–Environment Coupling and Basic Sensory} explore le concept d’intentionnalité comme caractéristique propre de cette approche.
|
||||
Ainsi, selon l'hypothèse pour laquelle la perception est orientée vers l’action, l’intentionnalité motrice dévient un des facteurs qui la facilité :
|
||||
Dans le livre \textit{4E Cognition: Historical Roots, Key Concepts, and Central Issues}, Albert Newen, Shaun Gallagher, and Leon De Bruin offrent une perspective globale sur . Le chapitre \textit{Brain–Body–Environment Coupling and Basic Sensory} explore le concept d’intentionnalité comme caractéristique de la conscience. Ainsi, selon l'hypothèse pour laquelle la perception est orientée vers l’action, l’intentionnalité motrice dévient un des facteurs clé :
|
||||
\begin{quote}
|
||||
``The notion that perception is action-oriented leads to a consideration of a very basic motor intentionality —a concept that derives from phenomenology (e.g., Merleau-Ponty 2012), but that can also be found in pragmatists such as John Dewey. As Robert Brandom notes, citing Dewey, \textit{the most fundamental kind of intentionality (in the sense of directedness toward objects) is the practical involvement with objects exhibited
|
||||
by a sentient creature dealing skillfully with its world}(2008, p. 178). This captures a form of intentionality that is built into skillful bodily movement in tandem with environmental demands.”
|
||||
``The notion that perception is action-oriented leads to a consideration of a very basic motor intentionality —a concept that derives from phenomenology (e.g., Merleau-Ponty 2012), but that can also be found in pragmatists such as John Dewey. As Robert Brandom notes, citing Dewey, \textit{the most fundamental kind of intentionality (in the sense of directedness toward objects) is the practical involvement with objects exhibited by a sentient creature dealing skillfully with its world}(2008, p. 178). This captures a form of intentionality that is built into skillful bodily movement in tandem with environmental demands.”
|
||||
\end{quote}
|
||||
|
||||
Pour moi, ce genre d’intentionnalité qui n'est pas le résultat d’un processus mental, peut devenir représentatif pour le geste dansé, mais aussi pour les robots. Alternativement, la notion d’incarnation, telle qu’elle est définie dans la théorie 4E, nécessite un couplage complexe entre cerveau, corps et environnement. D'une façon analogue, ce couplage est aussi la base de tout système robotique où les processus de computation internes sont en lien direct avec l’environnement.
|
||||
Pour moi, ce genre d’intentionnalité qui n'est pas le résultat d’un processus mental, mais de l'acquisition d'une maîtrise est aussi représentatif pour le geste dansé, mais aussi pour les robots qui exécutent avec précision des taches répétitives. Alternativement, la notion d’incarnation, telle qu’elle est définie dans la théorie 4E, nécessite un couplage complexe entre cerveau, corps et environnement. D'une façon analogue, ce couplage est aussi la base de tout système robotique où les processus de computation internes sont en lien direct avec l’environnement.
|
||||
|
||||
La théorie 4E de la cognition est considérée par la communauté scientifique comme la plus récente tentative de structurer ces approches et renouveler les avancées théoriques du début de XXe siècle.
|
||||
C’est également important de remarquer le fait que ces nouveaux paradigmes et concepts ont également facilité l’apparition des nouvelles disciplines comme:
|
||||
La théorie 4E de la cognition est considérée par la communauté scientifique, comme la plus récente tentative de structurer les approches et renouveler les avancées théoriques du début de XXe siècle. C’est tout autant important de remarquer comment ces nouveaux paradigmes et concepts ont facilité l’apparition des nouvelles disciplines comme:
|
||||
\begin{itemize}
|
||||
\item la philosophie de l’esprit, en anglais \textit{philosophy of mind}, dont la question centrale est la relation entre corps, esprit et leur ancrage dans l’environnement,
|
||||
\item la philosophie des sciences, en anglais \textit{philosophy of mind}, qui étudie la nature même de l’activité scientifique et ses spécificités,
|
||||
\item la philosophie des sciences, en anglai \textit{philosophy of mind}, qui étudie la nature même de l’activité scientifique et ses spécificités,
|
||||
\item l’épistémologie, du grec \textit{épistemos} qui veut dire science et \textit{logos} qui veut dire discours, dont l’objet est l’analyse critique d’une science en particulier, du point de vue de son évolution, sa valeur, et sa portée scientifique et philosophique.
|
||||
\end{itemize}
|
||||
|
||||
Au sens large, elles ont également contribué à l'avènement des disciplines connexes, tels \textbf{les études sur la conscience}, dont les débats et arguments ont suivi de prêt ceux sur la cognition.
|
||||
|
||||
|
||||
Les débats sur la cognition ont aussi contribué à l'avènement des disciplines connexes, tels \textbf{les études sur la conscience}, dont les dilemmes l'ont suivi de prêt.
|
||||
|
||||
|
||||
\section{Définitions de la conscience}
|
||||
|
||||
Avant de comprendre ce qu’est la conscience artificielle, nous nous interrogeons sur les caractéristiques de la conscience humaine.
|
||||
Souvent nous disons qu’un organisme vivant est \textbf{conscient lorsqu’il est éveillé}. Quelle sera alors le qualificatif pour les robots ou d’autres types d’organismes artificiels?
|
||||
Avant de comprendre ce qu’est la conscience artificielle, nous nous interrogeons sur les caractéristiques de la conscience humaine. Souvent nous disons qu’un organisme vivant est \textbf{conscient lorsqu’il est éveillé}. Quelle sera alors le qualificatif pour les robots ou d’autres types d’organismes artificiels?
|
||||
|
||||
Nous partons de l’hypothèse que pour les organismes vivants, chacun a son propre ressenti concernant sa conscience. Si pour l’intelligence, des propriétés tels : calcul mental, apprentissage et mémoire arrivent à mieux la définir, nous avons vu plus haut que pour la conscience ce qui est important c’est l’expérience subjective immédiate ou la \textit{qualia}.
|
||||
En parallèle avec l’intelligence, des processus comme la perception et la motricité sensorielle, la capacité de prédire l’environnement ou de témoigner des comportements complexes, structurent notre imaginaire autour de cette notion. Étant donné l’imprécision des concepts et la multiplicité des points de vue selon les disciplines, il semble peu probable que nous nous mettions d’accord sur une seule définition de la conscience dans notre étude.
|
||||
Ce qui m'intéresse plutôt, est de comprendre dans quelle mesure le dualisme corps-esprit et le matérialisme trouvent un écho dans l’exercice artistique que nous imaginons. Cet exercice prend appui sur plusieurs concepts propres à chaque vision (dualiste ou moniste) dans une tentative de les homogénéiser.
|
||||
Des propriétés tels : calcul mental, apprentissage et mémoire, arrivent à mieux définir l’intelligence humaine. Nous partons de l’hypothèse que chacun a son propre ressenti concernant sa conscience, du moins pour les organismes vivants intelligents. L’expérience subjective immédiate ou la \textit{qualia} est ce qui détermine cette expérience de conscience.
|
||||
En parallèle avec l’intelligence, des processus comme la perception et la motricité sensorielle, la capacité de prédire l’environnement ou de témoigner des comportements complexes, structurent notre imaginaire autour de cette notion. Étant donné l’imprécision des facteurs subjetctifs à prouver leur objectivité, ensuite la multiplicité des points de vue selon les disciplines qui adressent cette question, il semble peu probable que nous allons identifier la bonne définition de la conscience dans notre étude.
|
||||
Ce qui m'intéresse plutôt, est de comprendre dans quelle mesure le matérialisme et le pragmatisme, trouvent un écho dans la vision artistique que nous proposons. Cet exercice prend appui sur plusieurs concepts propres à chaque vision (dualiste ou moniste) dans une tentative de les homogénéiser.
|
||||
|
||||
|
||||
Puisque les débats sur la conscience, comme ceux sur la cognition se heurtent
|
||||
|
@ -476,28 +471,28 @@ Pour cela nous nous appuyons sur la littérature\cite{livre Firston et art Anil
|
|||
|
||||
Un premier critère est celui du niveau de conscience, propre aux créatures vivantes- ce niveau varie entre plusieurs étapes parmi lesquelles les états végétatifs, les états de sommeil sans rêve et l’état d’éveil conscient vif.
|
||||
|
||||
Le deuxième se concentre sur le contenu de la conscience ou ce que cela veut dire d'avoir une connaissance \textit{réflexive} de son propre état mental. Si pour les créatures
|
||||
vivantes, il existe des sortes de ``stimuli autoréférentiels”\cite{paper vanhaudenhuyse} - propres au fait de suivre son reflet dans le miroir. Évidement qu'à l'heure actuelle, ce phénomène n’est implémenté dans les machines. v
|
||||
Le deuxième se concentre sur le contenu de la conscience ou ce que cela veut dire d'avoir une connaissance \textit{auto-réflexive} de son propre état mental. Pour les créatures
|
||||
vivantes, il existe des sortes de ``stimuli auto-référentiels”\cite{paper vanhaudenhuyse} - propres au fait de suivre son reflet dans le miroir. Évidement qu'à l'heure actuelle, ce phénomène n’est implémenté dans les machines.
|
||||
Vanhaudenhuyse propose une schéma qui détaille la corrélation entre le niveau d’éveil et la conscience de soi et de l’environnement.
|
||||
\textbf{rajout schema}
|
||||
|
||||
Ainsi nous apprenons qu’il existe des variations entre l’état végetatif (propre aux patients réveillés d’une coma sans état de
|
||||
conscience détectée) caractérisé par des mouvements réflexes, et l’état de minimal de conscience où le patient est capable de comportements incohérents mais reproductibles et soutenus. Dans cet état minimal de conscience, le patient peut manifester des signes clairs de conscience de leur environnement et d’eux mêmes. Le même étude fait la distinction entre la conscience et la conscience de soi, en listant les propriétés de la conscience de soi:
|
||||
Ainsi nous apprenons qu’il existe des variations entre l’état végetatif(propre aux patients réveillés d’une coma sans état de
|
||||
conscience détectée) caractérisé par des mouvements réflexes, et l’état de minimal de conscience où le patient est capable de comportements incohérents mais reproductibles et soutenus. Dans cet état minimal de conscience, un patient peut manifester des signes clairs de conscience de son environnement et de soi-même. Le même étude fait la distinction entre la conscience et la conscience de soi, en listant les propriétés de la conscience de soi:
|
||||
\begin{quote}
|
||||
``la conscience qu’il existe d’autres consciences que la nôtre; notre capacité de répondre adéquatement à des stimuli de l’environnement; notre aptitude à reconnaître notre corps comme étant le nôtre; la métaconscience, nous permettent de comprendre nos comportements et ceux des autres en terme de désirs
|
||||
et croyances; la connaissance que nous avons de nous-mêmes comme le narrateur de notre propre vie.” (paper vanhaudenhuyse p.529)
|
||||
\end{quote}
|
||||
|
||||
Lorsque identifiés grâce à la neuro-imagerie fonctionnelle, les
|
||||
processus autoréférentiels semblent présents seulement lors des états d’éveil actif. Dans la même mesure, lors des états de conscience altérés dont l’évolution n’est pas linéaire, le rapport à l’environnement est déterminant.
|
||||
processus auto-référentiels semblent présents seulement lors des états d’éveil actif. Dans la même mesure, lors des états de conscience altérés dont l’évolution n’est pas linéaire, le rapport à l’environnement est déterminant.
|
||||
\textbf{
|
||||
Je me demander alors quelle analogie appliquer à notre étude de cas- des robots actifs ou des robots en transe?}
|
||||
Je me demander alors quelle analogie appliquer à notre étude de cas. Des robots sauvages ou des robots en transe, pourront mieux témoigner d'un état proche de qualia?}
|
||||
\smallskip
|
||||
Le papier\cite{friston p. 195} liste également des propriétés de la conscience: avoir un contenu phénoménal spécifique, être en contact direct avec la réalité et pas ses représentations, être instantanée. La conscience dévient alors un aspect direct et privé de la vie mentale de chacun, puisque cela nous est impossible de faire l’expérience d’une autre conscience que la nôtre. Nous pouvons faire cependant l’expérience d’une subjectivité, en écoutant le ressenti d’une autre personne.
|
||||
|
||||
En contrepoids, selon les recherches du philosophe Ned Block, il existe un autre type de classification selon la nature
|
||||
phénoménologique de la conscience et son accessibilité. Ainsi Block différencie la \textit{conscience phénoménologique}- comment
|
||||
A l'inverse, il existe un autre type de classification selon la nature phénoménologique de la conscience et son accessibilité. Le philosophe Ned Block, différencie la \textit{conscience phénoménologique}- comment
|
||||
une certaine expérience est perçue par le sujet- de celle définie comme \textit{conscience d’accès}-disponible pour des processus cognitifs comme le langage.
|
||||
Block décrit les deux de la façon suivante:
|
||||
Il décrit les deux de la façon suivante:
|
||||
\begin{quote}
|
||||
``Phenomenal consciousness is
|
||||
experience; the phenomenally conscious aspect of a state is what it is like to
|
||||
|
@ -505,20 +500,21 @@ be in that state. The mark of access-consciousness, by contrast, is availability
|
|||
for use in reasoning and rationally guiding speech and action.” (citer Block)
|
||||
\end{quote}
|
||||
|
||||
Ainsi la conscience phénoménale résulte d’expériences sensorielles et de notre perception mélangeant de sensations comme l’ouïe ou l’odorat, des sensations
|
||||
Ainsi la conscience phénoménale résulte d’expériences sensorielles et de notre perception mélangeant de sensations comme l’ouïe ou l’odorat, des sensations
|
||||
type douleur ou perceptions type proprioception, ainsi que des émotions tel la peur, parmi autres.
|
||||
A l’opposée, la conscience d’accès est disponible pour une
|
||||
utilisation dans le raisonnement et pour le contrôle conscient direct de l’action et de la parole. Des exemples de conscience d’accès sont les pensées, les croyances et les désirs.
|
||||
Pour Block, la \textit{rapportabilité}, qu'il définit comme propriété de la conscience
|
||||
d’accès, a une grande importance pratique. Selon lui, la conscience d’accès
|
||||
doit être \textit{représentative} car seul le contenu représentatif peut figurer dans le raisonnement.
|
||||
doit être \textit{représentative} car seul un contenu représentatif peut produire du raisonnement.
|
||||
|
||||
Une conséquence directe de cette classification de Block, est le fait de considérer l’esprit comme résultant de
|
||||
processus fondamentalement logiques et ainsi \textit{modélisable} d’un point de vue algorithmique.
|
||||
Cette vision computationnelle de l’esprit, implique également que
|
||||
\textbf{
|
||||
la conscience peut être modélisée par un programme informatique}. En regardant de plus prés, ce qu'il décrit comme conscience phénoménale ne suppose pas une catégorie distincte d’états conscients. Comme mentionné ci-dessus, Block estime que la conscience phénoménale et la conscience d’accès interagissent normalement, mais il est possible d’avoir une conscience d’accès sans conscience phénoménale. Plus exactement, il croit
|
||||
comme Daniel Dennet\cite{Dennet} que \textbf{les zombies} sont possibles et qu’un androïde - qui est de point de vue informatique identique à une personne- pourrait exister tout en n’ayant aucune conscience phénoménale. Cependant à la différence de Dannet, Block affirme qu’il existe des expériences conscientes
|
||||
la conscience peut être modélisée par un programme informatique}.\smallskip
|
||||
En regardant de plus prés, ce que Block décrit comme conscience phénoménale ne suppose pas une catégorie distincte d’états conscients. Comme mentionné ci-dessus, il estime que la conscience phénoménale et la conscience d’accès interagissent normalement, mais il est possible d’avoir une conscience d’accès sans conscience phénoménale.
|
||||
Cette position rejoint celle du philosophe américain Daniel Dennet\cite{Dennet} pour qui \textbf{les zombies} sont possibles en tant qu'androïdes. De plus, ils sont, de point de vue informatique, identiques à une personne- pourrait exister tout en n’ayant aucune conscience phénoménale. Cependant à la différence de Dannet, Block affirme qu’il existe des expériences conscientes
|
||||
difficilement traduisibles par des algorithmes. Pour lui, l’existence de ces expériences relève ``du problème difficile” de la conscience, dont nous allons détailler plus bas les enjeux.
|
||||
|
||||
\textbf{La théorie de l’identité esprit-cerveau}
|
||||
|
@ -529,16 +525,14 @@ des processus neurophysiologiques étant une perspective naturaliste, les neuros
|
|||
|
||||
Cependant, nous savons aujourd'hui que les phénomènes mentaux sont multiples. Chaque individu les traduit différemment dans sa personnalité. Nos perceptions, sensations, désirs et croyances sont influencés par notre contexte socio-culturel. Pour les
|
||||
anticiper par des prédictions, les scientifiques doivent faire appel à plusieurs méthodes et théories expérimentales.
|
||||
Un courant dérivé de cette théorie de l’identité esprit-cerveau est \textit{l’instrumentalisme}, mis en place par le philosophe et penseur Daniel Dannett. Cette théorie considère les modèles scientifiques comme des instruments, nous permettant d’analyser et modéliser les phénomènes pour ensuite les devancer par des prédictions. Ses positions concernant le libre arbitre et
|
||||
la conscience ont suscité beaucoup de controverses.
|
||||
Un courant dérivé de cette théorie de l’identité esprit-cerveau est \textit{l’instrumentalisme}, mis en place par Daniel Dannett. Cette théorie considère les modèles scientifiques comme des instruments, nous permettant d’analyser et modéliser les phénomènes pour ensuite les devancer par des prédictions. Le point de vue de Dennet, concernant le libre arbitre et
|
||||
la conscience, ont suscité beaucoup de controverses.
|
||||
Dans son livre le plus connu, \textit{Consciousness Explained} (1991), il explique comment la conscience est le
|
||||
résultat des processus cognitives et physiologiques dans le cerveau. Il évoque une analogie de la conscience similaire à un article académique coécrit par une poignée de scientifiques\cite{Dennet}. Par cela, il explique comment plusieurs processus mentaux peuvent exister simultanément dans le cerveau, sans forcément se connaître l’un l’autre. Ce principe correspond à un état où plusieurs brouillons coexistent
|
||||
simultanément et indépendamment de chaque contribution- attestant l’existence du papier principal. En extrapolant ces principes au terme de conscience, il nie cependant l’existence de \textit{qualia}, vu comme expérience subjective directe et
|
||||
simultanément et indépendamment de chaque contribution- attestant l’existence du papier principal. En extrapolant ces principes au terme de conscience, il nie cependant l’existence de \textit{qualia}, en tant qu'expérience subjective directe et
|
||||
personnelle.\smallskip
|
||||
|
||||
En contrepoids, des philosophes comme John Searle considèrent qu’il y a quelque
|
||||
chose de fondamental dans l’expérience subjective qui ne peut pas être capturé
|
||||
par les programmes informatiques conventionnels\cite{Searle}. Dans une de leurs correspondances, Searle réponds à Dennet de la façon suivante:
|
||||
En contrepoids, des philosophes comme John Searle considèrent qu’il y a quelque chose de fondamental dans l’expérience subjective. Cette dimension ne peut pas être capturée par les programmes informatiques conventionnels\cite{Searle}. Dans une de leurs correspondances, Searle réponds à Dennet de la façon suivante:
|
||||
|
||||
\begin{quote}
|
||||
``To make explicit the differences between conscious events and, for example,
|
||||
|
@ -555,17 +549,13 @@ experiences we all have. For Dennett there is no difference between us humans
|
|||
and complex zombies who lack any inner feelings, because we are all just complex zombies.”
|
||||
\end{quote}
|
||||
|
||||
Un des arguments le plus fameux que Searle avance dans leur débat est celui
|
||||
appelé \textit{the Chinese Room Argument}, où une personne enfermée dans une chambre
|
||||
communique avec l’extérieur via des messages écrites en chinois, sans comprendre les symboles du dictionnaire mis à sa disposition. Ce fonctionnement est similaire aux algorithmes de traduction qui exécutent des équivalences entre des mots, sans saisir leur sens.
|
||||
|
||||
Un des arguments le plus fameux que Searle avance dans leur débat est celui appelé \textit{the Chinese Room Argument}, où une personne enfermée dans une chambre communique avec l’extérieur via des messages écrites en chinois, sans comprendre les symboles du dictionnaire mis à sa disposition. Ce fonctionnement est similaire aux algorithmes de traduction qui exécutent des équivalences entre des mots, sans saisir leur sens.
|
||||
|
||||
|
||||
\subsection{The hard problem of consciousnes}
|
||||
|
||||
|
||||
Dans son article ``Facing Up to the Problem of Consciousness”, le philosophe David J. Chalmers met en avant les difficultés lorsque nous essayons de définir la conscience. Pour lui il s’agit d’un terme ambigu en référence à des phénomènes complexes, et propose de diviser les objectifs en deux catégories- le problème facile de la conscience et le problème difficile de
|
||||
la conscience.
|
||||
Dans son article ``Facing Up to the Problem of Consciousness”, le philosophe David J. Chalmers met en avant les difficultés lorsque nous essayons de définir la conscience. Pour lui il s’agit d’un terme ambigu en référence à des phénomènes complexes. Il propose de diviser les arguments en deux catégories- celles qui concernent un problème facile de la conscience et - le reste qui font partie du problème difficile de la conscience.
|
||||
\textit{Le problème facile de la conscience} continent les hypothèses qui
|
||||
pourront trouver des solutions dans l’avenir immédiat- notamment les processus
|
||||
neurophysiologiques dans le cerveau et l’intelligence sensorielle du corps qui
|
||||
|
@ -584,14 +574,11 @@ perplexing. Why is it that when our cognitive systems engage in visual and audit
|
|||
It is widely agreed that experience arises from a physical basis, but we have no good explanation of why and how it arises. Why should physical processing give rise to a rich inner life at all? It seems objectively unreasonable that it
|
||||
should, and yet it does.”(Chalmers p.3)
|
||||
\end{quote}
|
||||
Son argumentation va plus loin, en donnant l’exemple de la perception visuelle. Cet exemple est aussi évoqué lorsque il s'agit des \textit{qualia}. Chalmers décrit comment les formes
|
||||
d’ondes électromagnétiques empiétant sur la rétine, sont discriminées et catégorisées par un système visuel pour que cette catégorisation est vécue comme la sensation de vif rouge. Ensuite, il montre comment l’expérience consciente
|
||||
qui survient lorsque ces fonctions sont exécutées, est difficile à expliquer et vérifier - correspondant à ce que la communauté philosophique a défini comme une sorte de ``lacune explicative entre les fonctions et l’expérience”. Il propose
|
||||
que les théories sur la conscience traitent l’expérience comme partie intégrante:
|
||||
|
||||
Son argumentation va plus loin, en donnant l’exemple de la perception visuelle. Chalmers décrit comment les formes
|
||||
d’ondes électromagnétiques empiétant sur la rétine, sont discriminées et catégorisées par un système visuel pour que cette catégorisation est vécue comme la sensation de vif rouge. Ensuite, il montre comment l’expérience consciente qui survient lorsque ces fonctions sont exécutées, est difficile à expliquer et vérifier. Cela corresponds à ce que la communauté philosophique a défini comme une sorte de ``lacune explicative entre les fonctions et l’expérience”. Son exemple est éloquent lorsque il s'agit des \textit{qualia}. Plus loin, il propose que les théories sur la conscience traitent l’expérience comme partie intégrante:
|
||||
\begin{quote}
|
||||
``I suggest that a theory of consciousness should take experience as fundamental. We know that a theory of consciousness requires the addition of something fundamental to our ontology, as everything in physical theory is compatible with the absence of consciousness. We might add some entirely new nonphysical feature, from which experience can be derived, but it is hard to see what such a feature would be like. More likely, we will take experience itself
|
||||
as a fundamental feature of the world, alongside mass, charge, and
|
||||
space-time.”(Chalmers p.14)
|
||||
``I suggest that a theory of consciousness should take experience as fundamental. We know that a theory of consciousness requires the addition of something fundamental to our ontology, as everything in physical theory is compatible with the absence of consciousness. We might add some entirely new nonphysical feature, from which experience can be derived, but it is hard to see what such a feature would be like. More likely, we will take experience itself as a fundamental feature of the world, alongside mass, charge, and space-time.”(Chalmers p.14)
|
||||
\end{quote}
|
||||
|
||||
En anglais le terme de conscience permet une déclinaison en deux instances, celle de conscience comme vécu expérientiel et
|
||||
|
@ -604,25 +591,14 @@ how awareness might be achieved. For example, Crick and Koch suggest that 40-Hz
|
|||
because only that sort of activity achieves global availability.”
|
||||
\end{quote}
|
||||
|
||||
Pareil au Chalmers, Block croit que nous pouvons avoir des expériences conscientes qui ne sont pas traduisibles par des algorithmes de calcul. Un exemple de conscience phénoménale discuté par Block est un bruit fort que nous ne remarquons pas
|
||||
consciemment parce que nous faisons attention à autre chose. Dans sa classification, le fait d’entendre le bruit (puisque nous ne pouvons pas couvrir notre oreille comme la paupière) relève de la conscience phénoménale alors que le fait de ne pas s’en rendre compte relève de la conscience d’accès. Cela suggère que ce type de conscience phénoménale décrite par Block, est basée sur une activité cérébrale classifiée comme inconsciente donc difficilement modélisée par des algorithmes de calcul.
|
||||
Tout comme Chalmers, Block croit que nous pouvons avoir des expériences conscientes qui ne sont pas traduisibles par des algorithmes de calcul. Un exemple de conscience phénoménale qu'il donne est celui d'un bruit fort que nous ne remarquons pas
|
||||
consciemment parce que nous faisons attention à autre chose. Dans sa classification, le fait d’entendre le bruit (puisque nous ne pouvons pas couvrir notre oreille comme la paupière) relève de la conscience phénoménale alors que le fait de ne pas s’en rendre compte relève de la conscience d’accès. Cela suggère que ce type de conscience phénoménale décrite par Block, est basée sur une activité cérébrale classifiée comme inconsciente, donc difficilement modélisée par des algorithmes de calcul. L'inconscient est aussi l'endroit de prédilection de la création, dans notre contexte de la danse illustré par des mouvements reflexives et spontanées. Si un jour les robots vont devenir créatifs, probablement ils auront type de conscience phénoménale.
|
||||
|
||||
Pour l'instant, peu importe ce que nous identifions comme processus physiques qui génèrent des états de conscience. Tant que nous ne pouvons pas comprendre comment ils se manifestent dans chaque individualité, nous ne comprendrons pas comment les déléguer aux machines. Même une fois cela fait, il reste toujours un problème de vérification, car en construisant des machines qui
|
||||
fonctionnent comme nous, nous n’avons aucun moyen de savoir si le rendu biologique suffit pour une expérience intérieure propre. En d’autre termes, comment pouvons-nous savoir si un robot a une conscience phénoménale alors que notre moyen actuel pour déterminer cela chez nous, les humains passe par le vécu expérientiel individuel?
|
||||
|
||||
\textbf{Le rôle de l’introspection}
|
||||
|
||||
L’introspection peut nous permettre d’être conscients
|
||||
des processus mentaux qui semblent avoir une séquence linéaire comme la production de la parole ou des lignes de raisonnement. Elle agit également lors des actes artistiques. Pendant la phase de création, un artiste sonde son imaginaire pour clarifier ses intuitions. Lorsque nous faisons référence à l’exemple de Block, c’est intéressant de mentionner un possible scénario où la
|
||||
personne aurait prêté attention au bruit auparavant ignoré, comme un type d’expérience subjective, à la limite de la conscience d’accès, pour ensuite déterminer à partir de quand le bruit est devenu conscient. Cette introspection liée à un stimulus extérieur, trouve son équivalent dans l’acte d’introspection
|
||||
de l’artiste qui veut mieux comprendre sa démarche. La distinction de Block entre conscience phénoménale et conscience d’accès a des implications importantes pour les neuroscientifiques et les informaticiens qui cherchent à
|
||||
modéliser une conscience artificielle dans des dispositifs tels les robots. Mais une fois cette intention exprimée, comment pouvons-nous savoir si l’algorithme a produit une conscience semblable à celle de l’homme? Dans la même mesure, produire ces expériences subjectives de la conscience phénoménale dans des
|
||||
robots implique des considérations éthiques. Heureusement le moyen pour doter rationnellement les machines de nos expériences personnelles, parfois irrationnelles, n’est pas encore à notre portée. Selon les avancées des sciences cela pourra se faire par des mécanismes non informatiques. Même si la communauté
|
||||
scientifique est divisée et de nombreux neuro-biologistes et informaticiens estiment que les philosophes sont trop pessimistes quant aux capacités des algorithmes à modéliser la conscience humaine, il est important de comprendre nos motivations et intentions face à cela. \smallskip
|
||||
Peu importe ce que nous identifions
|
||||
comme processus physiques qui génèrent la conscience, tant que nous ne pouvons pas comprendre comment ils se manifestent dans chaque individualité nous ne comprendrons pas leur impact une fois réalisée. Mais une fois cela fait, il reste toujours un problème de vérification car en construisant des machines qui
|
||||
fonctionnent comme nous, nous n’avons aucun moyen de savoir si le rendu biologique suffit pour une expérience intérieure interne. En d’autre termes, comment pouvons-nous savoir si un robot a une conscience phénoménale alors que notre moyen actuel pour déterminer cela dans les humains passe par le vécu expérientiel?
|
||||
|
||||
D’autres philosophes tels Thomas Nagel affirment qu’il est impossible de déterminer les points communs entre une expérience directe, évoquée à la première personne et les descriptions à la troisième personne des expériences passées qui forment à leur tour des modèles. Dans son article ``What Is It Like
|
||||
to Be a Bat?”(1974) traduit en français par ``Qu’est-ce que cela veut dire d’être un chauve-souri?”, le philosophe décrit la conscience comme un phénomène partagé par beaucoup des organismes vivants (notamment les mammifères dont le chauve-souris). Nagel fait une distinction entre conscience et perception sensorielle. Pour lui, ce que tous les organismes partagent, c’est ce qu’il appelle le \textit{caractère subjectif de l’expérience}. Cette nature subjective bloque toute tentative d’expliquer la conscience par des moyens objectifs comme dn neurosciences ou en robotique. L’auteur a choisi la métaphore des chauves-souris en raison de leur appareil sensoriel originel. En effet, les chauves-souris utilisent l’écholocalisation pour naviguer et percevoir des objets, cette méthode de perception étant similaire à la vision des humains. L’auteur affirme que des humains dotés de sens similaires, ne peuvent pas cependant expérimenter l’état d’esprit d’une chauve-souris, puisque leur cerveau ne s’est pas développé comme celui d’une chauve-souris dès sa naissance. En échange des comportements de type voler, naviguer en sonar ou se
|
||||
D’autres philosophes tels Thomas Nagel affirment qu’il est impossible de déterminer les points communs entre une expérience directe, évoquée à la première personne et les descriptions à la troisième personne des expériences passées qui forment à leur tour des modèles. Dans son article ``What Is It Like
|
||||
to Be a Bat?”(1974) traduit en français par ``Qu’est-ce que cela veut dire d’être un chauve-souri?”, le philosophe décrit la conscience comme un phénomène partagé par beaucoup des organismes vivants (notamment les mammifères dont le chauve-souris). Nagel fait une distinction entre conscience et perception sensorielle. Pour lui, ce que tous les organismes partagent, c’est ce qu’il appelle le \textit{caractère subjectif de l’expérience}. Cette nature subjective bloque toute tentative d’expliquer la conscience par des moyens objectifs comme dn neurosciences ou en robotique. L’auteur a choisi la métaphore des chauves-souris en raison de leur appareil sensoriel originel. En effet, les chauves-souris utilisent l’écholocalisation pour naviguer et percevoir des objets, cette méthode de perception étant similaire à la vision des humains. L’auteur affirme que des humains dotés de sens similaires, ne peuvent pas cependant expérimenter l’état d’esprit d’une chauve-souris, puisque leur cerveau ne s’est pas développé comme celui d’une chauve-souris dès sa naissance. En échange des comportements comme voler, naviguer en sonar ou se
|
||||
suspendre à l’envers comme une chauve-souris, faciliteront des expériences proches de ce qu’une chauve-souris peut vivre. \smallskip
|
||||
|
||||
Cette hypothèse est évoqué avec d'autres mots par Simon Penny qui met en avant le concept de \textit{spécificité des
|
||||
|
@ -638,14 +614,12 @@ penny making sense p. 17
|
|||
|
||||
|
||||
Pour résumer sa pensée, les environnements sensoriels de la plupart des organises vivants sont spécifiques, sans qu'une espèce puisse faire l'expérience de la spécificité de l'autre.
|
||||
En contrepoids, pour ce qu'il y a de l'espèce humaine, les \textit{qualia} témoignent de nos expériences uniques à l'échelle individuelle.
|
||||
Pour complexifier encore plus cette donnée, il est aussi possible d’avoir une conscience phénoménale et d’accéder à la conscience d’accès indépendamment, bien qu’en général, les deux interagissent. Tant que différentes perspectives ne s'accordent pas sur ces observations, la conscience restera un tabou qui fascine.
|
||||
En contrepoids, pour ce qu'il y a de l'espèce humaine, les \textit{qualia} témoignent de nos expériences uniques à l'échelle individuelle. En parallèle avec l'exemple de Nagel, il est tout autant important de regarder le développement de ces expérience dans la durée.
|
||||
Pour complexifier encore plus la donnée, il est aussi possible d’avoir une conscience phénoménale et d’accéder à la conscience d’accès indépendamment, bien qu’en général, les deux interagissent. Tant que différentes perspectives ne s'accordent pas sur ces observations, la conscience restera un tabou qui fascine.
|
||||
|
||||
Dans son article, ``Consciousness: The last 50 years.” le neuroscientifique Anil K. Seth souligne le caractère interdisciplinaire des études sur la conscience et
|
||||
la volonté de tisser des ponts entre les expériences phénoménologiques et le fonctionnement neuronal. Pour lui, l’expérience phénoménologique ne peut pas
|
||||
exister sans l’ancrage du corps dans son environnement - en anglais \textit{an
|
||||
environment embedded embodiment processes}. Seth trace l’histoire des études sur
|
||||
la conscience, en tant que phénomène neurologique et identifie une première étape entre 1960 et 1990. Après les découvertes en études comportementales, les scientifiques mettent les bases d’une nouvelle approche en sciences cognitives. Cette approche, atteste l’existence d’un état mental interne qui opère une modulation entre réponse et stimulation nerveuse. D'une façon prédictible, cela provoquera beaucoup de débats à l'intérieur de la communauté scientifique. Seth cite entre autres le psychologue Stuart Sutherland qui affirmait en 1989:
|
||||
Dans son article, ``Consciousness: The last 50 years.”(2018) le neuroscientifique Anil K. Seth souligne le caractère interdisciplinaire des études sur la conscience et
|
||||
la volonté de tisser des ponts entre les expériences phénoménologiques et le fonctionnement neuronal. Pour lui, l’expérience phénoménologique ne peut pas exister sans l’ancrage du corps dans son environnement - en anglais \textit{an
|
||||
environment embedded embodiment processes}. Seth trace l’histoire des études sur la conscience, en tant que phénomène neurologique et identifie une première étape entre 1960 et 1990. Après les découvertes en études comportementales, les scientifiques mettent les bases d’une nouvelle approche en sciences cognitives. Cette approche, atteste l’existence d’un état mental interne qui opère une modulation entre réponse et stimulation nerveuse. D'une façon prédictible, cela provoquera beaucoup de débats à l'intérieur de la communauté scientifique. Il cite entre autres le psychologue Stuart Sutherland qui affirmait en 1989:
|
||||
\begin{quote}
|
||||
``Consciousness is a fascinating but elusive phenomenon. It
|
||||
is impossible to specify what it is, what it does, or why it evolved. Nothing worth reading has been written on it.”
|
||||
|
@ -663,10 +637,8 @@ Devenu entre-temps principe normatif qui décrit les systèmes adaptatifs capabl
|
|||
|
||||
|
||||
Dans le chapitre ``What’s the use of consciousness” du livre \textit{The Pragmatic Turn
|
||||
Toward Action-Oriented Views in Cognitive Science}(2016), résultat d’une semaine de débats entre neurologues, psychologues et philosophes, Anil Seth décrit une nouvelle approche dans les sciences cognitives qui vise le rôle de l’action dans
|
||||
les processus cognitives et implicitement la conscience. A l’opposé des représentations internes suite au calcul mental, l’action favorise une vision énactée-\textit{enacted}, ancrée -\textit{embedded} et incorporée-\textit{embodied} de systèmes
|
||||
cognitifs.
|
||||
Pour Seth, cete distinction, marque \textit{une tournure pragmatique} dans l’évolution de ces sciences et leur vécu expérientiel associé. Avec ses collègues, ils
|
||||
Toward Action-Oriented Views in Cognitive Science}(2016), Anil Seth décrit une nouvelle approche dans les sciences cognitives qui vise le rôle de l’action dans les processus cognitives et implicitement la conscience. Résultat d’une semaine de débats entre neurologues, psychologues et philosophes, cette hypothese est proche de la boucle perception-action-cognition que nous avons cité auparavant. A l’opposé des représentations internes suite au calcul mental, l’action favorise une vision énactée-\textit{enacted}, ancrée -\textit{embedded} et incorporée-\textit{embodied} de systèmes
|
||||
cognitifs. Pour Seth, cete distinction, marque \textit{une tournure pragmatique} dans l’évolution de ces sciences et leur vécu expérientiel associé. Avec ses collègues, ils
|
||||
établissent quatre approche théoriques clé, pour mieux définir leur cadre:
|
||||
\begin{enumerate}
|
||||
\item le cerveau Baesyian, ou \textit{Baesyian brain}: définit la perception comme
|
||||
|
@ -692,14 +664,12 @@ relation action-conscience. P 266 Frist}
|
|||
\subsection{Quand l'intelligence artificielle exclut la conscience}
|
||||
|
||||
|
||||
Le philosophe et psychologue Zoltan Torey, décrit dans son livre ``The crucible of consciousness”(2009) la difficulté des scientifiques d’argumenter l’existence de la conscience, au-delà du formalisme mathématico-logique. Pour lui le formalisme
|
||||
Le philosophe et psychologue Zoltan Torey, décrit dans son livre \textit{The crucible of consciousness} (2009) la difficulté des scientifiques d’argumenter l’existence de la conscience, au-delà du formalisme mathématico-logique. Pour lui le formalisme
|
||||
est seulement une spécification des opérations et transactions neuronales dans le cerveau. Ces opérations deviennent des instances de protocoles pour des machines. Mais, comme le remarque Roger Penrose, que Torey cite:
|
||||
\begin{quote}
|
||||
``Algorithms themselves never ascertain truths. It would be as easy to make an algorithm
|
||||
produce nothing but falsehood as it would be to make it produce truths. One
|
||||
needs external insights to decide the validity or otherwise of an algorithm.”
|
||||
``Algorithms themselves never ascertain truths. It would be as easy to make an algorithm produce nothing but falsehood as it would be to make it produce truths. One needs external insights to decide the validity or otherwise of an algorithm.”
|
||||
\end{quote}
|
||||
Ces ``discriminants externes” sont pour Torey, la preuve même que les systèmes gouvernés par ce formalisme sont incomplets. De plus, il extrapole sa démonstration à tout système formel- mathématique, logique ou philosophie analytique. Il précise que un cerveau qui a généré ces formalismes par des opérations mentales, ne peut pas être modélisée en programmes informatiques- puisque cet ordinateur ne génère pas d'autres systèmes à son tour.
|
||||
Ces ``discriminants externes” sont pour Torey, la preuve même que les systèmes gouvernés par ce formalisme sont incomplets. De plus, il extrapole sa démonstration à tout système formel- mathématique, logique ou philosophie analytique. Il précise qu'un cerveau qui a généré ces formalismes par des opérations mentales, ne peut pas être modélisée en programmes informatiques- puisque cet ordinateur ne génère pas d'autres systèmes à son tour.
|
||||
|
||||
|
||||
Cela rejoint, au moins en partie, la visions de Michel Bitbol pour qui l’expérience phénoménologique de la conscience ne peut pas être vérifié par des critères objectives:
|
||||
|
@ -707,13 +677,11 @@ Cela rejoint, au moins en partie, la visions de Michel Bitbol pour qui l’exp
|
|||
``Nous n’avons rigoureusement aucun critère nous permettant de savoir, ni même de deviner, qu’un artéfact fabriqué par nous est ou n’est pas doté de conscience phénoménale. Il est vrai que nous pourrions tomber dessus par hasard, et mettre en place les conditions d’une conscience phénoménale sans le faire exprès; mais dans ce cas, nul signe, pas le plus petit indice, ne nous permettrait de savoir que nous avons réussi (ou de savoir le contraire). C’est ce que signale à juste titre le neurobiologiste Jesse Prinz: \textit{À quel degré de proximité avec le
|
||||
cerveau humain un ordinateur doit-il parvenir, avant que nous puissions dire qu’il est probablement conscient? Il n’y a aucune manière de répondre à cette question.}”
|
||||
|
||||
\cite{La conscience artificielle: Une critique pensée et vécue. Michel Bitbol Archives Husserl, France Chroniques Phénoménologiques, 2018}
|
||||
\cite{La conscience artificielle: Une critique pensée et vécue. Michel Bitbol Archives Husserl}
|
||||
|
||||
Dans le monde des machines, les résultats le plus concluants pour illustrer des processus mentaux, sont dans le domaine de l’intelligence artificielle. Pour aller plus loin, des chercheurs \cite{art multitudes} s'intérrogent sur la façon dont notre société s’est emparé du phénomène de l’intelligence artificielle, notamment sa branche connexionniste avec ses prédictions calculées et des ouvriers à la tâche qui nourrissent des algorithmes de machine learning (ML).
|
||||
Puisque cela se répercute dans toutes les domaines de nos vies, ils prônent une culture critique de l’IA, et les biais statistiques que cela engendre, en prenant conscience du fait que ``nous sommes les sens et la conscience des
|
||||
machines”.
|
||||
Ainsi la perspective d’une \textit{weak AI}, où les programmes simulent et modélisent la pensée humaine, prédomine celle de \textit{strong AI}, où les programmes ``pensent” par elles-mêmes.
|
||||
|
||||
Puisque cela se répercute dans toutes les domaines de nos vies, ils prônent une culture critique de l’IA, et les biais statistiques que cela engendre, en prenant conscience du fait que ``nous sommes les sens et la conscience des machines”.
|
||||
D'une façon réaliste, la perspective d’une \textit{weak AI}, où les programmes simulent et modélisent la pensée humaine, prédomine celle de \textit{strong AI}, où les programmes ``pensent” par elles-mêmes.
|
||||
|
||||
De la même manière, le neurologue Stanislas Dehaene considère que les processus inconscients, sont la preuve que la conscience ne peut-pas être modélisée:
|
||||
\begin{quote}
|
||||
|
@ -723,30 +691,29 @@ processing. Neuroimaging methods reveal that the vast majority of brain areas ca
|
|||
\cite{What is consciousness, and could machines have
|
||||
it? Stanislas Dehaene, Lau H, Kouider S, revue Science, 2017}
|
||||
\end{quote}
|
||||
|
||||
Pour mieux illustrer le concept d’intelligence artificielle, nous faisons référence aux raisonnements de la philosophe Catherine Malabou. Pour elle, il s’agit d’une relation de coopération entre humain et machine:
|
||||
Cela me semble pertinent de rapprocher ces considérations avec l'idée que toute activité créative réside dans l'inconscient. Si ces présomptions sont vrais, \textbf{le jour où les robots vont être créatifs, ils témoigneront également d'une forme de conscience ou l'inverse }
|
||||
Cependant, avant d'aller plus loin dans nos projections, la question de l'IA est un premier étude de cas pour lancer le débat.
|
||||
Pour cela, nous faisons référence aux observations de la philosophe française Catherine Malabou. Pour elle, aborder la question de l'IA, signifie réfléchir à une relation de coopération entre humain et machine:
|
||||
|
||||
\begin{quote}
|
||||
``J’ai refusé dès le début de me placer dans l’optique d’une compétition entre homme et machine. C’est la façon de voir la plus courante, je la laisse à d’autres et préfère tenter d’ouvrir une autre voie. En effet, choisir la compétition, c’est perdre à tous les coups. Car la mise en concurrence homme-machine est un faux problème. Pour de multiples raisons. J’en évoquerai une seule ici. Croire qu’il existe une réalité humaine intacte de toute aliénation technologique est une illusion qui s’effondre facilement dès que l’on prend en compte le fait que le cerveau humain – parlons de lui puisque c’est bien de lui qu’il s’agit – s’est développé épigénétiquement dans son interaction avec les artefacts. Leroi-Gourhan l’explique magnifiquement. Du silex à la cybernétique, le mécanisme de l’interaction est le même. Notre cerveau ne peut fonctionner qu’à se mettre au dehors, à prolonger son système par des prothèses (cf. \textit{l’exorganologie} de Bernard Stiegler), au point qu’il est impossible de faire la part, dans l’évolution cérébrale des hommes depuis la préhistoire, entre nature et technique. Un cerveau qui ne serait pas prolongé par des artifices serait un cerveau mort.”
|
||||
\end{quote}
|
||||
|
||||
Malabou souligne la distinction entre le concept philosophique d’intellect et celui d’intelligence, dont l’apparition est plutôt liée au Bergson et au développement de la psychologie expérimentale en fin de XIXe siècle.
|
||||
Malabou souligne la distinction entre le concept philosophique d’\textit{intellect} et celui d’\textit{intelligence}, dont l’apparition est plutôt liée au Bergson et au développement de la psychologie expérimentale en fin de XIXe siècle.
|
||||
Elle défend un point de vue matérialiste selon lequel:
|
||||
\begin{quote}
|
||||
``l’esprit, l’entendement, disons toutes les fonctions intellectuelles, comme on voudra les appeler, sont étroitement dépendantes des bases matérielles et organiques sur lesquelles elles reposent. Ayant beaucoup travaillé sur le cerveau, je suis convaincue qu’il n’existe pas de lieu séparé qui abriterait les opérations mentales et cognitives, elles dérivent toutes de processus neuronaux. Il est donc impossible de ne pas associer intelligence et cerveau.”
|
||||
\end{quote}
|
||||
Cependant, réduire l’intelligence humaine a du calcul mathématique et des termes quantitatifs, n’a pas de sens
|
||||
Cependant, réduire l’intelligence humaine à du calcul mathématique et des termes quantitatifs, n’a pas de sens
|
||||
pour elle, sauf si ce calcul invente les concepts sur lesquels il résonne. Plus spécifiquement, elle propose comme définition minima de l’intelligence \textit{l’invention de son objet}.
|
||||
|
||||
|
||||
Dans un entretien avec Catherine Malabou, le cinéaste Ariel Kyrou cite le livre \textit{Cerveau augmenté, homme diminué} (2016) du philosophe Miguel Benasayag pour qui:
|
||||
Dans un entretien avec Malabou, le cinéaste Ariel Kyrou évoque le livre \textit{Cerveau augmenté, homme diminué} (2016) du philosophe Miguel Benasayag pour qui:
|
||||
\begin{quote}
|
||||
``la pensée n’est pas déposée dans les réseaux de neurones comme un software figé installé dans le hardware. Elle est distribuée dans le corps et dans le milieu, dans l’échange entre l’un et l’autre, ainsi que dans l’histoire – s’inscrivant ainsi dans une évolution complexe qui n’a aucun rapport avec celle des versions successives de logiciels enrichis de nouvelles lignes de code informatique (2.0,2.1, 2.12, etc.).”
|
||||
\end{quote}
|
||||
|
||||
Pour Kyrou l’aboutissement de tout cela sera une IA qui
|
||||
arrive par elle-même à définir son sujet de recherche. Puis il évoque ce qu’il identifie comme différences entre sa pensée et celle de Malabou, notamment du point de vue des conséquences que les avancées de la recherche en IA apporteront. Il évoque également ce qu’ils partagent comme opinions autour de
|
||||
trois axes:
|
||||
Si nous suivons la pensée de Kyrou, l’aboutissement de tout cela sera une IA qui arrive par elle-même à définir son sujet de recherche.
|
||||
Les différences entre sa pensée et celle de Malabou, concernent les conséquences des avancées de la recherche en IA. Kyrou évoque également ce qu’ils partagent comme arguments:
|
||||
\begin{quote}
|
||||
``la façon dont les \textit{techniques}, du silex à l’écriture et
|
||||
dorénavant au monde numérique, contribuent à fabriquer et à faire évoluer notre cerveau, comme l’ont montré l’archéologue et ethnologue André Leroi-Gourhan et sur un registre philosophique selon moi déterminant Bernard Stiegler; la nécessité d’éviter tout réductionnisme, d’où qu’il vienne, qu’il se veuille
|
||||
|
@ -755,12 +722,10 @@ obédiences.”
|
|||
\end{quote}
|
||||
\cite{Kyrou}
|
||||
|
||||
L’intelligence artificielle connexionniste transpose le modèle des réseaux de neurones et leur
|
||||
façon de traiter l’information basée sur des calculs à des machines, tandis que l’intelligence artificielle symbolique traite cette information par la manipulation de symboles en explorant des données massives sur le comportement humain.
|
||||
La perspective théorique que dans un futur plus ou
|
||||
moins lointain, un autre type d’intelligence- plurielle, imprévisible et complémentaire à l’intelligence humaine- verra le jour, nous réconforte.
|
||||
Pour résumer, l'intelligence artificielle connexionniste transpose le modèle des réseaux de neurones et leur façon de traiter l’information basée sur des calculs à des machines, tandis que l’intelligence artificielle symbolique traite cette information par la manipulation de symboles en explorant des données massives sur le comportement humain. La perspective théorique que dans un futur plus ou moins lointain, un autre type d’intelligence- plurielle, imprévisible et complémentaire à l’intelligence humaine- verra le jour, nous réconforte.
|
||||
|
||||
Entre ce qu’il a été défini comme \textit{l’IA symbolique}, \textit{l’IA numérique} et la polarité entre ces deux approches exclusives - une alternative comme le concept d' \textit{intelligence extensive}(IE) où ``Extended Intelligence” en anglais- vise l’amélioration des capacités humaines en interaction avec des agents non-humains. Plus concrètement, en lieu d’être en compétition directe avec l’intelligence humaine, l’IE cherche à la sublimer. Cette approche utilise l’erreur comme outil d’apprentissage et intègre des principes de \textit{slow science}\cite{i.stingers} pour permettre à l’humain de mieux intégrer les données de son environnemt pour coopérer avec la machine. En cherchant des analogies dans notre contexte particulier qui est le domaine de l’art, il est plus facile de se concentrer sur cet aspect de l’erreur comme outil d’apprentissage et donner place à l’expressivité de la machine. Les enjeux sont moins importants.
|
||||
Entre ce qu’il a été défini comme \textit{l’IA symbolique}, \textit{l’IA numérique} et la polarité entre ces deux approches exclusives - le concept d' \textit{intelligence extensive}(IE) où ``Extended Intelligence” en anglais, représente une alternative constructive.
|
||||
Ce type d'intelligence vise l’amélioration des capacités humaines en interaction avec des agents non-humains. Plus concrètement, en lieu d’être en compétition directe avec l’intelligence humaine, l’IE cherche à la sublimer. Cette approche utilise l’erreur comme outil d’apprentissage et intègre des principes de \textit{slow science}\cite{i.stingers} pour permettre à l’humain de mieux intégrer les données de son environnemt pour coopérer avec la machine. En cherchant des analogies dans notre contexte particulier qui est le domaine de l’art, il est plus facile de se concentrer sur cet aspect de l’erreur comme outil d’apprentissage et donner place à l’expressivité de la machine. Les enjeux sont moins importants. Néanmoins, même dans ce cas- les considération éthiques, les ressentis et les éventuelles réactions imprévisibles de la part des humains structurent une forme de conscience difficile à prédire pour chercher son correspondant artificiel.
|
||||
|
||||
|
||||
\section{Robotique et cognition incarnée}
|
||||
|
@ -826,6 +791,15 @@ de membres fantômes, des informations contradictoires entre la proprioception(q
|
|||
|
||||
\subsection{Des émotions artificielles pour des robots sociaux}
|
||||
|
||||
\textbf{Le rôle de l’introspection}
|
||||
|
||||
L’introspection peut nous permettre d’être conscients
|
||||
des processus mentaux qui semblent avoir une séquence linéaire comme la production de la parole ou des lignes de raisonnement. Elle agit également lors des actes artistiques. Pendant la phase de création, un artiste sonde son imaginaire pour clarifier ses intuitions. Lorsque nous faisons référence à l’exemple de Block, c’est intéressant de mentionner un possible scénario où la
|
||||
personne aurait prêté attention au bruit auparavant ignoré, comme un type d’expérience subjective, à la limite de la conscience d’accès, pour ensuite déterminer à partir de quand le bruit est devenu conscient. Cette introspection liée à un stimulus extérieur, trouve son équivalent dans l’acte d’introspection
|
||||
de l’artiste qui veut mieux comprendre sa démarche. La distinction de Block entre conscience phénoménale et conscience d’accès a des implications importantes pour les neuroscientifiques et les informaticiens qui cherchent à
|
||||
modéliser une conscience artificielle dans des dispositifs tels les robots. Mais une fois cette intention exprimée, comment pouvons-nous savoir si l’algorithme a produit une conscience semblable à celle de l’homme? Dans la même mesure, produire ces expériences subjectives de la conscience phénoménale dans des
|
||||
robots implique des considérations éthiques. Heureusement le moyen pour doter rationnellement les machines de nos expériences personnelles, parfois irrationnelles, n’est pas encore à notre portée. Selon les avancées des sciences cela pourra se faire par des mécanismes non informatiques. Même si la communauté
|
||||
scientifique est divisée et de nombreux neuro-biologistes et informaticiens estiment que les philosophes sont trop pessimistes quant aux capacités des algorithmes à modéliser la conscience humaine, il est important de comprendre nos motivations et intentions face à cela.
|
||||
Les paradigmes sur l’énaction, en anglais \textbf{the enactive theory}, ont émergé avec la publication
|
||||
du livre \textit{The Embodied Mind} (1992) que nous avons déjà mentionné plus haut. Ainsi nous découvrons que les expériences perceptives ne sont pas des événements internes dans notre tête, mais plutôt des actions que nous produisons à travers notre exploration sensorimotrice de l’ environnement.
|
||||
Dans leur livre \textit{How the body shapes the way we think} (2006), Rolf Pfeifer et Josh Bongard soulignent l’importance de la morphologie du corps et ainsi de l’embodiment, sur l’intelligence d’un système. Leur point de départ est le fonctionnement humain qu’ils extrapolent aux machines, avec l’idée que \textbf{pour être
|
||||
|
|
BIN
thesis.pdf
BIN
thesis.pdf
Binary file not shown.
Loading…
Reference in New Issue