320 lines
48 KiB
TeX
320 lines
48 KiB
TeX
\part{Des robots et des ours. Le travail de terrain et ses contraintes}
|
||
|
||
\chapter*{Introduction}
|
||
\addcontentsline{toc}{chapter}{Introduction}
|
||
|
||
\chapter{Improviser avec des machines}
|
||
|
||
\section{Approches anthropologiques}
|
||
|
||
\subsection{A.VOID}
|
||
|
||
|
||
A.VOID est un projet numérique co-crée avec Isadora Teles de Castro en 2020. Concu comme une serie des performance collectives autour du son, du geste et de l'image, ce projet a un format hybride mélangeant radio, applications web et gestes devant une webcam.
|
||
|
||
Contexte de création
|
||
|
||
Impactées par les contraintes en lien avec la pandémie Covid19, nous nous sommes demandées, comme beaucoup d’autres, quel avenir pour l’art performatif et comment agir dans ce contexte extraordinaire. Face à des lieux de diffusion fermés, nous avons pensé organiser des performances collectives avec des utilisateurs qui se connectent en même temps que nous, pour co-créer ensemble. Cela a commencé en juillet 2020, quand nous avons présente notre premiere maquette A.VOID v1. en direct sur les ondes de Radio Galoche. Six mois plus tard, en décembre 2020, nous avons présentée la deuxième version du projet.
|
||
Ainsi l’isolement social et l'impossibilité de se rencontrer pour expérimenter et créer, nous à contraint d'inventer des nouveaux outils. Nous avons proposé une plateforme accessible en ligne pour simuler un espace de rencontre virtuel. Les participants se sont connectés grâce à leurs téléphone portables ou ordinateurs. Une fois détecté, chaque mouvement devant la webcam a été lié à un vecteur graphique dévénu agent virtuel pour des interactions son-image-texte. Des gestes ont été analysée pour extraire la direction et vitesse du mouvement et ainsi influencer le déplacement de l'agent virtuel, lors d'une succession de scénarios d'exploration appelés ``scènes”.
|
||
|
||
Parmi les objectifs du projet, nous avons cherché à:
|
||
|
||
\begin{itemize}
|
||
\item tester l’impact des technologiques numériques sur la créativité
|
||
\item s'approprier des outils de création qui échappent aux contraintes du monde physique
|
||
\item improviser avec une entité autonome virtuelle
|
||
\item provoquer des synergies son-mouvement-image et convoquer l'aléatoire dans le processus de création
|
||
\item proposer une manière inédite de s’impliquer dans une expérience artistique en tant que créateur
|
||
\item proposer un cadre alternatif de réception d’une oeuvre artistique
|
||
\item questionner le rapport performeur-scène, dans une situation de présence dématérialisée
|
||
|
||
\end{itemize}
|
||
|
||
Pour ma propre recherche en danse, ce projet m'a donné l'opportunité de comprendre intuitivement l’impact que la dématérialisation des gestes peut avoir sur le corps d'un danseur, tout comme cet impact peut influer les autres médiums comme le son ou les images. J'ai pu également observer comment l’abstraction d'un geste modifie le comportement autonome d’un agent virtuel et l'inverse.
|
||
Lorsque les participants nous ont partagé leur incertitude quand au comportement attendu et à la synchronisation avec les outils numériques j'ai pu confirmer mes intuitions quant au rôle des dispositifs numériques dans la co-création. Ce moment flou, ou l'humain se sent abandonné devant l'opacité du dispositif technologique est devenu pour moi un vrai moment de lâcher prise, catalyseur d'une expérience créative. Vidée de ses attentes et projections quant au résultat, le participant ne se regarde plus faire mais intègre le dispositif en pleine conscience, avec toutes ses sens. L'outil se transforme ainsi en véhicule d'exploration, dont les possibilités d'expression sont infinies.
|
||
Dans le cas d'AVOID, selon le rythme et la vitesse du mouvement devant la webcam, le son a été plus fort, ou plus vite.
|
||
Cela à confirmé l'importance des outils technologiques dans les processus de recherche-création. Persuadée que ce type d'état de pleine conscience à une composante synesthesique, j'ai poussée plus loin le lien entre son et geste. Les gestes ont fini ainsi se produire guidées par le son, dans l'intimité de chaque espace de représentation. Autre que moi et Isadora qui regardons la régie de la performance collective, chaque participant explorait son espace virtuel à son propre rythme. Des changements du son ou moments de silence ponctuait les transitions, encourageant une liberté d'expression pour chaque participant. Ainsi la fin était différente pour chacun d'entre eux, selon la dynamique d'exploration et les moments d'errance. Parfois des participants ont ignoré des instructions, ou manqué les observer, sans que cela soit contraignant pour notre processus. A titre personnel, cette opacité et manière de travailler est un moment privilégié loin des préoccupations pour un résultat visible. L'expérience subjective du spectateur, devenu performeur à l'intérieur de notre dispositif a été le vrai résultat de notre expérimentation.
|
||
Cela a orienté mes recherches ultérieures sur la figure du robot et l'effet qu'il produit en tant que partenaire de scène.
|
||
|
||
Parmi les notes de mon journal de bord de cette époque, j'écrivais le 4 novembre 2020:
|
||
|
||
\textit{Comment le geste du robot, par son caractère aléatoire et imprévisible, peut changer/transformer le geste du danseur?
|
||
Interagir avec une machine à laver, c’est comme interagir avec un robot? Quelque chose du comportement humain est déjà inconsciemment modifié face à un non-humain...}
|
||
|
||
Description du projet:
|
||
|
||
A.VOID cherche à modifier le rapport à une salle de spectacle, en créant des forme artistiques hybrides qui appartient aux spectateurs autant qu'aux artistes, capables d'exister indépendamment d'eux.
|
||
La performance propose un espace virtuel d’exploration collective, où les participants questionnent leur identité à travers
|
||
des sons, d'images et des textes qui interagissent avec eux.
|
||
Les participants intègrent notre plateforme à travers le webcam d'un dispositif numérique portable(ordinateur ou téléphone). Nous proposons un cadre d'improvisation avec des instructions donnés via une plateforme radio ou vidéo. Des données de position du souris dédoublent les participants en agents virtuels dont les gestes devant la webcam influencent le comportement des agents autonomens virtuels.
|
||
Ainsi dans notre système multi-agents, il y a deux catégories de participants:
|
||
\begin{itemize}
|
||
\item{A.G.A. qui signifie agent generatif autonome}
|
||
\item{D.V.P. qui signifie dedoublement virtuel d'un participant}
|
||
\end{itemize}
|
||
Le D.V.P est le résultat des données de position du souris et des gestes devant la camera, que chaque participant fait lors de sa connexion.
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/avoid_schema}
|
||
\caption{Schema d'interaction pour le systeme multi-agents}
|
||
\label{fig:avoidschema}
|
||
\end{figure}
|
||
|
||
Chacun se connecte et explore cet espace dématérialisé, accessible seulement le jour de la performance.
|
||
|
||
La durée de chaque expérimentation ou improvisation est d'environ 15 minutes. Selon les temps de connexion de chaque utilisateur et son interet pour la performance, nous maintenons la connexion au serveur ouverte environ 30min supplémentaires.
|
||
|
||
La première scène est collective, montrant les avatars correspondants à chaque participant. La suite est une exploration individuelle. Au fur et à mesure que la performance avance, d’autres agents autonomes interagissent avec les participants. L'apparence des agents autonomes est similaire aux avatars des autres participants, afin d'entretenir une ambiguïté sur l'interaction entre des participants humains dédoublés ou des agents virtuels.
|
||
|
||
|
||
A.VOID v1. est une proposition sonore d’isolement graphique. Les utilisateurs se connectent sur une plateforme en bougeant un objet de couleur rouge devant leur caméra. Ce déplacement est traduit sous la forme d'un point de couleur d'un canevas numérique. Sur ce canevas, un point central rouge représentant un mini-robot doit être touché pour lancer une nappe sonore. Nous captons le robot directement dans le plateau de la webradio via une webcam. Il est en train de danser maladroitement accompagné par les bruits faites par des utilisateurs connectés. Lorsque des autres points de couleur se touchent, d'autres sons émergent, le tout forme une nappe de bruitage sonore, doublé par les mouvements des utilisateurs.
|
||
|
||
La performance diffusée en juillet 2020 est accessible online, sur le site de Radio Galoche\footnote{http://www.galoche.online/emission/31/2020-07-03-10-30-avoid-i}
|
||
|
||
A.VOID v2. continue notre questionnement sur la relation son-images-mouvement, dans une perspective synesthésique. Cette fois-ci nous avons imaginé une performance individuelle en plusieurs étapes, dont la durée reste à déterminer pour chaque participant. Nous diffusons la performance en direct à la radio pendant ses premières 15 minutes, mais un algorithme de vie artificielle évolutif continue d’interagir avec les inputs webcam de chaque utilisateur. Il s’agit donc d’une exploration personnelle sur la notion de soi et d’identité numérique. Lors de la dernière scène, une image pixelisée de la webcam de chaque participant est envahie par des agents virtuels évolutifs. Selon sa couleur, chaque pixel devient de la nourriture ou du poison pour ces agents virtuels, déformant l'image de fond qui capte le background de chaque participant. Par cela, notre intention est de questionner l'identité numérique ainsi que la possibilité de performer avec des entités generés par un contexte virtuel. L'interaction ne suit plus règles des systèmes physiques et c'est difficile de distinguer les agents réels des agents virtuels de cet ecosysteme. La présence humaine est traduite par des moyens d'expression propres à l’ordinateur ou au portable qui se connecte à l'application. C’est un type d'interaction re-contextualisée avec des entités autonomes virtuelles qui agissent directement sur l'humain.
|
||
|
||
La performance diffusée en décembre 2020 est accessible online, sur le site de Radio Galoche\footnote{https://www.galoche.online/emission/307/2020-12-12-12-20-avoid-ii}
|
||
|
||
|
||
Parmi les mots-clés qui décrivent la dernière maquette du projet, nous nous sommes arrêtées sur: exploration synesthésique, performance dématérialisée, comportement aléatoire, geste dématérialisé,écosystème virtuel, dédoublement numérique.
|
||
|
||
Nos notes de 8 décembre 2020 décrivent le scénario d'A.VOID v2, qui se déroule sous la forme d'un tableau en 10 scènes.
|
||
|
||
Scène 1
|
||
L’utilisateur se connecte et voit une interface graphique où il y a une ligne qui bouge (déplacement inspiré par l'algorithme flow fields)
|
||
|
||
Scène 2
|
||
Écran noir, un contour de main apparaît avec une ligne qui suit ce contour
|
||
|
||
Scène 3 White Noise
|
||
Flock statiques comme un ciel la nuit avec des étoiles filantes
|
||
|
||
Scène 4
|
||
Flock qui bougent suivant le mouvement de l'utilisateur
|
||
|
||
Scène 5 SON1
|
||
Ecran noir avec des flow fields et moment long d’improvisation son + flow fields
|
||
|
||
Scène 6 SON2
|
||
Flow fields qui se transforment en shadder, improvisation musicale continue
|
||
|
||
Scène 7
|
||
Juste shadder avec SON2
|
||
|
||
Scène 8
|
||
Shadder avec l'apparition du visage de participant (stop SON2)
|
||
|
||
Scéne 9 White Noise
|
||
Image du webcam pixelisée avec le flock qui revient 10sec puis des les algorithmes évolutifs
|
||
|
||
Scène 10 White Noise
|
||
Lecture du texte puis encore 10sec avec les flock évolutifs
|
||
|
||
FIN
|
||
fin de l’antenne alors que chaque participant peur continuer l'expérience individuellement pour voir les algorithmes évolutifs modifier l'image de fond
|
||
|
||
|
||
\textbf{Extrait du texte qui a accompagné Avoid v2. lors de sa diffusion en decembre 2020: }
|
||
|
||
\textit{Ce voyage commence par l’empreinte d’une main, tel les empreintes à l’ocre des hommes préhistoriques sur les murs des grottes. Cette main dont le mouvement peut modifier le son de notre dispositif, est le salut d’une personne dont on ne connaît pas l’identité, vers des autres, anonymes connectés à un serveur qui diffuse notre expérimentation.}
|
||
|
||
\textit{Comme d’autres avant nous, nous aimerions dire que nous vivons un moment particulier dans l’Histoire de l'humanité. Est-ce que ce moment coïncide- en termes de mutation de l’esprit- avec ce que les humains préhistoriques ont ressenti lorsqu’ils ont créé ce que nous appelons aujourd’hui l’art rupestre? Peut-on dire que l’art numérique d’aujourd’hui sera l’art préhistorique de demain? Nous ne le saurons jamais. Mais ce que nous savons c’est que les possibilités qui se dessinent devant nos yeux sont infinies. Et notre rapport au monde, tel qu’il a été défini par nos ancêtres, est lui aussi en train de s'hybrider avec des machines dont l’existence ordonne la notre.}
|
||
|
||
\textit{Le dernier repère de cette expérimentation est le reflet d’un visage. Notre propre visage à l'intérieur du dispositif numérique. Sur l'écran de votre ordinateur, ce visage se dédouble dans des matrices de 0 et de 1. Puis un algorithme de vie artificielle s’inscrit dans l'interface pour modifier ce reflet qui change au fur et au mesure que les algorithmes opèrent. Les personnes connectées au serveur- participants à notre expérimentation- peuvent rester regarder cette transformation un temps indéfini. Chaque portrait est modifié d'une façon unique et personne n'a accès au rendu final à part l'utilisateur lui-même.}
|
||
|
||
\textit{Qui regardons-nous dans l'abysse de cette dématérialisation numérique? Est-ce nous, notre propre visage qui est altéré par des "organismes numériques" ou ce sont des sosies d'une vie parallèle ? Sommes-nous ici et ailleurs? Et si oui, est-ce que nos sens se dédoublent, et ainsi se diluent, elles aussi dans l'absolu algorithmique?}
|
||
|
||
\textit{Des étoiles filantes tombent sur le ciel virtuel de notre monde numérisé. Pas de réponse directe à toutes ces questions.
|
||
}
|
||
Paris, 12 décembre 2020, midi trente
|
||
|
||
|
||
En octobre 2021, lorsque j'ai donné le cours \textit{Perception, emotion and aesthetics of movement} (PEAMO), j'ai eu l'occasion de tester un format différent de la performance, avec les étudiants en Mastère Spécialisé Intelligence Artificielle et Mouvement pour la Robotique et les Systèmes Interactifs (MS AIMOVE) de l'école Mines Paris Tech. La performance a été adaptée au contexte, avec Isadora me rejoignant via skype pour présenter le projet et le lancer à distance.
|
||
Les participants ont interrogé les caractère spontané des interactions, leur participation collective n'étant pas la meilleure façon d'interagir avec le dispositif puisqu'ils nt pu regardes les écrans d'autres participants pour comparer leur parcours.
|
||
|
||
|
||
\textbf{Repères techniques}
|
||
|
||
Pour ce projet, nous avons utilisé le langage de programmation P5.JS, dont les brouillons, en anglais \textit{sketches}, facilitent une connexion multi-utilisateurs pour co-créer ensemble. P5 est une librairie open source JavaScript accésible online pour facilliter le \textit{creative coding}- une façon de programmer simplifiée, propre aux artistes. Ce langage est dérivé de Processing - une solution software imaginé comme façon simplifiée de programmer, grâce au contenu visuel de ses modules. Avec le temps, la communauté à fait évoluer le software dans un outil de création avec multiples applications, dont le P5.
|
||
\smallskip
|
||
Bien que P5 est accessible dans un browser, pour pouvoir inviter plusieurs utilisateurs se connecter à la même page, nous avons du créer un server qui traite des demandes HTTP avec l'aide de la plateforme \textit{Heroku}\footnote{https://devcenter.heroku.com/categories/nodejs-support} et du code source \textit{Node.js} dédiées aux applications réseau- \textit{JavaScript network applications}.
|
||
Grâce aux tutoriels open source du module \textit{sockets.io} nous avons pu inviter plusieurs participants accéder simultanément à notre performance. Le principe a été de transmettre les coordonnées mouseX, mouseY du souris de chaque utilisateur, sur une canevas graphique partagée en temps réel.
|
||
Isadora a choisi explorer les possibilités graphiques de notre performance par les \textit{Shaders}-deseffets visuels spéciaux qui s'exécutent sur la GPU(Graphic Processing Unit) d'un ordinateur. Cela lui a permis de traiter de nombreux pixels à la fois pour générer du bruit et appliquer des filtres inspirés par des algorithmes de vie artificielle.
|
||
|
||
Le travail de recherche sonore, nous a conduit à employer la librairie \textit{P5sound}. Les fichiers utilisés comme bases sonores sont: \textit{le Piano Concerto \#2 in C Minor, Op. 18}(1901) par Serguei Rachmaninoff et \textit{le Concertino pour harpe et piano}(1927) par Germaine Tailleferre, en complément d'une nappe sonore de BruitBlanc, \textit{WhiteNoise} qui accompagne certaines scènes de la performance. Parmi les algorithmes de composition, nous avons choisi de détourner la fréquence et le volume sonore de ces fichiers, selon la position de chaque utilisateur sur le canevas et la vitesse de ses mouvements. Alternativement, dans la première version de la performance, nous avons associé un son au robot et un son à chaque interaction entre les positions des utilisateurs, créant un espace sonore qui illustrait les déplacements dans l'espace.
|
||
|
||
|
||
\subsection{Émission radio sur la conscience artificielle}
|
||
|
||
En juillet 2020, j'ai eu l'occasion d'animer l'émission radio \textit{Conscience Artificielle. Mythe ou Realité?} dont les invités ont été des artistes-chercheurs. Parmi les invitées: Sooraj Krishna du laboratoire ISIR, puis Chu-Yin Chen, Isadora Teles de Castro et moi-même du laboratoire INREV\footnote{http://www.galoche.online/emission/33/2020-07-03-11-30-conscience-artificielle-mythe-ou-realite}.
|
||
|
||
L'objectif de cette émission, structurée sous la forme d'un débat, a été d'échanger des points de vue personnels sur la question de la conscience artificielle. La motivation principale a été de comprendre comment la science peut modéliser un phénomène qu'elle n'arrive pas à définir entièrement. Plus exactement, nous avons cherché à comprendre et aussi spéculer sur l'éventualité qu'une conscience humaine peut-être reproduite par des moyens artificiels (ou pas).
|
||
|
||
J'ai préparé une série des références qui ont été distribués en amont de l'émission. Parmi eux, quelques extraits ont été écoutés en direct. La première mention a été le projet \textit{The Humain Brain Project} ou HBP. Ce projet scientifique d'envergure crée en 2013 vise à simuler le fonctionnement du cerveau humain grâce à un superordinateur, dont les résultats obtenus auraient pour but de développer des nouvelles thérapies médicales en réponse aux maladies neurologiques de notre époque.
|
||
|
||
Dans le déroulée de l'émission nous avons également diffusé un extrait sonore du chercheur Stanislas Dehaene, ancien élève de l'École normale supérieure et docteur en psychologie cognitive. Professeur au Collège de France depuis 2005, il est responsable de la chaire de Psychologie Cognitive Expérimentale. Ses recherches se concentrent autour des bases cérébrales d'opérations les plus fondamentales du cerveau humain: la lecture, le calcul ou la prise de conscience.
|
||
|
||
La prochaine référence partagée a été un extrait sonore qui évoque le concept d'\textit{Umwelt}, à la croisée des chemins entre biologie, communication et sémiotique. Selon Jakob von Uexkull et Thomas A. Sebeok, l'Umwelt (pluriel : Umwelten) désigne l’environnement sensoriel propre à une espèce ou un individu, traduit en français par l'expression de \textit{monde propre}. La théorie de von Uexkull explique comment des organismes qui partageant le même environnement, font l'expérience de différents réalités sensorielles. Par exemple, une abeille qui partage le même environnement qu'une chauve-souris, sera sensible à la lumière polarisée tandis que la chauve-souris réagira aux ondes issues de l'écho-location. Les deux stimuli leur étant réciproquement inaccessibles, produisent une perception différente du monde extérieur pour chacun.
|
||
Un autre article partagé, fait état d'une définition de la conscience en lien avec des états d'éveil\cite{vanhaudenhuyse2007elsevier}.
|
||
Nous nous sommes inspirés par ce graphique qui met en relation le niveau d'éveil et l'environnemt:
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/conscience}
|
||
\caption{Corrélation du niveau d'éveil avec la conscience de soi et de l'environnement. }
|
||
\label{fig:conscience}
|
||
\end{figure}
|
||
|
||
|
||
Ensuite j'avais lu un extrait de l'article \textit{
|
||
Action \& Enaction - Emergence de l'oeuvre d'art}\cite{lambert2017action} que Chu-Yin CHEN avait écrit en 2017:
|
||
\begin{quote}
|
||
|
||
``Quand je lance un caillou, je peux prévoir sa trajectoire et savoir où il ira. Mais, si je lâche mon chat, et bien que je l’aie apprivoisé, il s’échappe de ma main : il fuit pour se cacher ou il cherche à s’amuser. Quand je l’appelle, il joue à cache-cache, il fait tout ce qu’il veut dans cette maison. En fait, toutes les entités vivantes s’administrent par leurs propres lois qui caractérisent leur autonomie.”
|
||
|
||
\end{quote}
|
||
|
||
|
||
|
||
L'intelligence ou la conscience sont des concepts dont la définition varie suivant les domaines. C'est pourquoi, dès que notre raisonnement touche à l'intangible, il devient difficile de quantifier et rationaliser la conscience sans la réduire au seul fonctionnement du cerveau. Parmi les idées véhiculés lors des interventions, je mentionne celle où les émotions et la perception sont vues comme des composantes en lien avec la conscience, tout comme les pensées ou le sens du soi. D'un point de vue psychologique, elle représente une sensation intériorisée immédiate qu'un être établit avec le monde. Dans ce sens, elle peut aussi être reliée aux notions de connaissance, d'intuition et de réflexivité.
|
||
La conscience est également représentée par un parcours graduel entre le sommeil profond et la veille peuplé par des états intermédiaires. Selon le paradigme de la recherche scientifique utilisé, un état modifié de conscience (EMC) est un état mental différent de l’état de conscience ordinaire. Cet état représente une déviation dans le fonctionnement psychologique d'un individu, par rapport à certaines normes générales de la conscience à l'état de veille. De cette façon les rêves, les états hypnotiques, les hallucinations, la transe, la méditation, les états sous l'influence des drogues psychotropes ainsi que l'état végétatif ou le coma sont des exemples d'EMC.
|
||
|
||
\textbf{illustration courbe EMC}
|
||
|
||
Dans l'introduction de son livre \textit{Les États modifiés de conscience}(1987) Georges Lapassade, décrit les EMC comme:
|
||
|
||
\begin{quote}
|
||
``un certain nombre d’expériences au cours desquelles le sujet a l’impression que le fonctionnement habituel de sa conscience se dérègle et qu’il vit un autre rapport au monde, à lui-même, à son corps, à son identité.”\cite{lapassade1986emc}
|
||
\end{quote}
|
||
|
||
Plus tard, l'ethnologue évoque l'importance du dédoublement vu comme une dissociation spontanée entre deux dimensions fondamentales de la conscience modifiée. Pour Lapassade il existe une dimension passive de la conscience où le sujet semble subir ce qui lui advient, en contrepoids d'une dimension active d’observation par laquelle le sujet prends acte de ce qu'il traverse. Le miroir d'une réalité propre, selon les capacités sensorielles de chacun, illustre ce que le sujet arrive à traduire consciemment.
|
||
A leur tour, les invités illustrent ce problème sous la forme d'une paradigme recursive dont l'objectif est la connaissance de soi. Isadora parle d'un cycle d'apprentissage qui passe par plusieurs étapes: ``the more we try to simulate consciousness, the more we understand consciousness. Our actual state of consciousness is too ahead of what we try to simulate. Our trials are a way to understand our own consciousness, a late mirror from a millions of years ago.” Ces observations nous permettent de re-définir le concept de réalité, en nous appuyant sur les concepts théoriques de von Uexkull ou de Dehaene, ainsi que sur nos propres observations.
|
||
|
||
|
||
|
||
\textbf{If you throw a robot, what would the robot do?}
|
||
|
||
Les échanges ont continué en avançant l'idée d'une possible conscience pour les robots, en lien avec la boucle perception-cognition-action. Puisque une simulation semble à l'heure actuelle la seule possibilité réelle d'une tel objectif, nous nous sommes demandés comment mieux définir cet état d'émulation d'une conscience. Par quels biais et facteurs cela doit se produire pour générer une expression crédible d'une effet de conscience ou ``make a believable expression of consciousness” pour citer Sooraj. Nous avons pris comme point de départ le comportement des organismes vivants. De cette manière, nous nous sommes demandées comment mieux anticiper le comportement qui vise la trajectoire d'un robot jetée, par rapport au trajectoire du chat ou de la pierre dans l'exemple de Chu-Yin. Nous avons conclu que le comportement émergeant d'un système complexe dépend également de l'influence de son environnemt. Le degré d'incertitude des conditions de l'environnement doit être pris en compte. Nous nous sommes mis d'accord sur le fait que la ré-activité et l'autonomie de ce type de système, est ce que
|
||
garantit sa réussite. Un robot qui s'adapte aux conditions de son environnemt avec les mêmes instincts qu'un humain, sera l'émulation parfaite. Cependant autant que nous ne connaissons pas dans les plus brefs détails notre propre fonctionnement en tant qu'espèce, nous n'y arriverons pas à la modéliser.
|
||
Rétro-activement, la pensée du Michel Bibtol peut pousser plus loin l'exercice de spéculation fait pendant l'émission radio. Suite aux nombreuses échanges, nous n'avons pas fait écho à l'article \cite{bitbol2018conscience} que faisait partie de notre matériel didactique pour entrer dans la matière. Le philosophe de sciences semble conclure mieux que nous le débat:
|
||
|
||
\begin{quote}
|
||
``Et d’ailleurs, pourquoi voudrait-on plus que cela ? Pourquoi voudrait-on que les robots soient « réellement » le siège ou le centre de perspective d’une conscience phénoménale, en
|
||
supplément de leur comportement analogue à celui d’un être conscient ? Qu’est-ce que cela nous apporterait de plus par rapport au « comme si » ? Une seule chose : la potentialité de
|
||
s’incarner soi-même, de se ré-incarner faudrait-il dire, dans un robot et d’affranchir ainsi le flux d’identification vécu que nous appelons « ego » de ce corps malade et mortel. Le test pour
|
||
savoir si quelqu’un a réussi à se convaincre de cette possibilité serait de lui poser cette simple mais dérangeante question : \textit{accepteriez-vous de mourir à l’instant si vous saviez que votre structure cognitive et vos habitus comportementaux ont été intégralement téléchargés dans un robot?} Ou auriez-vous un doute, celui que la structure cognitive en question, n’ayant aucun vécu associé, vous seriez alors mort pour de bon ?”
|
||
\end{quote}
|
||
|
||
Selon S.Dehaene, la conscience opère une intégration ainsi qu'une amplification des informations venues de différentes parties du cerveau. Chacune de ces parties traite à son tour, de façon automatique et non consciente, une partie des informations provenant de différents sous-modules. Pour le neuro-scientifique, ce fonctionnement hiérarchique basé sur le tri d’informations, permettra au robot d'adapter son comportement à chaque situation nouvelle.
|
||
Actuellement les robots autorégulent en partie leur comportement, selon leurs taches et capacités de calcul. Pour atteindre une autonomie décisionnelle, ils devraient simuler à 100\% un comportement humain. Grâce aux avancées en neurosciences, les architectures cognitives robotiques s'inspirent de plus en plus de mécanismes conscients d’intégration de l’information. Cependant ces mécanismes ne sont pas parfaitement compris, tout comme celles inconscients qui restent encore opaques et difficile à simuler.
|
||
Dans ce contexte, la théorie de l’information intégrée proposée par Giulio Tononi apporte des réponses complémentaires. Cette théorie avance l'hypothèse que l’accès à conscience d’un individu est lié à la quantité d’information intégrée dans son cerveau.
|
||
La thèse de Dehaene\cite{dehaene2021springer} approfondie cette perspective. Ainsi la définition de la conscience est donné en trois temps- celle de la conscience qui traite d'une information disponible globalement dans le cerveau ou qui peut-être utilisée à tout moment (C1 global availability of relevant information) avec l'interprétation subjective de cette information (C2 self-monitoring), mais aussi celle qui résulte des processus inconscients (C0- unconsciouss processing).
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/C1C2}
|
||
\caption{Illustration de la relation entre les composantes C0-C2 de la conscience, selon les observations théoriques de S. Dehaene}
|
||
\label{fig:c1c2}
|
||
\end{figure}
|
||
|
||
La composante C1, celle de la disponibilité de l'information à tout moment, fait référence au caractère transitif de la conscience. Dans l'exemple de Dehaene, cela corresponds au pilote d'une voiture qui comprends la signification d'un voyant qui s'allume. Ainsi la représentation mentale du voyant rouge est intégrée dans un système cognitif d'interprétation de symboles. Cette information est disponible globalement pour des autres associations, autant qu'elle reste consciente.
|
||
Une autre propreté de la conscience est son caractère reflexif. Cela signifie qu'un système cognitif est auto-référentiel, capable de s'auto-évaluer selon un contexte donné afin d'obtenir des informations nouvelles. Par exemple, l'être humain qui récupère de façon automatique des informations sur la position de son corps, pour mieux l'ajuster en cas de disconfort. Dehaene décrit cela comme une introspection, vue comme moyen de produire des représentations internes propres concernant les habilités de quelqu'un. Alors qu'une grande partie de l'information de notre environnement est décodée et stockée dans le cerveau sans que nous l'utilisons de façon conscience. Parfois des souvenirs peuvent influer nos décisions et états conscients, mais la plupart du temps cette masse d'information est opaque et opère au niveau de notre inconscient.
|
||
Selon Dehaene\cite{dehaene2021springer}, la composante C0 est siège des processus d'apprentissage et de notre coordination et la plupart des robots fonctionnent grâce à ses principes. Élargir ce modèle aux composantes C1 et C2 est un défi pour les chercheurs en robotique:
|
||
\begin{quote}
|
||
``How could machines be endowed with C1 and C2 computations? Let us return to the car light example. In current machines, the “low gas” light is a prototypical example of an unconscious modular signal (C0). When the light flashes, all other processors in the machine remain uninformed and unchanged: fuel continues to be injected in the carburetor, the car passes gas stations without stopping (although they might be present on the GPS map), etc. Current cars or cell phones are mere collections of specialized modules that are largely “unaware” of each other. Endowing this machine with global information availability (C1) would allow these modules to share information and collaborate to address the impending problem (much like humans do when they become aware of the light, or elephants of thirst).”
|
||
\end{quote}
|
||
Dans les exemples de Dehaene, un éléphant est capable de parcourir jusqu'au 50km pour retrouver une source d'eau lorsqu'il a soif, en intégrant des informations de son environnement et des indices par rapport aux autres fois quand il a eu soif. Nous pouvons espérer qu'un jour, des robots conscients de leur environnement et de leurs expériences passés, seront capables de s'auto-réguler et fonctionner de manière autonome dans un éco-système où ils seront tout autant intégrés qu'un espèce vivante.
|
||
\section{Objets électroniques}
|
||
\subsection{M.I.P. Objets magiques}
|
||
Une instance intéressante de ma recherche-création a été la préparation, entre décembre 2021 et mai 2022 d'un Module Pédagogique Innovant pour l'école doctorale EUR-ArTeC. Cette expérience d'enseignement académique m'a permis de
|
||
|
||
L'atelier laboratoire \textit{Interfaces Magiques : objets connectés pour la performance artistique} a été conçu comme un partage des connaissances autour du design et de la création d'accessoires électroniques interactifs et connectés pour des performances artistiques. Il a proposé un espace d’expérimentation mixte entre informatique, électronique et création d’objets pour explorer comment ces interfaces peuvent enrichir l’expérience sensible et créative d’une performance tant pour le performeur que pour le spectateur.
|
||
|
||
Le projet a été conçu et animé en collaboration avec Isadora Teles de Castro, dans le cadre du projet ArTeC: \textit{Co-Evolution, Co-Création \& Improvisation H2M (CECCI H2M): Promouvoir une coévolution comportementale durable avec une co-création émergente Homme-Machine} dont j'ai fait mention dans l'introduction de ce travail.
|
||
|
||
Ce M.I.P. a eu lieu du 6 au 9 mai, de 10h à 18h, dans mon studio artistique au DOC! (26 rue du Docteur Potain, 75019 Paris) puis le 27 mai en ligne, pour discussion et débriefing.
|
||
Les participants à cet atelier ont fait partie du M1 et M2 de l'école EUR-ArTeC. Conçu comme un atelier-laboratoire dont l' objectif pédagogique a été l’appropriation des dispositifs électroniques connectés dans un contexte artistique, les participantes:
|
||
\begin{itemize}
|
||
\item ont acquis des concepts et des références sur les accessoires électroniques interactifs portables, ainsi que sur les objets IoT connectés et leur contexte de création artistique,
|
||
\item ont expérimenté une première étape de planification, prototypage et réalisation d'interface pour des fins performatifs et artistiques,
|
||
\item ont acquis des bases en électronique et informatique qui leur permettront de s’imaginer leurs propres projets créatifs en interfaçant ensemble des modules électroniques (capteurs, actuateurs, carte contrôleur).
|
||
\item ont eu l’occasion de customiser leurs propres outils et accessoires lors d’un exercice dramaturgique en lien avec le féminisme et l’hybridation du corps.
|
||
|
||
\end{itemize}
|
||
|
||
La version intégrale du cahier de bord est disponible en ligne\footnote{https://interfacesmagiques.tumblr.com}
|
||
|
||
L'atelier a été structuré en plusieurs étapes. D'abord un état d'art des projets créatifs utilisant du matériel électronique. Ensuite nous avons présenté notre matériel électronique et quelques capteurs avant de procéder à du travail pratique. Le troisième temps a été celui d'une maquette, pensée comme étude de cas des connaissances acquises suivi par un temps d'échange.
|
||
|
||
Le module pratique que j'ai pris en charge utilisait un capteur EmG.
|
||
|
||
\textbf{photo capteur emg}
|
||
|
||
-Structure et types de capteurs pour l'EMG
|
||
-Mise en pratique : demo résidence M.M. et MIP
|
||
|
||
\subsection{Animata}
|
||
|
||
-Structure et types de capteurs
|
||
\textbf{photo capteur infra, robo giuseppe, photo moi et animat }
|
||
-Mise en pratique: essais résidence CCIH2M
|
||
\section{Des robots sauvages}
|
||
\subsection{Laboratoire d'expérimentation sur le lâcher-prise}
|
||
\subsection{HRP-4 virtuel}
|
||
\subsection{HRP-4 réel}
|
||
\subsection{Panda}
|
||
|
||
|
||
\textbf{CECCI-H2M}
|
||
Le projet s'est déroulé sous plusieurs semaines de résidence au Centre des Arts d’Enghien-les-Bains. En juillet 2021, lors de notre première phase du projet, nous avons travaillé avec une version simplifiée du robot -une animata Arduino construite pour des déplacements aléatoires dans l’espace. Cette étape nous a permis de tester l’interaction avec un prototype doté d’un comportement involontaire. Lors des improvisations sur le plateau, nous avons cherché un terrain d’entente entre l’intelligence du corps humain, la réponse du corps machinal de l’animat et la réactivité de l’environnement virtuel. L’influence de ces éléments artificiels sur l’expression corporelle du performeur, ainsi que les mouvements de l’animat, sa fragilité et sa dimension réduite, ont provoqué une interaction instinctive, en marge d’une construction rationnelle basée sur de la réciprocité.
|
||
|
||
Quelques mois plus tard, lors d'une deuxième phase du projet nous avons projeté les mouvements du robot virtuel HRP-4 sur la performeuse afin de tester une forme de mimétisme gestuel. Cela nous a également permis d’approfondir les concepts d’altérité et d’autonomie des dispositifs robotiques. Les qualités de \textit{sauvage} ainsi que la notion d’\textit{Umwelt} ont accompagné cette résidence artistique. Après quelques tests avec le robot virtuel, nous avons pu constater à quel point le virtuel reste une manifestation mystérieuse qui suscite l’imagination des artistes. Cela n’est possible qu’à partir de l’interprétation du virtuel comme un organisme différent, en manifestant une autonomie sensible à la perception du performeur. Cela nous a également permis de réfléchir aux contraintes issus de l’intégration des éléments virtuels et réels dans un projet performatif. Comme une négociation entre les solutions software et les dispositifs hardware, l’illusion du réel versus l’imaginaire virtuel et la place que chacune de ces dimensions occupe sur le plateau, représentent une phase importante de ce projet.
|
||
|
||
Lors des prochaines résidences, nous avons mis l’accent sur la spécificité du robot HRP-4. Pour sa programmation, j’ai dû d’abord étudier ses mouvements mécaniques, leur potentiel artistique en termes d’expressivité, de contraintes et des libertés. L’effet de présence d’un robot humanoïde sur scène a suscité des questionnements en lien avec l’altérité de sa figure mécanique et le concept de \textit{uncanny} produit par ses mouvements remarquablement naturels. Les différences entre l’organicité du corps humain et l’ artificialité du robot ont ainsi devenu une source d’inspiration, comme une matière à détourner.
|
||
En 2022, pour imaginer de nouvelles formes d’écriture corporelle en vue d’une improvisation performative, le travail de programmation du robot HRP4 a été réalisé en deux temps. D’abord une familiarisation avec les systèmes MoCap utilisés par l’équipe du laboratoire et l’installation de plugins qui nous ont permis de simuler en temps réel les séquences de mouvement de l'humain sur le robot virtuel. Ensuite, des tests avec le robot HRP réel ont été réalisés en mars 2022. Ces tests ont facilité la mise en place d’une séquence de mouvements sur une chaise. Ce choix de faire s’asseoir le robot sur la chaise vient comme un résultat de nos réflexions sur les contraintes d’équilibre du robot, lors des séances d’improvisation. La mise en place la plus simple, pensée avec les ingénieurs de l’équipe de prof. Kheddar, a été l’organisation de ces séquences dans de programmes de type F.S.M (Finite State Machines) qui permettent une meilleure organisation des transitions entre différentes postures.
|
||
|
||
Comme hypothèse de recherche pour une chorégraphie mimétique, j’ai pu créer des simulations de séquences de mouvement sur un robot virtuel. Dans un premier temps, j’ai décidé de rapprocher la figure du robot à celle d’un danseur de slow, réalisant quelques tests d’interaction réelle avec la version physique du HRP-4. Ensuite j’ai effectué un travail de gestes inspirés par les postures de dirigeants politiques, pour voir dans quelle mesure les postures de pouvoir sont incarnées par des gestuelles et non par des attitudes. Le pouvoir que nous leur désignons est parfois le pouvoir de fascination que leur potentiel exerce sur nous, sans s’en rendre compte. Dans cette configuration centrée sur la fascination d’un objet inanimé, nous avons voulu comprendre dans quelle mesure le mouvement et les gestes dansés deviennent vecteurs d’influence.
|
||
|
||
Une autre séquence de mouvements a été préparée pour la troisième résidence de création au Centre des Arts d’Enghien Les Bains en septembre 2022. Pour cela, j’ai codé une séquence de mouvement sur la chaise qui dure approximativement 2 minutes. A l’intérieur de cette séquence, les états sont enchaînés selon une règle inspirée par la quatrième itération de l’algorithme de la courbe du Dragon. Pour correspondre aux quatre postures choisis initialement, nous avons opéré une conversion entre les états de la courbe du dragon et les états F.S.M. Pour la performance \textit{Le mythe de l’Immorta} présentée lors de notre sortie de résidence, un travail de synchronisation avec les sons produites par Hui-Tin Hong a été fait ultérieurement. Une autre séquence de code, cette fois en montrant le robot applaudir a été rajoutée ultérieurement. Ainsi le robot virtuel est apparu dans deux moments différents de la performance- au départ sur une chaise pour présenter sa danse et à la fin début pour applaudir les spectateurs. Le rythme de certains mouvements a été modifié pour correspondre avec la musique. Une pause de six secondes a été introduite dans la séquence pour marquer un moment d’arrêt: le robot virtuel tourne sa tête pour regarder le public. Ce geste a été interprété par les spectateurs comme une façon d’évaluer la danse des performeuses.
|
||
En parallèle, des autres moments de recherche en écriture corporelle ont été possibles grâce à la mise à disposition du studio de répétition de la chorégraphe Mathilde Monnier à Montpellier. J'ai pu effectuer une recherche sur le lien entre le son et le mouvement, pour continuer mes expérimentations Arduino précédentes. Ainsi avec l’aide du logiciel PureData nous avons créé un prototype de capteur EmG pour convertir le signal électrique des muscles en du son aléatoire. Ce prototype, testé lors d’une résidence artistique à la Halle Tropismes a Montpellier, a été présenté dans le cadre du Module Pédagogique Innovant ``Objets Magiques”, conçu en collaboration avec Isadora Télés de Castro pour le projet CECCI-H2M dans le cadre du dispositif Artec. Des laboratoire de recherche inspirés par mes expériences d’éducation somatique ainsi que par l’utilisation des techniques de shaking, constituent une boîte aux outils pour rechercher une corporéité ``autre” sur le plateau.
|
||
|
||
\section*{Conclusion}
|
||
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.
|
||
|
||
\chapter{Etude(s) de terrain}
|
||
\section{Experiment Lycée Mercy}
|
||
\subsection{Anthropomorphism}
|
||
\cite{spatola2019cairn}
|
||
\section{Experiment LIRMM}
|
||
\subsection{Simmetry and synchrony}
|
||
\section*{Conclusion}
|
||
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.
|
||
|
||
|
||
\chapter{Robots en transe et \textit{conscience artificielle}}
|
||
\section{La question de la créativité}
|
||
https://www.scientificamerican.com/article/the-origin-human-creativity-suprisingly-complex/
|
||
https://www.pnas.org/doi/10.1073/pnas.2117561118
|
||
http://www.nancyeaiken.net/about.html
|
||
Toutes les articles et livres du folder/idh/creativity sur les origines de l'art et la préhistoire\cite{mithen1998prehistory, srinivasan2007cognitive, abraham2018cambridge, vartanian2013mit}
|
||
\cite{gray2010cave, mellet2019neuroimaging}
|
||
\section{La question de l'adaptabilité}
|
||
\cite{asada2020jaic, reggia2013elsevier}
|
||
https://interstices.info/la-conscience-dune-machine:
|
||
Dans les années 1970, le psychologue américain Gordon Gallup a mis au point le test du miroir. L’idée est d’estimer la conscience de soi chez un animal, y compris un humain, en lui apposant subrepticement une marque sur le front. Face à un miroir, quand l’individu essaie de toucher, d’enlever la trace ou fait simplement mine d’avoir noté le changement, on en conclut qu’il est conscient de son propre corps. À ce jour, les espèces qui ont passé avec succès le test du miroir sont les chimpanzés, les bonobos, les orangs-outans, les dauphins, les éléphants, les corbeaux… Les bébés y parviennent à partir de 18 mois. Et les robots ?
|
||
Par ailleurs, des éthologistes ont récemment montré que les grands singes, les dauphins ou encore les éléphants sont capables d’une certaine identification d’eux-mêmes et, en conséquence, réussissent le test du miroir. Des espèces inattendues, tels les perroquets et les pies, semblent également réussir le test du miroir sans qu’on puisse dans leur cas parler rigoureusement de conscience de soi.
|
||
\section{Présentation publique}
|
||
\subsection{Dramaturgie}
|
||
\subsection{Shaking, halprin and cie}
|
||
\subsection{Discussion}
|
||
|
||
\section*{Conclusion}
|
||
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.
|
||
|
||
\clearpage
|
||
|
||
\chapter*{Conclusion de la partie II}
|
||
\addcontentsline{toc}{chapter}{Conclusion}
|
||
|
||
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl. |