thesis_archive/sections/partie_2.tex

505 lines
69 KiB
TeX
Raw Normal View History

2023-06-08 18:32:40 +02:00
\part{Des robots et des ours. Le travail de terrain et ses contraintes}
2021-11-22 14:56:33 +01:00
\chapter*{Introduction}
\addcontentsline{toc}{chapter}{Introduction}
\chapter{Improviser avec des machines}
2023-08-16 16:39:37 +02:00
\section{Approches anthropologiques}
\subsection{A.VOID}
A.VOID est un projet numérique co-crée avec Isadora Teles de Castro en 2020. Concu comme une serie des performance collectives autour du son, du geste et de l'image, ce projet a un format hybride mélangeant radio, applications web et gestes devant une webcam.
Contexte de création
Impactées par les contraintes en lien avec la pandémie Covid19, nous nous sommes demandées, comme beaucoup dautres, quel avenir pour lart performatif et comment agir dans ce contexte extraordinaire. Face à des lieux de diffusion fermés, nous avons pensé organiser des performances collectives avec des utilisateurs qui se connectent en même temps que nous, pour co-créer ensemble. Cela a commencé en juillet 2020, quand nous avons présente notre premiere maquette A.VOID v1. en direct sur les ondes de Radio Galoche. Six mois plus tard, en décembre 2020, nous avons présentée la deuxième version du projet.
Ainsi lisolement social et l'impossibilité de se rencontrer pour expérimenter et créer, nous à contraint d'inventer des nouveaux outils. Nous avons proposé une plateforme accessible en ligne pour simuler un espace de rencontre virtuel. Les participants se sont connectés grâce à leurs téléphone portables ou ordinateurs. Une fois détecté, chaque mouvement devant la webcam a été lié à un vecteur graphique dévénu agent virtuel pour des interactions son-image-texte. Des gestes ont été analysée pour extraire la direction et vitesse du mouvement et ainsi influencer le déplacement de l'agent virtuel, lors d'une succession de scénarios d'exploration appelés ``scènes”.
Parmi les objectifs du projet, nous avons cherché à:
\begin{itemize}
\item tester limpact des technologiques numériques sur la créativité
\item s'approprier des outils de création qui échappent aux contraintes du monde physique
\item improviser avec une entité autonome virtuelle
\item provoquer des synergies son-mouvement-image et convoquer l'aléatoire dans le processus de création
\item proposer une manière inédite de simpliquer dans une expérience artistique en tant que créateur
\item proposer un cadre alternatif de réception dune oeuvre artistique
\item questionner le rapport performeur-scène, dans une situation de présence dématérialisée
\end{itemize}
Pour ma propre recherche en danse, ce projet m'a donné l'opportunité de comprendre intuitivement limpact que la dématérialisation des gestes peut avoir sur le corps d'un danseur, tout comme cet impact peut influer les autres médiums comme le son ou les images. J'ai pu également observer comment labstraction d'un geste modifie le comportement autonome dun agent virtuel et l'inverse.
Lorsque les participants nous ont partagé leur incertitude quand au comportement attendu et à la synchronisation avec les outils numériques j'ai pu confirmer mes intuitions quant au rôle des dispositifs numériques dans la co-création. Ce moment flou, ou l'humain se sent abandonné devant l'opacité du dispositif technologique est devenu pour moi un vrai moment de lâcher prise, catalyseur d'une expérience créative. Vidée de ses attentes et projections quant au résultat, le participant ne se regarde plus faire mais intègre le dispositif en pleine conscience, avec toutes ses sens. L'outil se transforme ainsi en véhicule d'exploration, dont les possibilités d'expression sont infinies.
Dans le cas d'AVOID, selon le rythme et la vitesse du mouvement devant la webcam, le son a été plus fort, ou plus vite.
Cela à confirmé l'importance des outils technologiques dans les processus de recherche-création. Persuadée que ce type d'état de pleine conscience à une composante synesthesique, j'ai poussée plus loin le lien entre son et geste. Les gestes ont fini ainsi se produire guidées par le son, dans l'intimité de chaque espace de représentation. Autre que moi et Isadora qui regardons la régie de la performance collective, chaque participant explorait son espace virtuel à son propre rythme. Des changements du son ou moments de silence ponctuait les transitions, encourageant une liberté d'expression pour chaque participant. Ainsi la fin était différente pour chacun d'entre eux, selon la dynamique d'exploration et les moments d'errance. Parfois des participants ont ignoré des instructions, ou manqué les observer, sans que cela soit contraignant pour notre processus. A titre personnel, cette opacité et manière de travailler est un moment privilégié loin des préoccupations pour un résultat visible. L'expérience subjective du spectateur, devenu performeur à l'intérieur de notre dispositif a été le vrai résultat de notre expérimentation.
Cela a orienté mes recherches ultérieures sur la figure du robot et l'effet qu'il produit en tant que partenaire de scène.
Parmi les notes de mon journal de bord de cette époque, j'écrivais le 4 novembre 2020:
\textit{Comment le geste du robot, par son caractère aléatoire et imprévisible, peut changer/transformer le geste du danseur?
Interagir avec une machine à laver, cest comme interagir avec un robot? Quelque chose du comportement humain est déjà inconsciemment modifié face à un non-humain...}
Description du projet:
A.VOID cherche à modifier le rapport à une salle de spectacle, en créant des forme artistiques hybrides qui appartient aux spectateurs autant qu'aux artistes, capables d'exister indépendamment d'eux.
La performance propose un espace virtuel dexploration collective, où les participants questionnent leur identité à travers
des sons, d'images et des textes qui interagissent avec eux.
Les participants intègrent notre plateforme à travers le webcam d'un dispositif numérique portable(ordinateur ou téléphone). Nous proposons un cadre d'improvisation avec des instructions donnés via une plateforme radio ou vidéo. Des données de position du souris dédoublent les participants en agents virtuels dont les gestes devant la webcam influencent le comportement des agents autonomens virtuels.
Ainsi dans notre système multi-agents, il y a deux catégories de participants:
\begin{itemize}
\item{A.G.A. qui signifie agent generatif autonome}
\item{D.V.P. qui signifie dedoublement virtuel d'un participant}
\end{itemize}
Le D.V.P est le résultat des données de position du souris et des gestes devant la camera, que chaque participant fait lors de sa connexion.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/avoid_schema}
\caption{Schema d'interaction pour le systeme multi-agents}
\label{fig:avoidschema}
\end{figure}
Chacun se connecte et explore cet espace dématérialisé, accessible seulement le jour de la performance.
La durée de chaque expérimentation ou improvisation est d'environ 15 minutes. Selon les temps de connexion de chaque utilisateur et son interet pour la performance, nous maintenons la connexion au serveur ouverte environ 30min supplémentaires.
La première scène est collective, montrant les avatars correspondants à chaque participant. La suite est une exploration individuelle. Au fur et à mesure que la performance avance, dautres agents autonomes interagissent avec les participants. L'apparence des agents autonomes est similaire aux avatars des autres participants, afin d'entretenir une ambiguïté sur l'interaction entre des participants humains dédoublés ou des agents virtuels.
A.VOID v1. est une proposition sonore disolement graphique. Les utilisateurs se connectent sur une plateforme en bougeant un objet de couleur rouge devant leur caméra. Ce déplacement est traduit sous la forme d'un point de couleur d'un canevas numérique. Sur ce canevas, un point central rouge représentant un mini-robot doit être touché pour lancer une nappe sonore. Nous captons le robot directement dans le plateau de la webradio via une webcam. Il est en train de danser maladroitement accompagné par les bruits faites par des utilisateurs connectés. Lorsque des autres points de couleur se touchent, d'autres sons émergent, le tout forme une nappe de bruitage sonore, doublé par les mouvements des utilisateurs.
La performance diffusée en juillet 2020 est accessible online, sur le site de Radio Galoche\footnote{http://www.galoche.online/emission/31/2020-07-03-10-30-avoid-i}
A.VOID v2. continue notre questionnement sur la relation son-images-mouvement, dans une perspective synesthésique. Cette fois-ci nous avons imaginé une performance individuelle en plusieurs étapes, dont la durée reste à déterminer pour chaque participant. Nous diffusons la performance en direct à la radio pendant ses premières 15 minutes, mais un algorithme de vie artificielle évolutif continue dinteragir avec les inputs webcam de chaque utilisateur. Il sagit donc dune exploration personnelle sur la notion de soi et didentité numérique. Lors de la dernière scène, une image pixelisée de la webcam de chaque participant est envahie par des agents virtuels évolutifs. Selon sa couleur, chaque pixel devient de la nourriture ou du poison pour ces agents virtuels, déformant l'image de fond qui capte le background de chaque participant. Par cela, notre intention est de questionner l'identité numérique ainsi que la possibilité de performer avec des entités generés par un contexte virtuel. L'interaction ne suit plus règles des systèmes physiques et c'est difficile de distinguer les agents réels des agents virtuels de cet ecosysteme. La présence humaine est traduite par des moyens d'expression propres à lordinateur ou au portable qui se connecte à l'application. Cest un type d'interaction re-contextualisée avec des entités autonomes virtuelles qui agissent directement sur l'humain.
La performance diffusée en décembre 2020 est accessible online, sur le site de Radio Galoche\footnote{https://www.galoche.online/emission/307/2020-12-12-12-20-avoid-ii}
Parmi les mots-clés qui décrivent la dernière maquette du projet, nous nous sommes arrêtées sur: exploration synesthésique, performance dématérialisée, comportement aléatoire, geste dématérialisé,écosystème virtuel, dédoublement numérique.
Nos notes de 8 décembre 2020 décrivent le scénario d'A.VOID v2, qui se déroule sous la forme d'un tableau en 10 scènes.
Scène 1
Lutilisateur se connecte et voit une interface graphique où il y a une ligne qui bouge (déplacement inspiré par l'algorithme flow fields)
Scène 2
Écran noir, un contour de main apparaît avec une ligne qui suit ce contour
Scène 3 White Noise
Flock statiques comme un ciel la nuit avec des étoiles filantes
Scène 4
Flock qui bougent suivant le mouvement de l'utilisateur
Scène 5 SON1
Ecran noir avec des flow fields et moment long dimprovisation son + flow fields
Scène 6 SON2
Flow fields qui se transforment en shadder, improvisation musicale continue
Scène 7
Juste shadder avec SON2
Scène 8
Shadder avec l'apparition du visage de participant (stop SON2)
Scéne 9 White Noise
Image du webcam pixelisée avec le flock qui revient 10sec puis des les algorithmes évolutifs
Scène 10 White Noise
Lecture du texte puis encore 10sec avec les flock évolutifs
FIN
fin de lantenne alors que chaque participant peur continuer l'expérience individuellement pour voir les algorithmes évolutifs modifier l'image de fond
\textbf{Extrait du texte qui a accompagné Avoid v2. lors de sa diffusion en decembre 2020: }
\textit{Ce voyage commence par lempreinte dune main, tel les empreintes à locre des hommes préhistoriques sur les murs des grottes. Cette main dont le mouvement peut modifier le son de notre dispositif, est le salut dune personne dont on ne connaît pas lidentité, vers des autres, anonymes connectés à un serveur qui diffuse notre expérimentation.}
\textit{Comme dautres avant nous, nous aimerions dire que nous vivons un moment particulier dans lHistoire de l'humanité. Est-ce que ce moment coïncide- en termes de mutation de lesprit- avec ce que les humains préhistoriques ont ressenti lorsquils ont créé ce que nous appelons aujourdhui lart rupestre? Peut-on dire que lart numérique daujourdhui sera lart préhistorique de demain? Nous ne le saurons jamais. Mais ce que nous savons cest que les possibilités qui se dessinent devant nos yeux sont infinies. Et notre rapport au monde, tel quil a été défini par nos ancêtres, est lui aussi en train de s'hybrider avec des machines dont lexistence ordonne la notre.}
\textit{Le dernier repère de cette expérimentation est le reflet dun visage. Notre propre visage à l'intérieur du dispositif numérique. Sur l'écran de votre ordinateur, ce visage se dédouble dans des matrices de 0 et de 1. Puis un algorithme de vie artificielle sinscrit dans l'interface pour modifier ce reflet qui change au fur et au mesure que les algorithmes opèrent. Les personnes connectées au serveur- participants à notre expérimentation- peuvent rester regarder cette transformation un temps indéfini. Chaque portrait est modifié d'une façon unique et personne n'a accès au rendu final à part l'utilisateur lui-même.}
\textit{Qui regardons-nous dans l'abysse de cette dématérialisation numérique? Est-ce nous, notre propre visage qui est altéré par des "organismes numériques" ou ce sont des sosies d'une vie parallèle ? Sommes-nous ici et ailleurs? Et si oui, est-ce que nos sens se dédoublent, et ainsi se diluent, elles aussi dans l'absolu algorithmique?}
\textit{Des étoiles filantes tombent sur le ciel virtuel de notre monde numérisé. Pas de réponse directe à toutes ces questions.
}
Paris, 12 décembre 2020, midi trente
2023-08-18 06:32:04 +02:00
Le travail pour A.Void m'a permis d'explorer des intuitions quant à une dimension universelle de l'art, reliée aujourd'hui par la technologie. Quand un participant regarde le contour de sa main se dessiner sur l'écran, je ne peux pas m'empêcher penser aux premiers dessins pre-historiques, notamment celui de la grotte de Chauvet:
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/chauvet}
2023-08-18 07:09:35 +02:00
\caption{dessin avec de la poudre de pigments en ocre pour réaliser des mains en négatif, il y a plus de 30000 ans}
2023-08-18 06:32:04 +02:00
\label{fig:chauvet}
\end{figure}
2023-08-16 16:39:37 +02:00
2023-08-18 06:32:04 +02:00
La première fois que j'ai vu je n'ai pu pas m'empêcher de réfléchir à la signification de ce geste.
2023-08-18 07:09:35 +02:00
La capture de mouvement est une pratique qui a été exploitée dans de nombreux domaines, mais particulièrement dans l'analyse biomécanique des populations sportives et cliniques. Est-cette image une première tentative de capture de mouvement, ou un acte artistique?
\smallskip
2023-08-16 16:39:37 +02:00
En octobre 2021, lorsque j'ai donné le cours \textit{Perception, emotion and aesthetics of movement} (PEAMO), j'ai eu l'occasion de tester un format différent de la performance, avec les étudiants en Mastère Spécialisé Intelligence Artificielle et Mouvement pour la Robotique et les Systèmes Interactifs (MS AIMOVE) de l'école Mines Paris Tech. La performance a été adaptée au contexte, avec Isadora me rejoignant via skype pour présenter le projet et le lancer à distance.
Les participants ont interrogé les caractère spontané des interactions, leur participation collective n'étant pas la meilleure façon d'interagir avec le dispositif puisqu'ils nt pu regardes les écrans d'autres participants pour comparer leur parcours.
2023-08-18 07:09:35 +02:00
Pendant ce cours j'ai également fait une démonstration avec un capteur Leap Motion (LMC), pour montrer une alternative accessible à la captation des mouvements de mains. LMC est un petit périphérique USB qui se branche sur l'ordinateur. Il scanne une zone d'environ 0.22 m3 au-dessus de l'appareil, à l'aide de lumières LED et de capteurs de caméra. Cela lui est suffisant pour détecter les deux mains et les 10 doigts lorsqu'ils se déplacent dans l'espace devant l' ordinateur. Ensuite il traduit les données de position en informations numériques qui peuvent entre transformées en indices sonores ou visuels.
Ce type de capteur offre un moyen peu coûteux de suivi des mains, sans utiliser des marqueurs de position. Son utilité est limitée par un petit champ de vision mais la précision de sa détection le rend intéressant pour des projets DIY.
2023-08-18 06:32:04 +02:00
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/Leap Motion}
\caption{Mise en place d'une démonstration de capture de main avec la librairie open source LibFreenect}
\label{fig:leap-motion}
\end{figure}
Les participants ont pu observer comment deux technologies différentes peuvent produire les mêmes effets.
2023-08-16 16:39:37 +02:00
\textbf{Repères techniques}
Pour ce projet, nous avons utilisé le langage de programmation P5.JS, dont les brouillons, en anglais \textit{sketches}, facilitent une connexion multi-utilisateurs pour co-créer ensemble. P5 est une librairie open source JavaScript accésible online pour facilliter le \textit{creative coding}- une façon de programmer simplifiée, propre aux artistes. Ce langage est dérivé de Processing - une solution software imaginé comme façon simplifiée de programmer, grâce au contenu visuel de ses modules. Avec le temps, la communauté à fait évoluer le software dans un outil de création avec multiples applications, dont le P5.
\smallskip
Bien que P5 est accessible dans un browser, pour pouvoir inviter plusieurs utilisateurs se connecter à la même page, nous avons du créer un server qui traite des demandes HTTP avec l'aide de la plateforme \textit{Heroku}\footnote{https://devcenter.heroku.com/categories/nodejs-support} et du code source \textit{Node.js} dédiées aux applications réseau- \textit{JavaScript network applications}.
Grâce aux tutoriels open source du module \textit{sockets.io} nous avons pu inviter plusieurs participants accéder simultanément à notre performance. Le principe a été de transmettre les coordonnées mouseX, mouseY du souris de chaque utilisateur, sur une canevas graphique partagée en temps réel.
Isadora a choisi explorer les possibilités graphiques de notre performance par les \textit{Shaders}-deseffets visuels spéciaux qui s'exécutent sur la GPU(Graphic Processing Unit) d'un ordinateur. Cela lui a permis de traiter de nombreux pixels à la fois pour générer du bruit et appliquer des filtres inspirés par des algorithmes de vie artificielle.
Le travail de recherche sonore, nous a conduit à employer la librairie \textit{P5sound}. Les fichiers utilisés comme bases sonores sont: \textit{le Piano Concerto \#2 in C Minor, Op. 18}(1901) par Serguei Rachmaninoff et \textit{le Concertino pour harpe et piano}(1927) par Germaine Tailleferre, en complément d'une nappe sonore de BruitBlanc, \textit{WhiteNoise} qui accompagne certaines scènes de la performance. Parmi les algorithmes de composition, nous avons choisi de détourner la fréquence et le volume sonore de ces fichiers, selon la position de chaque utilisateur sur le canevas et la vitesse de ses mouvements. Alternativement, dans la première version de la performance, nous avons associé un son au robot et un son à chaque interaction entre les positions des utilisateurs, créant un espace sonore qui illustrait les déplacements dans l'espace.
\subsection{Émission radio sur la conscience artificielle}
En juillet 2020, j'ai eu l'occasion d'animer l'émission radio \textit{Conscience Artificielle. Mythe ou Realité?} dont les invités ont été des artistes-chercheurs. Parmi les invitées: Sooraj Krishna du laboratoire ISIR, puis Chu-Yin Chen, Isadora Teles de Castro et moi-même du laboratoire INREV\footnote{http://www.galoche.online/emission/33/2020-07-03-11-30-conscience-artificielle-mythe-ou-realite}.
L'objectif de cette émission, structurée sous la forme d'un débat, a été d'échanger des points de vue personnels sur la question de la conscience artificielle. La motivation principale a été de comprendre comment la science peut modéliser un phénomène qu'elle n'arrive pas à définir entièrement. Plus exactement, nous avons cherché à comprendre et aussi spéculer sur l'éventualité qu'une conscience humaine peut-être reproduite par des moyens artificiels (ou pas).
J'ai préparé une série des références qui ont été distribués en amont de l'émission. Parmi eux, quelques extraits ont été écoutés en direct. La première mention a été le projet \textit{The Humain Brain Project} ou HBP. Ce projet scientifique d'envergure crée en 2013 vise à simuler le fonctionnement du cerveau humain grâce à un superordinateur, dont les résultats obtenus auraient pour but de développer des nouvelles thérapies médicales en réponse aux maladies neurologiques de notre époque.
Dans le déroulée de l'émission nous avons également diffusé un extrait sonore du chercheur Stanislas Dehaene, ancien élève de l'École normale supérieure et docteur en psychologie cognitive. Professeur au Collège de France depuis 2005, il est responsable de la chaire de Psychologie Cognitive Expérimentale. Ses recherches se concentrent autour des bases cérébrales d'opérations les plus fondamentales du cerveau humain: la lecture, le calcul ou la prise de conscience.
La prochaine référence partagée a été un extrait sonore qui évoque le concept d'\textit{Umwelt}, à la croisée des chemins entre biologie, communication et sémiotique. Selon Jakob von Uexkull et Thomas A. Sebeok, l'Umwelt (pluriel : Umwelten) désigne lenvironnement sensoriel propre à une espèce ou un individu, traduit en français par l'expression de \textit{monde propre}. La théorie de von Uexkull explique comment des organismes qui partageant le même environnement, font l'expérience de différents réalités sensorielles. Par exemple, une abeille qui partage le même environnement qu'une chauve-souris, sera sensible à la lumière polarisée tandis que la chauve-souris réagira aux ondes issues de l'écho-location. Les deux stimuli leur étant réciproquement inaccessibles, produisent une perception différente du monde extérieur pour chacun.
Un autre article partagé, fait état d'une définition de la conscience en lien avec des états d'éveil\cite{vanhaudenhuyse2007elsevier}.
Nous nous sommes inspirés par ce graphique qui met en relation le niveau d'éveil et l'environnemt:
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/conscience}
\caption{Corrélation du niveau d'éveil avec la conscience de soi et de l'environnement. }
\label{fig:conscience}
\end{figure}
Ensuite j'avais lu un extrait de l'article \textit{
Action \& Enaction - Emergence de l'oeuvre d'art}\cite{lambert2017action} que Chu-Yin CHEN avait écrit en 2017:
\begin{quote}
``Quand je lance un caillou, je peux prévoir sa trajectoire et savoir où il ira. Mais, si je lâche mon chat, et bien que je laie apprivoisé, il séchappe de ma main : il fuit pour se cacher ou il cherche à samuser. Quand je lappelle, il joue à cache-cache, il fait tout ce quil veut dans cette maison. En fait, toutes les entités vivantes sadministrent par leurs propres lois qui caractérisent leur autonomie.”
\end{quote}
L'intelligence ou la conscience sont des concepts dont la définition varie suivant les domaines. C'est pourquoi, dès que notre raisonnement touche à l'intangible, il devient difficile de quantifier et rationaliser la conscience sans la réduire au seul fonctionnement du cerveau. Parmi les idées véhiculés lors des interventions, je mentionne celle où les émotions et la perception sont vues comme des composantes en lien avec la conscience, tout comme les pensées ou le sens du soi. D'un point de vue psychologique, elle représente une sensation intériorisée immédiate qu'un être établit avec le monde. Dans ce sens, elle peut aussi être reliée aux notions de connaissance, d'intuition et de réflexivité.
La conscience est également représentée par un parcours graduel entre le sommeil profond et la veille peuplé par des états intermédiaires. Selon le paradigme de la recherche scientifique utilisé, un état modifié de conscience (EMC) est un état mental différent de létat de conscience ordinaire. Cet état représente une déviation dans le fonctionnement psychologique d'un individu, par rapport à certaines normes générales de la conscience à l'état de veille. De cette façon les rêves, les états hypnotiques, les hallucinations, la transe, la méditation, les états sous l'influence des drogues psychotropes ainsi que l'état végétatif ou le coma sont des exemples d'EMC.
\textbf{illustration courbe EMC}
Dans l'introduction de son livre \textit{Les États modifiés de conscience}(1987) Georges Lapassade, décrit les EMC comme:
\begin{quote}
``un certain nombre dexpériences au cours desquelles le sujet a limpression que le fonctionnement habituel de sa conscience se dérègle et quil vit un autre rapport au monde, à lui-même, à son corps, à son identité.”\cite{lapassade1986emc}
\end{quote}
Plus tard, l'ethnologue évoque l'importance du dédoublement vu comme une dissociation spontanée entre deux dimensions fondamentales de la conscience modifiée. Pour Lapassade il existe une dimension passive de la conscience où le sujet semble subir ce qui lui advient, en contrepoids d'une dimension active dobservation par laquelle le sujet prends acte de ce qu'il traverse. Le miroir d'une réalité propre, selon les capacités sensorielles de chacun, illustre ce que le sujet arrive à traduire consciemment.
A leur tour, les invités illustrent ce problème sous la forme d'une paradigme recursive dont l'objectif est la connaissance de soi. Isadora parle d'un cycle d'apprentissage qui passe par plusieurs étapes: ``the more we try to simulate consciousness, the more we understand consciousness. Our actual state of consciousness is too ahead of what we try to simulate. Our trials are a way to understand our own consciousness, a late mirror from a millions of years ago.” Ces observations nous permettent de re-définir le concept de réalité, en nous appuyant sur les concepts théoriques de von Uexkull ou de Dehaene, ainsi que sur nos propres observations.
\textbf{If you throw a robot, what would the robot do?}
Les échanges ont continué en avançant l'idée d'une possible conscience pour les robots, en lien avec la boucle perception-cognition-action. Puisque une simulation semble à l'heure actuelle la seule possibilité réelle d'une tel objectif, nous nous sommes demandés comment mieux définir cet état d'émulation d'une conscience. Par quels biais et facteurs cela doit se produire pour générer une expression crédible d'une effet de conscience ou ``make a believable expression of consciousness” pour citer Sooraj. Nous avons pris comme point de départ le comportement des organismes vivants. De cette manière, nous nous sommes demandées comment mieux anticiper le comportement qui vise la trajectoire d'un robot jetée, par rapport au trajectoire du chat ou de la pierre dans l'exemple de Chu-Yin. Nous avons conclu que le comportement émergeant d'un système complexe dépend également de l'influence de son environnemt. Le degré d'incertitude des conditions de l'environnement doit être pris en compte. Nous nous sommes mis d'accord sur le fait que la ré-activité et l'autonomie de ce type de système, est ce que
garantit sa réussite. Un robot qui s'adapte aux conditions de son environnemt avec les mêmes instincts qu'un humain, sera l'émulation parfaite. Cependant autant que nous ne connaissons pas dans les plus brefs détails notre propre fonctionnement en tant qu'espèce, nous n'y arriverons pas à la modéliser.
Rétro-activement, la pensée du Michel Bibtol peut pousser plus loin l'exercice de spéculation fait pendant l'émission radio. Suite aux nombreuses échanges, nous n'avons pas fait écho à l'article \cite{bitbol2018conscience} que faisait partie de notre matériel didactique pour entrer dans la matière. Le philosophe de sciences semble conclure mieux que nous le débat:
\begin{quote}
``Et dailleurs, pourquoi voudrait-on plus que cela ? Pourquoi voudrait-on que les robots soient « réellement » le siège ou le centre de perspective dune conscience phénoménale, en
supplément de leur comportement analogue à celui dun être conscient ? Quest-ce que cela nous apporterait de plus par rapport au « comme si » ? Une seule chose : la potentialité de
sincarner soi-même, de se ré-incarner faudrait-il dire, dans un robot et daffranchir ainsi le flux didentification vécu que nous appelons « ego » de ce corps malade et mortel. Le test pour
savoir si quelquun a réussi à se convaincre de cette possibilité serait de lui poser cette simple mais dérangeante question : \textit{accepteriez-vous de mourir à linstant si vous saviez que votre structure cognitive et vos habitus comportementaux ont été intégralement téléchargés dans un robot?} Ou auriez-vous un doute, celui que la structure cognitive en question, nayant aucun vécu associé, vous seriez alors mort pour de bon ?”
\end{quote}
Selon S.Dehaene, la conscience opère une intégration ainsi qu'une amplification des informations venues de différentes parties du cerveau. Chacune de ces parties traite à son tour, de façon automatique et non consciente, une partie des informations provenant de différents sous-modules. Pour le neuro-scientifique, ce fonctionnement hiérarchique basé sur le tri dinformations, permettra au robot d'adapter son comportement à chaque situation nouvelle.
Actuellement les robots autorégulent en partie leur comportement, selon leurs taches et capacités de calcul. Pour atteindre une autonomie décisionnelle, ils devraient simuler à 100\% un comportement humain. Grâce aux avancées en neurosciences, les architectures cognitives robotiques s'inspirent de plus en plus de mécanismes conscients dintégration de linformation. Cependant ces mécanismes ne sont pas parfaitement compris, tout comme celles inconscients qui restent encore opaques et difficile à simuler.
Dans ce contexte, la théorie de linformation intégrée proposée par Giulio Tononi apporte des réponses complémentaires. Cette théorie avance l'hypothèse que laccès à conscience dun individu est lié à la quantité dinformation intégrée dans son cerveau.
La thèse de Dehaene\cite{dehaene2021springer} approfondie cette perspective. Ainsi la définition de la conscience est donné en trois temps- celle de la conscience qui traite d'une information disponible globalement dans le cerveau ou qui peut-être utilisée à tout moment (C1 global availability of relevant information) avec l'interprétation subjective de cette information (C2 self-monitoring), mais aussi celle qui résulte des processus inconscients (C0- unconsciouss processing).
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/C1C2}
\caption{Illustration de la relation entre les composantes C0-C2 de la conscience, selon les observations théoriques de S. Dehaene}
\label{fig:c1c2}
\end{figure}
La composante C1, celle de la disponibilité de l'information à tout moment, fait référence au caractère transitif de la conscience. Dans l'exemple de Dehaene, cela corresponds au pilote d'une voiture qui comprends la signification d'un voyant qui s'allume. Ainsi la représentation mentale du voyant rouge est intégrée dans un système cognitif d'interprétation de symboles. Cette information est disponible globalement pour des autres associations, autant qu'elle reste consciente.
Une autre propreté de la conscience est son caractère reflexif. Cela signifie qu'un système cognitif est auto-référentiel, capable de s'auto-évaluer selon un contexte donné afin d'obtenir des informations nouvelles. Par exemple, l'être humain qui récupère de façon automatique des informations sur la position de son corps, pour mieux l'ajuster en cas de disconfort. Dehaene décrit cela comme une introspection, vue comme moyen de produire des représentations internes propres concernant les habilités de quelqu'un. Alors qu'une grande partie de l'information de notre environnement est décodée et stockée dans le cerveau sans que nous l'utilisons de façon conscience. Parfois des souvenirs peuvent influer nos décisions et états conscients, mais la plupart du temps cette masse d'information est opaque et opère au niveau de notre inconscient.
Selon Dehaene\cite{dehaene2021springer}, la composante C0 est siège des processus d'apprentissage et de notre coordination et la plupart des robots fonctionnent grâce à ses principes. Élargir ce modèle aux composantes C1 et C2 est un défi pour les chercheurs en robotique:
\begin{quote}
``How could machines be endowed with C1 and C2 computations? Let us return to the car light example. In current machines, the “low gas” light is a prototypical example of an unconscious modular signal (C0). When the light flashes, all other processors in the machine remain uninformed and unchanged: fuel continues to be injected in the carburetor, the car passes gas stations without stopping (although they might be present on the GPS map), etc. Current cars or cell phones are mere collections of specialized modules that are largely “unaware” of each other. Endowing this machine with global information availability (C1) would allow these modules to share information and collaborate to address the impending problem (much like humans do when they become aware of the light, or elephants of thirst).”
\end{quote}
Dans les exemples de Dehaene, un éléphant est capable de parcourir jusqu'au 50km pour retrouver une source d'eau lorsqu'il a soif, en intégrant des informations de son environnement et des indices par rapport aux autres fois quand il a eu soif. Nous pouvons espérer qu'un jour, des robots conscients de leur environnement et de leurs expériences passés, seront capables de s'auto-réguler et fonctionner de manière autonome dans un éco-système où ils seront tout autant intégrés qu'un espèce vivante.
\section{Objets électroniques}
2023-08-16 23:26:55 +02:00
\subsection{M.I.P. ou comment rendre l'électronique créative}
2023-08-16 17:50:00 +02:00
2023-08-16 23:26:55 +02:00
Une instance intéressante de ma recherche-création a été la préparation, entre décembre 2021 et mai 2022, d'un Module Pédagogique Innovant (M.I.P.) pour l'école doctorale EUR-ArTeC. Cette expérience d'enseignement m'a permis de conceptualiser mes questionements dans un cadre académique et ainsi les confronter et adapter à un contexte général de recherche.
De cette façon, l'atelier laboratoire \textit{Interfaces Magiques : objets connectés pour la performance artistique} a été conçu comme un partage des connaissances autour du design et de la création d'accessoires électroniques interactifs et connectés pour des performances artistiques. Proposé comme un espace dexpérimentation mixte entre arts performatives, électronique et création dobjets connectés, ce module m'a permis de réfléchir à comment des interfaces connectées peuvent enrichir la créativité d'un performeur et comment un spectateur intègre cette proposition.
2023-08-16 16:39:37 +02:00
2023-08-16 16:58:06 +02:00
Le projet a été conçu et animé en collaboration avec Isadora Teles de Castro, dans le cadre du projet ArTeC: \textit{Co-Evolution, Co-Création \& Improvisation H2M (CECCI H2M): Promouvoir une coévolution comportementale durable avec une co-création émergente Homme-Machine} dont j'ai fait mention dans l'introduction de ce travail.
2023-08-16 16:39:37 +02:00
2023-08-16 23:26:55 +02:00
Il a eu lieu du 6 au 9 mai, de 10h à 18h, dans mon studio artistique au DOC! (26 rue du Docteur Potain, 75019 Paris) puis le 27 mai en ligne, pour discussion et retour d'expérience.
2023-08-17 16:39:46 +02:00
Les sept participantes ont été des étudiantes en M1 et M2 de l'école EUR-ArTeC. Puisque l' objectif pédagogique a été lappropriation des dispositifs électroniques connectés dans un contexte artistique, elles:
2023-08-16 16:39:37 +02:00
\begin{itemize}
\item ont acquis des concepts et des références sur les accessoires électroniques interactifs portables, ainsi que sur les objets IoT connectés et leur contexte de création artistique,
\item ont expérimenté une première étape de planification, prototypage et réalisation d'interface pour des fins performatifs et artistiques,
\item ont acquis des bases en électronique et informatique qui leur permettront de simaginer leurs propres projets créatifs en interfaçant ensemble des modules électroniques (capteurs, actuateurs, carte contrôleur).
\item ont eu loccasion de customiser leurs propres outils et accessoires lors dun exercice dramaturgique en lien avec le féminisme et lhybridation du corps.
\end{itemize}
2023-08-18 21:51:31 +02:00
La version intégrale du cahier de bord est disponible en ligne\footnote{https://interfacesmagiques.tumblr.com}.
2023-08-16 16:39:37 +02:00
2023-08-18 21:51:31 +02:00
L'atelier a été structuré en plusieurs étapes. D'abord nous avons mis en place un syllabus contenant une état d'art des projets créatifs utilisant du matériel électronique et le lien vers des tutoriels de \textit{creative coding} et projets DIY qui nous ont inspiré. Ensuite nous avons présenté notre propre matériel électronique et quelques capteurs avant de commencer le travail pratique de familiarisation et expérimentation avec les boards Arduino et les capteurs. Le troisième temps a été celui de la réalisation d'une maquette collective, pensée comme étude de cas des connaissances acquises. Grâce à l'utilisation de capteurs, des servo-moteurs et de formes textiles plissées et pliées, les participants ont appris à créer une extension corporelle portable connecté aux mouvements d'un autre corps. Dans les semaines qui ont précédé cet atelier, nous avons également organisé un temps d'échange et de retour d'expérience.
2023-08-18 06:32:04 +02:00
2023-08-18 21:51:31 +02:00
Une partie importante pour les permises du projet, a été le partage des ressources bibliographiques. Parmi les artistes qui nous ont le plus inspiré, il y a le travail de Katie Hartman. Son livre \cite{hartman2014make} présente les bases de l'électronique pour des projets créatifs, ainsi que des exemples de code et d'autres astuces et ressources partagés par la communauté. Artiste, chercheuse et pédagogue basée à Toronto, le travail de Hartman couvre des domaines comme la physique, l'informatique, l'électronique portable et l'art conceptuel. Fondatrice du \textit{Social Body Lab}, elle coordonne une équipe de recherche dédiée à l'exploration de technologies centrées sur le corps dans
2023-08-18 06:32:04 +02:00
un contexte social. Pour Hartman, le corps humain est une interface primaire en lien avec le monde extérieur et son projet d'utiliser des dispositifs portables (i.e. \textit{wearables}) est pensé en lien avec l'augmentation de nos capacités sensorielles.
2023-08-18 21:51:31 +02:00
Un expriment qu'elle propose, décrit les consignes pour l'écoute et l'amplification des bruits produit par une partie de notre corps. J'ai utilisé ses conseils lors des étapes de recherches ultérieurs, grâce à l'aide des capteurs sonores (microphones piezoéléctriques). Je parlerai de mes observations dans un prochain chapitre.
Cependant il est important de mentionner que cette approche informelle, au caractère ludique de Hartman m'a réconcilié et aidé à mieux comprendre le rapport au corps, par le biais d'une technologie simplifiée (\textit{lowtech})
2023-08-16 23:26:55 +02:00
2023-08-18 21:51:31 +02:00
Au même titre, Hannah Perner-Wilson et Mika Satomi, dont le travail est répertorié online sur le site \textit{How to get what you want}.
Leur idée est de mettre à disposition des références ``compréhensibles, accessibles et maintenables” qui encouragent les participants à contribuer ultérieurement, une fois les bases acquises. Les deux artistes et chercheuses cherchent à souder la communauté du collectif KOBAKANT\footnote{https://www.kobakant.at} qu'elles ont crée en 2008. Pour cela, elles explorent (souvent avec de l'auto-ironie et de l'humour) l'artisanat textile et l'électronique comme outils critiques des aspects technologiques de notre société.
2023-08-18 15:43:12 +02:00
Sur leur site, elles expriment leur credo de la façon suivante:
2023-08-16 23:26:55 +02:00
2023-08-17 16:39:46 +02:00
\begin{quote}
``KOBAKANT croit que la technologie existe pour être piratée, faite à la main et modifiée par tout le monde pour mieux répondre à nos besoins et désirs personnels.”
\end{quote}
2023-08-16 23:26:55 +02:00
2023-08-18 21:51:31 +02:00
Le travail individuel de Hannah Perner-Wilson s'est constitué en parallèle autour du projet \textit{Wearable Studio Practice} (WSP). WSP représente une collection d'objets portables -\textit{wearables}- qui facilite la création de projets électroniques nomades, comme moyen d'expérimenter le monde.
Pour elle, l'acte de fabriquer-\textit{making}-est une forme d'expression créative en lien avec la nature.\smallskip
2023-08-16 23:26:55 +02:00
2023-08-18 21:51:31 +02:00
Je rajoute à cela l'importance du héritage de Rosalind Picard et son travail au laboratoire MIT, où elle a développé sa thèse sur l'importance des émotions dans la programmation- \textit{affective computing} où le concept même d'ordinateur est revisité du point de vue de son utilité. Si la plupart des ordinateurs sont utilisés d'une façon identique, son équipe imagine des ordinateurs qui peuvent être portés comme des lunettes ou des vêtements, pour interagir avec l'utilisateur en fonction de son contexte. Son hypothèse est que les technologies peuvent augmenter nos capacités affectives, comparatif avec la communication inter-personnelle directe, puisque la communication intermédiée par un ordinateur offre des multiples possibilités d'expression\cite{picard2000affective}. Sa démarche a motivée les prochaines générations des chercheuses à affranchir des nouvelles limites et oser penser différemment. Peu à peu, l'accès aux ressources s'est démocratisé et ces projets de recherche sont devenus Open Source pour inspirer le travail de Perner-Wilson ou Hartman, quelque part à la lisière entre l'académique et le do-it-yourself (DIY).
2023-08-18 15:43:12 +02:00
2023-08-18 21:51:31 +02:00
En suivant les avancées dans ce type de communauté scientifique, dont les membres sont souvent appelés \textit{makers}, la possibilité de créer des appareils portables ludiques pour amplifier, étendre ou renverser notre langage corporel, reste une activité récréative capable d'inspirer plusieurs domaines plus ``sérieuses”, dont la robotique. La décentralisation des pratiques et le partage des ressources, déterminent une partie de makers à détourner le rôle de ces dispositifs dans les interactions sociales. Ils explorent ainsi les moyens d'étendre physiquement leur propre expressivité par l'intermédiaire de l'électronique portable. Ce qui fait que les roboticiens profitent également de l'invention des nouvelles pratiques ou matériaux, pour affiner leurs prototypes.
Dans notre contexte pédagogique, après cette première phase théorique, nous avons lancé un module pratique avec un petit inventaire des capteurs, breadboards, microcontrôleurs, connectors et le reste des matériaux disponibles pour les participantes.
2023-08-18 06:32:04 +02:00
2023-08-18 21:51:31 +02:00
\textbf{Performance collective comme rendu pratique}
La synthèse de nos expérimentations a été traduite sous la forme d'un moment performatif collectif. Pour se préparer, les participantes ont du créer un dispositif électronique connecté. Ensuite nous avons fait un travail dramaturgique pour interroger le potentiel scénique de ce dispositif, le message transmis et le rôle du dispositif connecté dans la performance.
Dans la liste des capteurs que nous avons utilisé, j'évoque celui qui a le plus inspiré les participantes- le
2023-08-18 07:09:35 +02:00
velostat. Ce type de capteur est utilisé dans beaucoup de projets artistiques DIY à cause de sa conductivité électrique, donnée par le noir de carbone qui imprègne sa structure. Velostat a des propretés piézorésistives, sa résistance diminue avec la flexion ou la pression, ce qui fait de lui un capteur flexible très accessible. Il est par exemple utilisé pour fabriquer les chaussures qui s'allument lorsque le porteur marche. Nous l'avons utilisé comme ``deuxième peau” pour une de nos performeuse, qui s'est collé ce matériel sur plusieurs parties de son corps, notamment la planque de pied.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/velostat pied}
2023-08-18 15:43:12 +02:00
\caption{détail de la performance- poser son pied par terre modifie la valeur de la tension du velostat}
2023-08-18 07:09:35 +02:00
\label{fig:velostat-pied}
\end{figure}
2023-08-18 06:32:04 +02:00
2023-08-18 15:43:12 +02:00
Une fois qu'elle a posé son pied par terre la résistance a changé. Un petit servo-moteur connecté à distance, partie d'un accessoire porté par une deuxième performeuse, est actionné chaque fois que la résistance du velostat change.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/servo_m}
\caption{détail de la performance- un signal envoyé via une connexion Wifi modifie l'accessoire servo-moteur selon les valeurs récupérés du capteur Velostat}
\label{fig:servom}
\end{figure}
2023-08-18 21:51:31 +02:00
Parmi les idées qui ont peuplé notre exercice de recherche-création collectif, \textit{la guerrière empêchée} s'est imposé comme une figure matriarcale effigie d'une femme cybrog engagée qui réclame sa place au monde.
Son corps (dédoublé par les accésoirés que nos deux performeuses portaient) disposait d'une tête qui communiquait avec les pieds pour réfléchir.
J'ai partagé avec les participantes le manifeste de Donna Harraway\cite{haraway2010cyborg}, dont l'écriture nous a accompagné tout au long de ce moment de recherche dramaturgique:
\begin{quote}
``Modern machines are quintessentially microelectronic devices: they are everywhere and they are invisible. Modern machinery is an irreverent upstart god, mocking the Fathers ubiquity and spirituality. The silicon chip is a surface for writing; it is etched in molecular scales disturbed only by atmoic noise, the ultimate interference for nuclear scores. Writing, power, and technology are old partners in Western stories of the origin of civilization, but miniaturization has changed our experience of mechanism. Miniaturization has turned out to be about power; small is not so much beautiful as pre-eminently dangerous, as in cruise missiles... Our best machines are made of sunshine; they are all light and clean because they are nothing but signals, electromagnetic waves, a section of the spectrum. And these machines are eminently portable, mobile—a matter of immense human pain in Detroit and Singapore. People are nowhere near so fluid, being both material and opaque. Cyborgs are ether, quintessence.”
\end{quote}
2023-08-17 16:39:46 +02:00
2023-08-18 21:51:31 +02:00
Lors du processus de création nous avons beaucoup interrogé nos limites et la nécessité de \textit{bien faire pour réussir en tant que femmes}. Le prototype final, entre prothèse et objet de castration relevait de nos doutes et ambitions en marge de la création. Un court extrait de cette présentation est disponible sur le blog de l'atelier\footnote{https://interfacesmagiques.tumblr.com/post/696462906243579904/day-4-the-performance-video}.
2023-08-18 06:32:04 +02:00
2023-08-18 21:51:31 +02:00
\textbf{Capter la charge électrique dans les muscles pour la transformer en son}\smallskip
2023-08-18 06:32:04 +02:00
2023-08-18 21:51:31 +02:00
Le module que j'ai pris en charge pour une démonstration pratique utilise un capteur électromyographique (EMG) de surface appelé MyoWare Muscle Sensor Kit.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/myoware}
\caption{capteur électromyographique de surface}
\label{fig:myoware}
\end{figure}
L'électromyographie est une technique qui mesure l'activité électrique musculaire à l'aide d'électrodes placées sur la peau, au-dessus du muscle. Cette mesure est prise lors d'une contraction musculaire et vise son amplitude maximale ou sa fréquence médiane. Certaines EMG captent également l'activité involontaire des muscles. Dans le domaine médical, un examen EMG est fait lorsquune personne présente des symptômes dun trouble musculaire ou nerveux. Cette procédure évalue létat de santé des muscles et des motoneurones qui les contrôlent.
Je me suis intéressée à ce type de capteur parce que les muscles sont les véritables déclencheurs du mouvement humain.
A leur tour, ils sont contrôlés par des cellules nerveuses(motoneurones) qui transmettent les signaux électriques au cerveau pour provoquer des mouvements de contraction et de relaxation. Ces deux phases, provoquent une différence de potentiel dans le signal électrique. Grâce aux tendons qui les fixent sur des os, les muscles actionnent le squelette et le font bouger articulation par articulation, suivant différentes angles de rotation. Cette mécanique de calcul et perpétuel ajustement se produit de façon autonome. Si elle est étudié par les ingénieurs bio-mécaniciens pour être modélisée, elle mefascine en tant que artiste apr son opacité quand à la conversion entre les signaux électriques et la pensée. Parfois quand je danse je verbalise une action pour un de mes membres- par exemple \textit{Leve ta main}, alors que des autres fois je m'oublie. C'est qui ce \textit{je} qui s'adresse à mon corps à la deuxième personne? Où disparaît il quand cela se produit de manière automatique?
A l'écart de ces questions ontologiques, un capteur EMG traduit la différence de potentiel en graphiques ou en chiffres qui sont ensuite nettoyés par l'intermédiaire des filtres. Ces données représentent un input pour générer du son, des images ou contrôler à distance des dispositif électroniques comme les robots:
2023-08-17 16:39:46 +02:00
2023-08-18 21:51:31 +02:00
Dans la démonstration que j'ai préparé, l'EMG était connecté à un board Arduino Uno et à mon bras. Le signal capté a été ensuite transformé en son grâce à un contrôleur midi simulé avec le logiciel PureData.
2023-08-17 16:39:46 +02:00
2023-08-18 21:51:31 +02:00
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/PD}
\caption{implementation des filtres qui processent de manière synthethique le son}
\label{fig:pd}
\end{figure}
2023-08-17 16:39:46 +02:00
2023-08-18 21:51:31 +02:00
Le lien pour suivre cette démonstration est disponible en bas de page\footnote{https://vimeo.com/855601666?share=copy}.
2023-08-17 16:39:46 +02:00
2023-08-18 21:51:31 +02:00
Lors de mes résidence artistiques dans le studio de Mathilde Monnier à Montpellier j'ai eu l'occasion d'améliorer ce prototype et le tester avec plusieurs mouvements, pour mieux comprendre mon écriture corporelle à l'aide du son.
Plus bas, un extrait vidéo d'un des moments de recherche-création\footnote{https://vimeo.com/718376555?share=copy}.
2023-08-17 16:39:46 +02:00
2023-08-18 21:51:31 +02:00
Au travers ces essais et maquettes j'ai pu mieux éduquer mes senses et ma perception à une présence active où mon corps se dilue pour mieux apparaître.
Me perdre dans ce mélange de présence. Comme Kozella remarque dans son livre\cite{kozel2008closer}, nous avons besoin des machines pour objectiver notre présence-absence. La technologie dévient un repère pour l'humain, qui se retrouve au-delà de son propre subjectivité:
2023-08-18 15:43:12 +02:00
\begin{quote}
2023-08-18 21:51:31 +02:00
``The examples of sight, touch, and movement reveal that the relation of reversibility is \textit{always imminent and never realized in fact} (Merleau-Ponty 1968, 147). It is impossible to over-exaggerate the
2023-08-18 15:43:12 +02:00
importance of the dynamic of reversibility in Merleau-Pontys late thought. He thought it inside and
2023-08-18 21:51:31 +02:00
out, and always returned to the unsettling truth that I see and am seen. The significance of this is a
fundamental lack of stability within our corporeal insertion in the world, a dismantling of firmly set
2023-08-18 15:43:12 +02:00
notions of subjectivity and identity, even of meaning. The body \textit{is not a self through transparence,
like thought, which only thinks its object by assimilating it, by constituting it, by transforming it
into thought. It is a self through confusion} (Merleau-Ponty 1964a, 163). Without this overlapping,
uncertain dynamic we would not really be flesh, we would not have the body of a human being,
there \textit{would be no humanity} (ibid.). The humanity is, paradoxically, achieved through a distance
being incorporated into the self through the emigration into the outside.”
\end{quote}
2023-08-16 16:39:37 +02:00
2023-08-18 21:51:31 +02:00
Nous nous sommes appuyées sur ses observations pour comprendre ce rapport à la corporéité et aux dispositifs connectés dans notre cadre d'improvisation sociale créative. Ainsi leur influence et les possibles dérives éthiques en lien avec la question du corps et ses limites, deviennent moins critiques du point de vue des \textit{wearables} DIY. Comparé à la robotique ces dispositifs sont plus accessibles, car moins compliqués et moins chers. Ils constituent un première étape dans la co-habitation avec une technologie accessible, ludique et non-invasive, pensée en lien avec l'humain. Pour moi cela se constitue dans une sorte de low-tech expérimental et experientiel, qui m'aide à mieux structurer la relation avec la technologie.
2023-08-18 15:43:12 +02:00
2023-08-16 16:39:37 +02:00
\subsection{Animata}
2023-08-18 21:51:31 +02:00
Dans une autre expérimentation, j'ai traité cette question de la low-tech et son importance dans ma recherche sur les robots, en travaillant avec des animata.
Cette fois il s'agissait des dispositifs électroniques autonomes, similaires à \textit{un animal électronique}.
La structure d'un animata dépends de son utilité. Pour mon processus de recherche-création j'ai eu besoin de comprendre comment l'improvisation dansée peut-être influencé par un déplacement spatial aléatoire.
J'ai ainsi construit un animat doté d'un capteur ultrasons HC-SR04 dont la seule contrainte était d'éviter les obstacles.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/capteur-de-distance-ultrason}
\caption{Exemple de capteur ultrason de 5V utilisé pour des projets Arduino}
\label{fig:capteur-de-distance-ultrason}
\end{figure}
La bande de fréquences ultrasons fait référence à des fréquences audio qui se situent en dehors de la gamme d'audition humaine (20 kHz). Les capteurs à ultrasons se reposent sur ces fréquences pour détecter la présence d'un obstacle ou pour calculer la distance d'un objet distant.
Le fonctionnement de base de ce type de capteur est semblable à la manière dont les chauves-souris utilisent l'écholocation pour se repérer en vol:
\begin{itemize}
\item un émetteur envoie une rafale d'ondes sonores à haute fréquence(entre 23 kHz et 40 kHz)
\item lorsque l'impulsion sonore frappe un objet, une partie des ondes sonores est réfléchie vers un récepteur
\item en mesurant le temps qui s'écoule entre le moment où le capteur émet et reçoit ce signal ultrasonore, la distance à l'objet peut être calculée à l'aide de la formule suivante :
\begin{equation}\label{key}
d = 0.5*c*t
\end{equation}
\textit{d} répresente la distance en mètres, \textit{c} la vitesse du son (343 mètre per seconde) et \textit{t} le temps en secondes entre l'émission et la réception.
\end{itemize}
Cette schéma représente le monde de fonctionnement du capteur :
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/schema_ultrason}
\caption{Exemple de calcul de la distance entre un émetteur et un récepteur à ultrasons. Source de l'image: CUI Devices}
\label{fig:capteur-de-distance-ultrason}
\end{figure}
2023-08-16 16:39:37 +02:00
-Structure et types de capteurs
\textbf{photo capteur infra, robo giuseppe, photo moi et animat }
2023-08-18 21:51:31 +02:00
Une mise en pratique de ces scénarios s'est produite lors des essais de résidence en juillet 2021 comme recherche préliminaire pour le projet CECCI-H2M.
\section{Des robots sauvages}
2023-08-18 15:43:12 +02:00
\cite{mullis2013cambridge, kozel2008closer}
2023-08-18 21:51:31 +02:00
2023-08-16 16:39:37 +02:00
\subsection{Laboratoire d'expérimentation sur le lâcher-prise}
2023-08-18 15:43:12 +02:00
Selon Kozel, ce type de performance dévient un catalyseur pour comprendre l'impact de la technologie numérique sur les interactions sociales.
Nous nous retrouvons et rencontrons les autres à travers nos systèmes informatiques interactifs.
Pour mieux structurer les cadres conceptuels et méthodologiques.
Kozel on Choreography is about variation and relations, between bodies in space and time.
Merleau-Pontys description of the color red reveals an understanding of choreography that can be
mapped onto the exchange of data: “this red is what it is only by connecting up from its place with
other reds about it, with which it forms a constellation,” and it attracts or is attracted by other col-
ors, repels them or is repelled by them, dominates or is dominated by them, existing as a “node” in
the temporal modalities of the simultaneous and the successive (ibid., 13 2 ). This dynamic of attrac-
tion and repulsion, sharing and containment, forming a shifting constellation across time is a way
of understanding the data choreography fostered by wearable devices. 9 My body may not exist,
nodding to Godards provocation, but as connective tissue I live an even greater space of potential,
an expanded corporeality that is permeated by interstitial spaces that I reach across in hope and
2023-08-18 21:51:31 +02:00
\subsection{HRP-4 virtuel}
\subsection{HRP-4 réel}
\subsection{Panda}
2023-08-16 16:39:37 +02:00
2023-06-08 20:38:14 +02:00
\textbf{CECCI-H2M}
Le projet s'est déroulé sous plusieurs semaines de résidence au Centre des Arts dEnghien-les-Bains. En juillet 2021, lors de notre première phase du projet, nous avons travaillé avec une version simplifiée du robot -une animata Arduino construite pour des déplacements aléatoires dans lespace. Cette étape nous a permis de tester linteraction avec un prototype doté dun comportement involontaire. Lors des improvisations sur le plateau, nous avons cherché un terrain dentente entre lintelligence du corps humain, la réponse du corps machinal de lanimat et la réactivité de lenvironnement virtuel. Linfluence de ces éléments artificiels sur lexpression corporelle du performeur, ainsi que les mouvements de lanimat, sa fragilité et sa dimension réduite, ont provoqué une interaction instinctive, en marge dune construction rationnelle basée sur de la réciprocité.
Quelques mois plus tard, lors d'une deuxième phase du projet nous avons projeté les mouvements du robot virtuel HRP-4 sur la performeuse afin de tester une forme de mimétisme gestuel. Cela nous a également permis dapprofondir les concepts daltérité et dautonomie des dispositifs robotiques. Les qualités de \textit{sauvage} ainsi que la notion d\textit{Umwelt} ont accompagné cette résidence artistique. Après quelques tests avec le robot virtuel, nous avons pu constater à quel point le virtuel reste une manifestation mystérieuse qui suscite limagination des artistes. Cela nest possible quà partir de linterprétation du virtuel comme un organisme différent, en manifestant une autonomie sensible à la perception du performeur. Cela nous a également permis de réfléchir aux contraintes issus de lintégration des éléments virtuels et réels dans un projet performatif. Comme une négociation entre les solutions software et les dispositifs hardware, lillusion du réel versus limaginaire virtuel et la place que chacune de ces dimensions occupe sur le plateau, représentent une phase importante de ce projet.
Lors des prochaines résidences, nous avons mis laccent sur la spécificité du robot HRP-4. Pour sa programmation, jai dû dabord étudier ses mouvements mécaniques, leur potentiel artistique en termes dexpressivité, de contraintes et des libertés. Leffet de présence dun robot humanoïde sur scène a suscité des questionnements en lien avec laltérité de sa figure mécanique et le concept de \textit{uncanny} produit par ses mouvements remarquablement naturels. Les différences entre lorganicité du corps humain et l artificialité du robot ont ainsi devenu une source dinspiration, comme une matière à détourner.
En 2022, pour imaginer de nouvelles formes décriture corporelle en vue dune improvisation performative, le travail de programmation du robot HRP4 a été réalisé en deux temps. Dabord une familiarisation avec les systèmes MoCap utilisés par léquipe du laboratoire et linstallation de plugins qui nous ont permis de simuler en temps réel les séquences de mouvement de l'humain sur le robot virtuel. Ensuite, des tests avec le robot HRP réel ont été réalisés en mars 2022. Ces tests ont facilité la mise en place dune séquence de mouvements sur une chaise. Ce choix de faire sasseoir le robot sur la chaise vient comme un résultat de nos réflexions sur les contraintes déquilibre du robot, lors des séances dimprovisation. La mise en place la plus simple, pensée avec les ingénieurs de léquipe de prof. Kheddar, a été lorganisation de ces séquences dans de programmes de type F.S.M (Finite State Machines) qui permettent une meilleure organisation des transitions entre différentes postures.
Comme hypothèse de recherche pour une chorégraphie mimétique, jai pu créer des simulations de séquences de mouvement sur un robot virtuel. Dans un premier temps, jai décidé de rapprocher la figure du robot à celle dun danseur de slow, réalisant quelques tests dinteraction réelle avec la version physique du HRP-4. Ensuite jai effectué un travail de gestes inspirés par les postures de dirigeants politiques, pour voir dans quelle mesure les postures de pouvoir sont incarnées par des gestuelles et non par des attitudes. Le pouvoir que nous leur désignons est parfois le pouvoir de fascination que leur potentiel exerce sur nous, sans sen rendre compte. Dans cette configuration centrée sur la fascination dun objet inanimé, nous avons voulu comprendre dans quelle mesure le mouvement et les gestes dansés deviennent vecteurs dinfluence.
Une autre séquence de mouvements a été préparée pour la troisième résidence de création au Centre des Arts dEnghien Les Bains en septembre 2022. Pour cela, jai codé une séquence de mouvement sur la chaise qui dure approximativement 2 minutes. A lintérieur de cette séquence, les états sont enchaînés selon une règle inspirée par la quatrième itération de lalgorithme de la courbe du Dragon. Pour correspondre aux quatre postures choisis initialement, nous avons opéré une conversion entre les états de la courbe du dragon et les états F.S.M. Pour la performance \textit{Le mythe de lImmorta} présentée lors de notre sortie de résidence, un travail de synchronisation avec les sons produites par Hui-Tin Hong a été fait ultérieurement. Une autre séquence de code, cette fois en montrant le robot applaudir a été rajoutée ultérieurement. Ainsi le robot virtuel est apparu dans deux moments différents de la performance- au départ sur une chaise pour présenter sa danse et à la fin début pour applaudir les spectateurs. Le rythme de certains mouvements a été modifié pour correspondre avec la musique. Une pause de six secondes a été introduite dans la séquence pour marquer un moment darrêt: le robot virtuel tourne sa tête pour regarder le public. Ce geste a été interprété par les spectateurs comme une façon dévaluer la danse des performeuses.
En parallèle, des autres moments de recherche en écriture corporelle ont été possibles grâce à la mise à disposition du studio de répétition de la chorégraphe Mathilde Monnier à Montpellier. J'ai pu effectuer une recherche sur le lien entre le son et le mouvement, pour continuer mes expérimentations Arduino précédentes. Ainsi avec laide du logiciel PureData nous avons créé un prototype de capteur EmG pour convertir le signal électrique des muscles en du son aléatoire. Ce prototype, testé lors dune résidence artistique à la Halle Tropismes a Montpellier, a été présenté dans le cadre du Module Pédagogique Innovant ``Objets Magiques”, conçu en collaboration avec Isadora Télés de Castro pour le projet CECCI-H2M dans le cadre du dispositif Artec. Des laboratoire de recherche inspirés par mes expériences déducation somatique ainsi que par lutilisation des techniques de shaking, constituent une boîte aux outils pour rechercher une corporéité ``autre” sur le plateau.
2023-06-20 16:44:19 +02:00
2023-06-08 18:32:40 +02:00
\section*{Conclusion}
2021-11-22 16:03:11 +01:00
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.
2021-11-22 14:56:33 +01:00
2023-06-08 18:32:40 +02:00
\chapter{Etude(s) de terrain}
2023-08-16 16:58:06 +02:00
\section{Experiment Lycée Mercy}
2023-06-08 18:32:40 +02:00
\subsection{Anthropomorphism}
2023-08-16 16:39:37 +02:00
\cite{spatola2019cairn}
2023-06-08 18:32:40 +02:00
\section{Experiment LIRMM}
\subsection{Simmetry and synchrony}
\section*{Conclusion}
2021-11-22 16:03:11 +01:00
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.
2021-11-22 14:56:33 +01:00
2023-06-08 18:32:40 +02:00
\chapter{Robots en transe et \textit{conscience artificielle}}
2023-08-18 15:43:12 +02:00
les utilisations sociales et culturelles plus larges
Pour aller plus loin, les actes artistiques qui engagent un dialogue entre le corps et les technologies numériques favorisent une construction collaborative de niveaux de nouveaux états physiques, perceptives, et même de conscience.
2023-06-08 18:32:40 +02:00
\section{La question de la créativité}
2023-08-16 17:50:00 +02:00
https://neurosciencenews.com/ai-creativity-23585/ check le type de test
2023-08-16 16:58:06 +02:00
https://www.scientificamerican.com/article/the-origin-human-creativity-suprisingly-complex/
https://www.pnas.org/doi/10.1073/pnas.2117561118
http://www.nancyeaiken.net/about.html
Toutes les articles et livres du folder/idh/creativity sur les origines de l'art et la préhistoire\cite{mithen1998prehistory, srinivasan2007cognitive, abraham2018cambridge, vartanian2013mit}
2023-08-16 17:50:00 +02:00
\cite{gray2010cave, mellet2019neuroimaging, sawyer2011taylor, von2021robotics}
2023-08-16 23:26:55 +02:00
livre \cite{aiken1998biological}
2023-06-08 18:32:40 +02:00
\section{La question de l'adaptabilité}
2023-08-16 16:39:37 +02:00
\cite{asada2020jaic, reggia2013elsevier}
2023-08-16 23:26:55 +02:00
lien avec l'enactivism: https://en.wikipedia.org/wiki/Enactivism
2023-08-16 17:50:00 +02:00
https://www.bbc.com/news/technology-19354994
2023-08-16 16:39:37 +02:00
https://interstices.info/la-conscience-dune-machine:
Dans les années 1970, le psychologue américain Gordon Gallup a mis au point le test du miroir. Lidée est destimer la conscience de soi chez un animal, y compris un humain, en lui apposant subrepticement une marque sur le front. Face à un miroir, quand lindividu essaie de toucher, denlever la trace ou fait simplement mine davoir noté le changement, on en conclut quil est conscient de son propre corps. À ce jour, les espèces qui ont passé avec succès le test du miroir sont les chimpanzés, les bonobos, les orangs-outans, les dauphins, les éléphants, les corbeaux… Les bébés y parviennent à partir de 18 mois. Et les robots ?
Par ailleurs, des éthologistes ont récemment montré que les grands singes, les dauphins ou encore les éléphants sont capables dune certaine identification deux-mêmes et, en conséquence, réussissent le test du miroir. Des espèces inattendues, tels les perroquets et les pies, semblent également réussir le test du miroir sans quon puisse dans leur cas parler rigoureusement de conscience de soi.
2023-06-08 18:32:40 +02:00
\section{Présentation publique}
\subsection{Dramaturgie}
2023-08-16 17:50:00 +02:00
Sur la méthodo http://lcpaquin.com/
\cite{paquin2014methodologie}
2023-06-08 18:32:40 +02:00
\subsection{Shaking, halprin and cie}
2023-08-16 17:50:00 +02:00
\cite{dehaene2014odile} sur Origines et Préhistoire
2023-06-08 18:32:40 +02:00
\subsection{Discussion}
2021-11-22 14:56:33 +01:00
\section*{Conclusion}
2021-11-22 16:03:11 +01:00
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.
2021-11-22 14:56:33 +01:00
\clearpage
2023-06-08 18:32:40 +02:00
\chapter*{Conclusion de la partie II}
2021-11-22 14:56:33 +01:00
\addcontentsline{toc}{chapter}{Conclusion}
2021-11-22 16:03:11 +01:00
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed eget erat tortor. Mauris iaculis congue nibh ac sollicitudin. Aliquam aliquam velit eu aliquet tincidunt. Vestibulum lacus ipsum, feugiat at feugiat id, auctor quis nisl. Maecenas ultricies sagittis convallis. Curabitur at velit ut odio condimentum fringilla. Ut consequat eget arcu vitae pharetra. Pellentesque quam quam, luctus at ipsum non, accumsan ultrices ipsum. Integer dictum, leo et ornare viverra, enim massa tristique est, aliquam porta odio arcu non lectus. Maecenas posuere, ante sed congue blandit, nisi quam aliquet enim, in vehicula eros metus vitae quam. Nam lacinia malesuada lorem, at mattis risus mattis interdum. Nullam ac sapien nec quam ultrices dictum vitae eu erat. Curabitur a leo a lorem mollis volutpat. Duis volutpat porta nulla in convallis. Mauris sed accumsan nisl, ac efficitur nisl.