adding ref on ethics: bostrom and chalmers on LLM
This commit is contained in:
parent
929302221e
commit
d6c98e9dd2
|
@ -1,3 +1,26 @@
|
||||||
|
@article{chalmers2023could,
|
||||||
|
title={Could a large language model be conscious?},
|
||||||
|
author={Chalmers, David J},
|
||||||
|
journal={arXiv preprint arXiv:2303.07103},
|
||||||
|
year={2023}
|
||||||
|
}
|
||||||
|
|
||||||
|
@article{trentesaux2020ethique,
|
||||||
|
title={Ethique des robots intelligents dans la soci{\'e}t{\'e} humaine: Regards crois{\'e}s issus du droit, de la science et de la litt{\'e}rature},
|
||||||
|
author={Trentesaux, Damien and Rault, Rapha{\"e}l},
|
||||||
|
journal={Droit et robots-Droit science-fictionnel et fictions du droit},
|
||||||
|
pages={89-128},
|
||||||
|
year={2020},
|
||||||
|
publisher={Presses Universitaires de Valenciennes}
|
||||||
|
}
|
||||||
|
|
||||||
|
@book{wallach2008moral,
|
||||||
|
title={Moral machines: Teaching robots right from wrong},
|
||||||
|
author={Wallach, Wendell and Allen, Colin},
|
||||||
|
year={2008},
|
||||||
|
publisher={Oxford University Press}
|
||||||
|
}
|
||||||
|
|
||||||
@incollection{bostrom2018ethics,
|
@incollection{bostrom2018ethics,
|
||||||
title={The ethics of artificial intelligence},
|
title={The ethics of artificial intelligence},
|
||||||
author={Bostrom, Nick and Yudkowsky, Eliezer},
|
author={Bostrom, Nick and Yudkowsky, Eliezer},
|
||||||
|
|
Binary file not shown.
After Width: | Height: | Size: 165 KiB |
|
@ -3,11 +3,11 @@
|
||||||
|
|
||||||
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices de l'IA quant à une possible émergence d'une CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
|
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices de l'IA quant à une possible émergence d'une CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
|
||||||
|
|
||||||
Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière d’IA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué (comme le Conseil consultatif externe sur les technologies avancées de Googgle ou l'opacité des données d'entrainement de ChatGPT), tandis que d'autres (l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence} , entre outres) continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Cette taxonomie est certainement non exhaustive et je la mentionne pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
|
Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière d’IA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué (comme le Conseil consultatif externe sur les technologies avancées de Googgle ou l'opacité des données d'entrainement de ChatGPT qui a donne suite à la création de la fondation Fondation EleutherAI ), tandis que d'autres (l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence} , entre outres) continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Cette taxonomie est certainement non exhaustive et je la mentionne pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
|
||||||
|
|
||||||
Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et remodeler notre cohabitation avec les machines dans les années à venir. Au sens large, mon intention a été également de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à l’intérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps c’est nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. La question de l’identité se pose, car c’est très important d’interroger d’où vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer leur limitations.
|
Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et remodeler notre cohabitation avec les machines dans les années à venir. Au sens large, mon intention a été également de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à l’intérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps c’est nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. La question de l’identité se pose, car c’est très important d’interroger d’où vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer leur limitations.
|
||||||
|
|
||||||
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en IA generative, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, j’aimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité d’une “collaboration” plus fructueuse.
|
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, j’aimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité d’une “collaboration” plus fructueuse.
|
||||||
|
|
||||||
Robotique culturelle\cite{dunstan2023cultural}:
|
Robotique culturelle\cite{dunstan2023cultural}:
|
||||||
De quelle manière les robots sociaux participent-ils à la culture et en sont-ils les créateurs ? Nous
|
De quelle manière les robots sociaux participent-ils à la culture et en sont-ils les créateurs ? Nous
|
||||||
|
@ -103,7 +103,7 @@ la véracité morale des relations homme-robot, ce qui suggère que de telles re
|
||||||
risquer d’être psychologiquement appauvri d’un point de vue moral.
|
risquer d’être psychologiquement appauvri d’un point de vue moral.
|
||||||
spective, ou sont d’une inauthenticité déconcertante et donc
|
spective, ou sont d’une inauthenticité déconcertante et donc
|
||||||
donc moralement problématique.
|
donc moralement problématique.
|
||||||
le statut ontologique du robot comme social ou sa capacité à s’engager
|
le statut ontologique du robot comme social ou sa capacité à s’engager
|
||||||
dans un comportement véritablement social, doutant qu'ils puissent réellement interagir
|
dans un comportement véritablement social, doutant qu'ils puissent réellement interagir
|
||||||
interpréter le monde qui les entoure en fonction de leur propre expérience.
|
interpréter le monde qui les entoure en fonction de leur propre expérience.
|
||||||
L’étude de Turkle a examiné l’interaction relationnelle entre les seniors et Paro (un bébé phoque du Groenland robotisé) et a découvert que Paro suscitait des sentiments d'admiration, d'amour comportement et curiosité, mais il a estimé que le sceau du robot soulevait des difficultés. culte des questions sur le type d'authenticité que nous exigeons de
|
L’étude de Turkle a examiné l’interaction relationnelle entre les seniors et Paro (un bébé phoque du Groenland robotisé) et a découvert que Paro suscitait des sentiments d'admiration, d'amour comportement et curiosité, mais il a estimé que le sceau du robot soulevait des difficultés. culte des questions sur le type d'authenticité que nous exigeons de
|
||||||
|
@ -120,7 +120,7 @@ Les trois lois de la robotique d’Asimov suffiraient comme lignes directrices
|
||||||
|
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
``Les individus adoptent des comportements sociaux envers les technologies même lorsque ces comportements sont totalement incohérents avec leurs croyances sur les machines\footnote{en angalis: ``individuals engage in social behavior towards technologies even when such behavior is entirely inconsistent with their beliefs about the machines.”}.”
|
``Les individus adoptent des comportements sociaux envers les technologies même lorsque ces comportements sont totalement incohérents avec leurs croyances sur les machines\footnote{en angalis: ``individuals engage in social behavior towards technologies even when such behavior is entirely inconsistent with their beliefs about the machines.”}.”
|
||||||
\cite{ass1997computers}
|
\cite{ass1997computers}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
according to \cite{chowdhury2021ethics}
|
according to \cite{chowdhury2021ethics}
|
||||||
|
@ -144,7 +144,7 @@ peut changer les choses sur lui-même.
|
||||||
Anciens Transhumanistes (1998)
|
Anciens Transhumanistes (1998)
|
||||||
L'Institut pour l'éthique et les technologies émergentes est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Nous pensons que le progrès technologique peut être un catalyseur de développement humain positif à condition que nous veillions à ce que les technologies soient sûres et équitablement distribuées. Nous appelons cela une orientation technoprogressiste. (2004)
|
L'Institut pour l'éthique et les technologies émergentes est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Nous pensons que le progrès technologique peut être un catalyseur de développement humain positif à condition que nous veillions à ce que les technologies soient sûres et équitablement distribuées. Nous appelons cela une orientation technoprogressiste. (2004)
|
||||||
|
|
||||||
according to \cite{kazim2021high}
|
according to \cite{kazim2021high}
|
||||||
une conscience éthique:
|
une conscience éthique:
|
||||||
|
|
||||||
Ethical consciousness refers to a person or institution or cultural norm, that has a disposition that is motivated by a moral awareness rather than, say, exclusively a concern of economics (pay and profit), or legality (responsibility, culpability, and compliance). In other words, this is a desire to do the right thing. Ethical consciousness can be read as coming out of business ethics,10 which is an applied ethics within the commercial environment. Sharing many of the themes from the previous section, it encompasses the integration of codes of conduct and compliance; however, it also expands to consider reputational issues, (corporate) social responsibility, and, most relevant to the development of ethical consciousness, concerns for institutional philosophy and culture. Drawing particularly on the latter, ethical
|
Ethical consciousness refers to a person or institution or cultural norm, that has a disposition that is motivated by a moral awareness rather than, say, exclusively a concern of economics (pay and profit), or legality (responsibility, culpability, and compliance). In other words, this is a desire to do the right thing. Ethical consciousness can be read as coming out of business ethics,10 which is an applied ethics within the commercial environment. Sharing many of the themes from the previous section, it encompasses the integration of codes of conduct and compliance; however, it also expands to consider reputational issues, (corporate) social responsibility, and, most relevant to the development of ethical consciousness, concerns for institutional philosophy and culture. Drawing particularly on the latter, ethical
|
||||||
|
@ -203,14 +203,71 @@ Actuellement les algorithmes d'IA dotés de performances équivalentes ou supér
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés aujourd'hui dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{Artificial General Intelligence} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
||||||
\begin{quote}
|
\begin{quote}
|
||||||
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
|
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
|
||||||
\cite{bostrom2018ethics}
|
\cite{bostrom2018ethics}
|
||||||
\end{quote}
|
\end{quote}
|
||||||
|
|
||||||
Pour résoudre ce dilemme, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées pour une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}.
|
Pour résoudre ce dilemme, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées pour une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}.
|
||||||
|
|
||||||
|
|
||||||
|
Parmi les problématiques traitées par l’éthique des algorithmes IA je mentionne: les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales.
|
||||||
|
|
||||||
|
L'éthique des machines concerne la fabrication des machines qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Les problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation permise par l'IA.
|
||||||
|
|
||||||
|
Un test alternatif proposé est celui appelé le \textit{test éthique de Turing},
|
||||||
|
|
||||||
|
Au début des années 2000, des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle en comparaison avec une moralité fonctionnelle. Cette dernière est capable d'évaluer certains des aspects moralement significatifs de leurs propres actions, alors que la dernière est définie en relation avec deux critères (autonomie et sensibilité éthique). La relation entre les deux est illustré plus bas, avec des systèmes dotés d'une autonomie signifiant mais un niveau faible de sensibilité éthique, en paralelle avec des systemes qui ont une faible autonomie mais une grande sensibilité éthique.
|
||||||
|
|
||||||
|
\begin{figure}
|
||||||
|
\centering
|
||||||
|
\includegraphics[width=0.7\linewidth]{images/AMA}
|
||||||
|
\caption{Differents niveaux de moralité pour les machines selon Wallach. Source : \cite{wallach2008mora}l}
|
||||||
|
\label{fig:ama}
|
||||||
|
\end{figure}
|
||||||
|
|
||||||
|
|
||||||
|
Le terme de \gls{éthique des robots}
|
||||||
|
|
||||||
|
|
||||||
|
L'une des premières publications abordant directement et établissant les bases de l'éthique des robots fut Runaround (histoire), une nouvelle de science-fiction écrite par Isaac Asimov en 1942 qui présentait ses célèbres Trois lois de la robotique. Ces trois lois ont été continuellement modifiées par Asimov, et une quatrième, ou loi zéro, a finalement été ajoutée pour précéder les trois premières, dans le contexte de ses œuvres de science-fiction. Le terme court roboéthique a probablement été inventé par Gianmarco Veruggio.
|
||||||
|
|
||||||
|
|
||||||
|
fait référence à la moralité de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots. L’éthique des robots recoupe l’éthique de l’IA. Les robots sont des machines physiques alors que l'IA ne peut être qu'un logiciel. Tous les robots ne fonctionnent pas via des systèmes d’IA et tous les systèmes d’IA ne sont pas des robots. L'éthique des robots considère la manière dont les machines peuvent être utilisées pour nuire ou bénéficier aux humains, leur impact sur l'autonomie individuelle et leurs effets sur la justice sociale.
|
||||||
|
Les droits des robots sont le concept selon lequel les gens devraient avoir des obligations morales envers leurs machines, semblables aux droits de l'homme ou aux droits des animaux.[78] Il a été suggéré que les droits des robots (tels que le droit d'exister et d'accomplir sa propre mission) pourraient être liés au devoir des robots de servir l'humanité, de la même manière que l'on associe les droits de l'homme aux devoirs de l'homme envers la société.[79] Ceux-ci pourraient inclure le droit à la vie et à la liberté, la liberté de pensée et d'expression et l'égalité devant la loi.[80] Une question spécifique à considérer est celle de savoir si la propriété du droit d'auteur peut être revendiquée.[81] La question a été examinée par l'\textit{Institute for the Future} et par le ministère britannique du Commerce et de l'Industrie.
|
||||||
|
L'IA sans éthique ou morale programmée est HAL 9000 dans la série Space Odyssey, où HAL (un ordinateur doté de capacités d'IA avancées qui surveille et assiste les humains sur une station spatiale) tue tous les humains à bord pour assurer le succès de la mission assignée après son sa propre vie est menacée
|
||||||
|
|
||||||
|
Super-intelligence aka Un certain nombre d'organisations étudient le problème du contrôle de l'IA, notamment le Future of Humanity Institute, le Machine Intelligence Research Institute, le Center for Human-Compatible Artificial Intelligence et le Future of Life Institute.
|
||||||
|
|
||||||
|
En octobre 2017, l'androïde Sophia a obtenu la citoyenneté saoudienne, même si certains ont considéré qu'il s'agissait davantage d'un coup publicitaire que d'une reconnaissance juridique significative.[84] Certains ont considéré ce geste comme un dénigrement ouvert des droits de l'homme et de l'État de droit.[85]
|
||||||
|
|
||||||
|
Le domaine controversée de la robotique militaire, le \textit{Système d'armes létales autonome}
|
||||||
|
Œuvrant pour une démocratisation des pratiques en lien avec l'AI et les modèles de langage type GPT-3, EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous l’amendement des chercheurs.
|
||||||
|
|
||||||
|
Le roman de Philip K. Dick de 1968, Les androïdes rêvent-ils de moutons électriques ? explore ce que signifie être humain. Dans son scénario post-apocalyptique, il se demande si l’empathie est une caractéristique entièrement humaine. Le livre est à la base du film de science-fiction Blade Runner de 1982.
|
||||||
|
|
||||||
|
Chappie, est un film de science-fiction qui explore les thèmes de l'intelligence artificielle, de la conscience et de l'humanité. Se déroulant dans un futur proche à Johannesburg, l'histoire suit un droïde de police nommé Chappie qui gagne une conscience après avoir été reprogrammé par un ingénieur logiciel. Au fur et à mesure que le robot apprend et évolue, il est influencé par un groupe diversifié de personnages, dont un gang criminel. Le film aborde de manière ambitieuse des questions complexes telles que la moralité, l’identité et la nature de la conscience.
|
||||||
|
|
||||||
|
humain augmenté, à l’image de la créature de Frankenstein ou \gls{social uncanniness}
|
||||||
|
|
||||||
|
Sur la question de la conscience des modèles de langage ou large language model (LLM), David Chalmers\cite{chalmers2023could} évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir a déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait. A son tour, Chalmer fait la distinction entre simuler la conscience et la prouver, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il n’a été entraînée auparavant. Il évoque six facteurs-clé qui font difficile implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent- la biologie- tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation.
|
||||||
|
\begin{quote}
|
||||||
|
``Peut-être que la théorie dominante actuelle de la conscience en neurosciences cognitives est la théorie de l'espace de travail global, proposée par Bernard Baars et développée par Stanislas Dehaene et ses collègues. Cette théorie stipule que la conscience implique un espace de travail global à capacité limitée : une sorte de centre de tri central pour rassembler les informations provenant de nombreux modules non conscients et rendre ces informations accessibles à eux. Tout ce qui entre dans l'espace de travail global est conscient\footnote{``Perharps the leading current theory of consciousness in cognitive neuroscience is the global
|
||||||
|
workspace theory put forward by Bernard Baars and developed by Stanislas Dehaene and
|
||||||
|
colleagues. This theory says that consciousness involves a limited-capacity global workspace: a
|
||||||
|
central clearing-house for gathering information from numerous non-conscious modules and
|
||||||
|
making information accessible to them. Whatever gets into the global workspace is conscious.”}.”
|
||||||
|
\cite{chalmers2023could}
|
||||||
|
\end{quote}
|
||||||
|
Au cours de la prochaine décennie, même si nous ne disposons pas d’une intelligence artificielle générale à l’échelle humaine, nous pourrions
|
||||||
|
ont des systèmes qui sont de sérieux candidats à la conscience. Même si les défis sont nombreux
|
||||||
|
et les objections à la conscience dans les systèmes d'apprentissage automatique, relever ces défis donne un
|
||||||
|
programme de recherche potentiel réaliste pour l’IA consciente. (chalmers says)
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
\section*{Conclusion chapitre 1}
|
\section*{Conclusion chapitre 1}
|
||||||
|
|
||||||
|
|
||||||
|
|
|
@ -18,15 +18,16 @@
|
||||||
description={Le terme \textit{constructivisme} vise une théorie de l'apprentissage, développée, entre autres, par Piaget comme réponse au comportementalisme qui, d’après lui, limitait trop l’apprentissage à l’association stimulus-réponse et considérait le sujet comme boîte noire. Le constructivisme part de l'idée que les connaissances de chaque sujet ne sont pas spécialement une copie de la réalité, mais un modèle plus ou moins fidèle de celle-ci construit par lui au cours du temps..},
|
description={Le terme \textit{constructivisme} vise une théorie de l'apprentissage, développée, entre autres, par Piaget comme réponse au comportementalisme qui, d’après lui, limitait trop l’apprentissage à l’association stimulus-réponse et considérait le sujet comme boîte noire. Le constructivisme part de l'idée que les connaissances de chaque sujet ne sont pas spécialement une copie de la réalité, mais un modèle plus ou moins fidèle de celle-ci construit par lui au cours du temps..},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
\newglossaryentry{intelligence artificielle générale}{
|
\newglossaryentry{intelligence artificielle générale}{
|
||||||
name={\textit{intelligence artificielle générale}},
|
name={\textit{intelligence artificielle générale}},
|
||||||
description={Le terme \textit{intelligence artificielle générale}, ou (IAG), est une intelligence artificielle capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. La création d'intelligences artificielles générales est un des principaux objectifs de certaines entreprises comme OpenAI, DeepMind et Anthropic.},
|
description={Le terme de \textit{Artificial General Intelligence}, (AGI) ou \textit{IA générale} ou (IAG) est un type hypothétique d'intelligence artificielle qui fait l'objet de considerations ethiques quant à son autonomie et à sa capacité de raisonement logique et abstrait. Une AGI possèderait la capacité de comprendre, apprendre et appliquer des connaissances de manière générale, similaire à une intelligence humaine réelle ce qui la rend susceptible aux memes erreurs que les humains.},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
|
|
||||||
\newglossaryentry{intelligence artificielle générative}{
|
\newglossaryentry{intelligence artificielle générative}{
|
||||||
name={\textit{intelligence artificielle générative}},
|
name={\textit{intelligence artificielle générative}},
|
||||||
description={Le terme \textit{intelligence artificielle générative}, ou (IAg), est un type de système d'intelligence artificielle (IA) capable de générer du texte, des images ou d'autres médias en réponse à des invites (ou prompts en anglais). Elle est dite multimodale quand elle est construite à partir de plusieurs modèles génératifs, ou d'un modèle entraîné sur plusieurs types de données et qu'elle peut produire plusieurs types de données. Par exemple, la version GPT-4 d'OpenAI accepte les entrées sous forme de texte et/ou d'image.},
|
description={Le terme \textit{intelligence artificielle générative}, ou (IAg ou GenAI), est un type de système d'intelligence artificielle (IA) capable de générer du texte, des images ou d'autres médias en réponse à des invites (ou prompts en anglais). Elle est dite multimodale quand elle est construite à partir de plusieurs modèles génératifs, ou d'un modèle entraîné sur plusieurs types de données et qu'elle peut produire plusieurs types de données. Par exemple, la version GPT-4 d'OpenAI accepte les entrées sous forme de texte et/ou d'image.},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -40,12 +41,12 @@
|
||||||
|
|
||||||
\newglossaryentry{grounding}{
|
\newglossaryentry{grounding}{
|
||||||
name={\textit{grounding}},
|
name={\textit{grounding}},
|
||||||
description={ harprin and ziemke Le terme \textit{grounding}, The term grounding is derived from the word “Ground: The solid surface on the earth” (Oxford Dictionaries, 2014). Planet earth supports us and all humans, animals and plants alike depend on that support. Like a tree that has planted its roots deeply, all organisms, an especially plants try to grow and extend toward the sun in any way possible (Lowen, 2006). Gravity is always present throughout our lifetime.},
|
description={En sciences cognitives le terme de \textit{grounding}, envoie à la possibilité d'un système incorporé de s'ancrer dans un environement. Dans les années 1990, Stevan Harnad et d'autres chercheurs ont fait valoir qu'un système d'IA doit être ancré dans un environnement afin d'avoir du sens, de la compréhension et de la conscience. Ces dernières années, plusieurs chercheurs se sont concentrés sur des bases sensorielles en lien avec des modèles de langage (LLM).},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
\newglossaryentry{intersubjectivité}{
|
\newglossaryentry{intersubjectivité}{
|
||||||
name={\textit{intersubjectivité}},
|
name={\textit{intersubjectivité}},
|
||||||
description={Le terme \textit{intersubjectivité} représente est commun à tous et qui en tant que tel cimente les individus les uns aux autres en leur permettant de se ressembler suffisamment pour comprendre et échanger (p. ex. la conscience, le langage, les sentiments).},
|
description={Le terme \textit{intersubjectivité} est un concept philosophique développé pour la première fois par Emmanuel Kant dans la \textit{Critique de la faculté de juger}. Il désigne la capacité de prendre en compte la pensée d'autrui en s'appliquant à différents domaines comme la philosophie, la philosophie des science, la psychanalyse ou l'ethnographie.},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
|
|
||||||
|
@ -324,6 +325,12 @@ enablef={true},
|
||||||
description={La theorie de la cognition étendue est un concept issu de la \textit{Theorie 4E de la Cognition}, en anglais \textit{extended cognition} concerne des connaissances acquises grâce à des outils, objets, personnes ou processus intermédiaires entre l'agent et son environement.},
|
description={La theorie de la cognition étendue est un concept issu de la \textit{Theorie 4E de la Cognition}, en anglais \textit{extended cognition} concerne des connaissances acquises grâce à des outils, objets, personnes ou processus intermédiaires entre l'agent et son environement.},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
|
\newglossaryentry{éthique des robots}{
|
||||||
|
name={\textit{éthique des robots}},
|
||||||
|
description={Selon IEEE, le domain de l'ethique des robots se situe à l'intersection entre l'éthique appliquée et la robotique afin de comprendre les implications et conséquences éthiques de la technologie robotique, en particulier des robots autonomes. Cela inclut des references aussi diverses en philosophie, éthique, théologie, biologie, physiologie, sciences cognitives, neurosciences, droit, sociologie, psychologie et design industriel quant au développement et au déploiement de la technologie robotique dans les sociétés. De nombreux domaines d'application de la robotique sont concernés, allant de la robotique médicale aux robots destinés à diverses missions de recherche et de sauvetage, notamment les robots militaires, en passant par toutes sortes de robots de service et de divertissement.},
|
||||||
|
enablef={true},
|
||||||
|
}
|
||||||
|
|
||||||
|
|
||||||
\newglossaryentry{qualia}{
|
\newglossaryentry{qualia}{
|
||||||
name={\textit{qualia}},
|
name={\textit{qualia}},
|
||||||
|
@ -468,11 +475,7 @@ enablef={true},
|
||||||
enablef={true},
|
enablef={true},
|
||||||
}
|
}
|
||||||
|
|
||||||
\newglossaryentry{Artificial General Intelligence}{
|
|
||||||
name={\textit{Artificial General Intelligence}},
|
|
||||||
description={Le terme de \textit{Artificial General Intelligence}, (AGI) ou \textit{IA générale} ou (IAG) est un type hypothétique d'intelligence artificielle qui fait l'objet de considerations ethiques quant à son autonomie et à sa capacité de raisonement logique et abstrait. Une AGI possèderait la capacité de comprendre, apprendre et appliquer des connaissances de manière générale, similaire à une intelligence humaine réelle ce qui la rend susceptible aux memes erreurs que les humains.},
|
|
||||||
enablef={true},
|
|
||||||
}
|
|
||||||
\newglossaryentry{Free Energy Principle}{
|
\newglossaryentry{Free Energy Principle}{
|
||||||
name={\textit{Free Energy Principle}},
|
name={\textit{Free Energy Principle}},
|
||||||
description={Le terme de \textit{Free Energy Principle}, en français \textit{Principe de l'énergie libre} est un cadre utilisé pour décrire comment le cerveau prend des décisions et s'adapte à des circonstances changeantes. Il repose sur l'idée que le cerveau essaie constamment de minimiser son énergie libre, qui est definie comme une mesure de la surprise ressentie par le cerveau, face aux informations sensorielles qu'il reçoit. En minimisant son énergie libre, le cerveau peut faire des prédictions sur le monde qui l'entoure et prendre les actions appropriées. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite par Karl Friston comme explication de la perception incarnée dans les neurosciences, où elle est aussi connue sous le nom d'\textit{inférence active} ou de \textit{codage prédictif}.},
|
description={Le terme de \textit{Free Energy Principle}, en français \textit{Principe de l'énergie libre} est un cadre utilisé pour décrire comment le cerveau prend des décisions et s'adapte à des circonstances changeantes. Il repose sur l'idée que le cerveau essaie constamment de minimiser son énergie libre, qui est definie comme une mesure de la surprise ressentie par le cerveau, face aux informations sensorielles qu'il reçoit. En minimisant son énergie libre, le cerveau peut faire des prédictions sur le monde qui l'entoure et prendre les actions appropriées. La minimisation implicite de l'énergie libre variationnelle est formellement liée aux méthodes bayésiennes variationnelles et a été introduite par Karl Friston comme explication de la perception incarnée dans les neurosciences, où elle est aussi connue sous le nom d'\textit{inférence active} ou de \textit{codage prédictif}.},
|
||||||
|
|
|
@ -1308,6 +1308,8 @@ Dans le domaine de la performance, les nouveaux médias emploient des technologi
|
||||||
Nous défendons cette piste du mouvement et son lien avec la conscience car l'intelligence corporelle (tout comme la mimesis dans la danse), est un facteur clé pour comprendre les origines de la cognition sociale. L'émergence de l'imitation, de l'\gls{intersubjectivité} et des gestes chez les primates\cite{zlatev2008proto}, tout comme la réflexion sur l'héritage de la danse à partir des rituels et comportements sociaux, traitent la question de l'improvisation avec beaucoup d’intérêt. En générant des nouvelles matières de mouvement, l'improvisation propose une nouvelle organisation du corps. Cette organisation peut-être influencée par l'environnement ou par les artefacts qui l'accompagnent. De plus, la danse improvisée est un mouvement intentionnel qui nécessite de l'inspiration et un certain état d'intention. C'est pourquoi co-créer une performance avec un robot social\cite{duffy2003anthropomorphism} et comprendre le rôle qu'il joue dedans, est un phenomene complexe.
|
Nous défendons cette piste du mouvement et son lien avec la conscience car l'intelligence corporelle (tout comme la mimesis dans la danse), est un facteur clé pour comprendre les origines de la cognition sociale. L'émergence de l'imitation, de l'\gls{intersubjectivité} et des gestes chez les primates\cite{zlatev2008proto}, tout comme la réflexion sur l'héritage de la danse à partir des rituels et comportements sociaux, traitent la question de l'improvisation avec beaucoup d’intérêt. En générant des nouvelles matières de mouvement, l'improvisation propose une nouvelle organisation du corps. Cette organisation peut-être influencée par l'environnement ou par les artefacts qui l'accompagnent. De plus, la danse improvisée est un mouvement intentionnel qui nécessite de l'inspiration et un certain état d'intention. C'est pourquoi co-créer une performance avec un robot social\cite{duffy2003anthropomorphism} et comprendre le rôle qu'il joue dedans, est un phenomene complexe.
|
||||||
Lorsqu’ils interagissent avec un non-humain sur scène, les humains interprètent le sens des ses actions et s'adaptent en conséquence. Cependant l'action d'un robot est actuellement le résultat des algorithmes de calcul. Si un jour les robots auront une conscience, la question de l'intention et de l'adaptation devrait être incluse dans des considérations éthiques co-écrites par des humains et des robots. Dans le sillage de l'\gls{intelligence artificielle générale} (AGI), les entités, y compris les œuvres d'art ou les robots, peuvent devenir des objets de préoccupation morale, une fois qu'elles ont acquis une expérience en lien avec la conscience\cite{mosakas2021moral}.
|
Lorsqu’ils interagissent avec un non-humain sur scène, les humains interprètent le sens des ses actions et s'adaptent en conséquence. Cependant l'action d'un robot est actuellement le résultat des algorithmes de calcul. Si un jour les robots auront une conscience, la question de l'intention et de l'adaptation devrait être incluse dans des considérations éthiques co-écrites par des humains et des robots. Dans le sillage de l'\gls{intelligence artificielle générale} (AGI), les entités, y compris les œuvres d'art ou les robots, peuvent devenir des objets de préoccupation morale, une fois qu'elles ont acquis une expérience en lien avec la conscience\cite{mosakas2021moral}.
|
||||||
|
|
||||||
|
Des recherches concernant l’éthique des machines mettent en parallèle le cas des animaux artistes\cite{trentesaux2020ethique}. L'exemple de l'éléphant Yumeka\footnote{https://www.chinadaily.com.cn/a/201806/06/WS5b173a52a31001b82571e6a0.html} soulève des questions quant à la paternité et l'appartenance de ces nouvelles compétences artistiques. Nous pouvons l'extrapoler à des robots dotés d'une \gls{intelligence artificielle générative}.
|
||||||
|
|
||||||
Influencés par\cite{penny2013art}, nous considérons l'inspiration comme un processus incarné et dynamique qui peut être étendu aux artefacts. Lors du développement de l'intelligence artificielle centrée sur l'humain et d'autres types d'intelligence hybride, il existe ``un besoin urgent d'enrichir ces applications avec les connaissances sur la créativité obtenues au cours des dernières décennies dans les sciences psychologiques”\cite{rafner2023creativity}. Tout au long de ce projet de these, je cherche à comprendre comment les robots danseraient s’ils étaient conscients et comment nous travaillerions ensemble dans une improvisation \textit{close-contact} ou en contact étroit. Mes interrogations se formulent par rapport à la notion d'\gls{intersubjectivité} vue comme une forme de transfert entre robots capables de \gls{conscience artificielle} (AC)\footnote{comme déjà précisé dans le 2éme chapitre, le terme de conscience artificielle que nous appliquons n'est qu'une supposition de ce qu'il pourrait signifier dans un contexte de danse avec les robots et comment cela pourrait influencer un processus de co-création. Pour illustrer, nous faisons un parallèle entre les robots et les animaux sauvages. Un robot ressemble peut-être à un ours en raison de sa force et de son poids, ainsi que du fait qu'il passe beaucoup de temps en état d'hibernation ou d'inactivité. Autrefois, dans les pays d'Europe de l'Est, les ours étaient utilisés pour divertir la foule, avec des dresseurs qui leur enseignaient des acrobaties rudimentaires et des danses afin d'imiter les humains. De plus, un ours qui peint n'exprime pas sa sensibilité à travers son acte, mais un observateur percevrait le résultat comme créatif et réagirait avec sensibilité à son sujet.} et les danseurs. Cette dynamique peut entrainer des processus de co-création, où l'intention de la machine est tout autant importante que celle de l'humain. Ainsi, nous considérons la notion d'\gls{exaptation}\cite{la2020understanding} comme un contrepoids de l'inspiration, comprise ici comme l'émergence d'une fonctionnalité latente dans des artefacts. Ce mécanisme de nouveauté et d'innovation reprends nos hypothèses de recherche-création en début de ce manuscrit. Il est résumé auprès des spectateurs de la manière suivante :
|
Influencés par\cite{penny2013art}, nous considérons l'inspiration comme un processus incarné et dynamique qui peut être étendu aux artefacts. Lors du développement de l'intelligence artificielle centrée sur l'humain et d'autres types d'intelligence hybride, il existe ``un besoin urgent d'enrichir ces applications avec les connaissances sur la créativité obtenues au cours des dernières décennies dans les sciences psychologiques”\cite{rafner2023creativity}. Tout au long de ce projet de these, je cherche à comprendre comment les robots danseraient s’ils étaient conscients et comment nous travaillerions ensemble dans une improvisation \textit{close-contact} ou en contact étroit. Mes interrogations se formulent par rapport à la notion d'\gls{intersubjectivité} vue comme une forme de transfert entre robots capables de \gls{conscience artificielle} (AC)\footnote{comme déjà précisé dans le 2éme chapitre, le terme de conscience artificielle que nous appliquons n'est qu'une supposition de ce qu'il pourrait signifier dans un contexte de danse avec les robots et comment cela pourrait influencer un processus de co-création. Pour illustrer, nous faisons un parallèle entre les robots et les animaux sauvages. Un robot ressemble peut-être à un ours en raison de sa force et de son poids, ainsi que du fait qu'il passe beaucoup de temps en état d'hibernation ou d'inactivité. Autrefois, dans les pays d'Europe de l'Est, les ours étaient utilisés pour divertir la foule, avec des dresseurs qui leur enseignaient des acrobaties rudimentaires et des danses afin d'imiter les humains. De plus, un ours qui peint n'exprime pas sa sensibilité à travers son acte, mais un observateur percevrait le résultat comme créatif et réagirait avec sensibilité à son sujet.} et les danseurs. Cette dynamique peut entrainer des processus de co-création, où l'intention de la machine est tout autant importante que celle de l'humain. Ainsi, nous considérons la notion d'\gls{exaptation}\cite{la2020understanding} comme un contrepoids de l'inspiration, comprise ici comme l'émergence d'une fonctionnalité latente dans des artefacts. Ce mécanisme de nouveauté et d'innovation reprends nos hypothèses de recherche-création en début de ce manuscrit. Il est résumé auprès des spectateurs de la manière suivante :
|
||||||
|
|
||||||
\begin{itemize}
|
\begin{itemize}
|
||||||
|
@ -1322,6 +1324,7 @@ Influencés par\cite{penny2013art}, nous considérons l'inspiration comme un pro
|
||||||
|
|
||||||
Puis repris comme indication dramaturgique et comme contrainte d'improvisation pour la danseuse et le robot. Ce processus de retranscription des questionnements théoriques en thèmes et motifs de danse est abstrait. Autre que le ressenti intime de la performeuse puis l'expression que cela a produit lors de sa danse, le robot n'a pas su répondre autrement qu'en exécutant à son tour l'algorithme qui mettait en action ses actuateurs et moteurs. Ces trois questions sont restées ouvertes à la fin de la représentation. Elles ont servi comme propos pour une interrogation collective, dont les observations théoriques sont présentées dans ces pages.
|
Puis repris comme indication dramaturgique et comme contrainte d'improvisation pour la danseuse et le robot. Ce processus de retranscription des questionnements théoriques en thèmes et motifs de danse est abstrait. Autre que le ressenti intime de la performeuse puis l'expression que cela a produit lors de sa danse, le robot n'a pas su répondre autrement qu'en exécutant à son tour l'algorithme qui mettait en action ses actuateurs et moteurs. Ces trois questions sont restées ouvertes à la fin de la représentation. Elles ont servi comme propos pour une interrogation collective, dont les observations théoriques sont présentées dans ces pages.
|
||||||
|
|
||||||
|
|
||||||
\subsection{Les robots et leurs métaphores}
|
\subsection{Les robots et leurs métaphores}
|
||||||
|
|
||||||
Lors de ses propres expérimentations, Simon Penny souligne l'importance du langage pour définir les nouveautés technologiques. Des termes comme \textit{conscience} existent dans notre langage depuis moins de cents ans, ses implications doivent être appliqués à des contextes spécifiques. Paralellement, pour le chercheur Tom Ziemke, la conscience ``naît de la maîtrise des connaissances sensorimotrices résultant de l'interaction entre l'agent et l'environnement, dans l'optique que la régulation homéostatique du corps vivant est cruciale pour le soi et la conscience\cite{ziemke2007embodied}”. Le schéma présentée ci-dessous représente mon cadre théorique, synthétisant la relation entre un agent (représenté par son environnement sensoriel ou \textit{umwelt}) et son monde ou environnement expérientiel, suivant l'autorégulation interne (\gls{autopoiesis}) spécifique aux processus cognitifs incarnés:
|
Lors de ses propres expérimentations, Simon Penny souligne l'importance du langage pour définir les nouveautés technologiques. Des termes comme \textit{conscience} existent dans notre langage depuis moins de cents ans, ses implications doivent être appliqués à des contextes spécifiques. Paralellement, pour le chercheur Tom Ziemke, la conscience ``naît de la maîtrise des connaissances sensorimotrices résultant de l'interaction entre l'agent et l'environnement, dans l'optique que la régulation homéostatique du corps vivant est cruciale pour le soi et la conscience\cite{ziemke2007embodied}”. Le schéma présentée ci-dessous représente mon cadre théorique, synthétisant la relation entre un agent (représenté par son environnement sensoriel ou \textit{umwelt}) et son monde ou environnement expérientiel, suivant l'autorégulation interne (\gls{autopoiesis}) spécifique aux processus cognitifs incarnés:
|
||||||
|
|
Loading…
Reference in New Issue