297 lines
34 KiB
TeX
297 lines
34 KiB
TeX
\chapter*{Conclusion Générale}
|
||
\addcontentsline{toc}{chapter}{Conclusion Générale}
|
||
|
||
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices de l'IA quant à une possible émergence d'une CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
|
||
|
||
Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière d’IA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué (comme le Conseil consultatif externe sur les technologies avancées de Googgle ou l'opacité des données d'entrainement de ChatGPT qui a donne suite à la création de la fondation Fondation EleutherAI ), tandis que d'autres (l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence} , entre outres) continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Cette taxonomie est certainement non exhaustive et je la mentionne pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
|
||
|
||
Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et remodeler notre cohabitation avec les machines dans les années à venir. Au sens large, mon intention a été également de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à l’intérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps c’est nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. La question de l’identité se pose, car c’est très important d’interroger d’où vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer leur limitations.
|
||
|
||
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, j’aimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité d’une “collaboration” plus fructueuse.
|
||
|
||
Robotique culturelle\cite{dunstan2023cultural}:
|
||
De quelle manière les robots sociaux participent-ils à la culture et en sont-ils les créateurs ? Nous
|
||
étaient à la fois satisfaits et surpris de l'ampleur et de la profondeur des contributions de
|
||
partout dans le monde, ce qui témoigne d’un intérêt croissant pour l’influence et les contributions
|
||
des robots et de l’intelligence artificielle (IA) à la culture, ainsi que l’influence de l’humain
|
||
cultures sur la conception et les applications des robots sociaux
|
||
In the opening
|
||
chapter of this book, Dunstan et. al. described how robots could not only be
|
||
maintainers of and participants in human culture but could also have the poten-
|
||
tial to develop their own culture, which could quite possibly become completely
|
||
unrecognisable to humans.
|
||
|
||
Returning to the Deleuzian concept of resonance, where the interplay of sensa-
|
||
tions between bodies leads to a merging or blurring of boundaries between human
|
||
and machine, we note a correspondence with contemporary theorising on human-
|
||
machine relations that decentre the human and argue for non-human agency. In
|
||
the language of agential realism, Gemeinboeck uses the term “intra-bodily reso-
|
||
nances” (Gemeinboeck 2021) to refer to an embodied empathy (Despret 2013), an
|
||
attuning to bodily energies, vibrations, rhythms, or a relational dynamics between
|
||
humans and machines. At this level of embodied or kinaesthetic empathy (Foster
|
||
2010), it is less about modelling robots after humans—one of the primary criticisms
|
||
of dominant approaches to social robotics (Gemeinboeck 2017)—than acknowl-
|
||
edging the shared primordial movement language across species (Sheets-Johnstone
|
||
1999). Qualitative movement dynamics are a dance between entities at varying scales
|
||
and intensities. Processes of attunement take place in sensing, feeling, adapting and
|
||
sustaining vital relationships between humans, animals and machines. In Gemein-
|
||
boeck’s relational-performative aesthetics approach to the design of human-robot
|
||
interaction, “positioning oneself in the middle of the encounter and the relationships
|
||
it produces deliberately undermines focusing on the individualism of interacting
|
||
agents and, instead, promotes attending to the crisscross of perceptual flows, move-
|
||
ment dynamics, and emergent effects that give rise to meaning” (Gemeinboeck 2021,
|
||
p. 2).
|
||
Drawing on the concept of kinaesthetic empathy from dance (Foster 2010) and
|
||
the associated theory of mirror neurons (Gallese et al. 1996), along with recent work
|
||
|
||
Self aware robots\cite{chatila2018toward}:
|
||
Notre hypothèse est que la conscience de soi doit d'abord reposer sur la perception de soi comme différent de l'environnement et des autres agents. Cela nécessite que le robot interagisse avec l'environnement et construise des représentations sensori-motrices qui expriment les possibilités offertes par les éléments de l'environnement, et qu'il interagisse avec d'autres agents pour se distinguer d'eux.
|
||
|
||
Auto-évaluation. Il s'agit de la capacité de savoir que je sais et d'utiliser délibérément cette connaissance dans la sélection des actions. En d'autres termes, le robot construit une connaissance de ses capacités apprises et du moment où il peut les utiliser. Il est capable de transformer les comportements appris en compétences explicites et de caractériser les situations dans lesquelles ces compétences sont applicables, revenant à un comportement dirigé par un objectif planifié lorsqu'elles ne le sont pas.
|
||
|
||
Méta-raisonnement. L'autre capacité principale est la délibération sur son propre raisonnement. Nous proposons un système initialement motivé par des motivations de base, capable de raisonner sur les moyens de les satisfaire pour déterminer ses propres objectifs. Finalement, de nouvelles motivations devraient être apprises, mais cela n'est pas développé dans cet article.
|
||
l'affordance - quoi faire avec un objet
|
||
Le robot doit avoir la capacité de se représenter lui-même et l'humain avec lequel il interagit. Ce faisant, il doit être capable de déduire comment chacune de ces représentations évolue au fur et à mesure du déroulement de l'action conjointe. Le robot doit être capable de prendre en compte la capacité de prise de perspective, en sachant que les représentations évoluent différemment selon chaque point de vue. Parmi d'autres, Milliez et al. (2014) et Hiatt et Trafton (2010) dotent un robot de la capacité de construire une représentation des états mentaux des autres agents concernant l'environnement, lui permettant de réussir le test de Sally et Anne (Wimmer et Perner, 1983). Ensuite, ces états mentaux sont utilisés dans Hiatt et al. (2011) pour interpréter et expliquer le comportement des humains. Mais le robot doit également comprendre et prendre en compte les effets de ses propres actions sur les états mentaux de ses partenaires, ce qui implique un second degré de conscience. Cela est réalisé dans Gray et Breazeal (2014) où le robot joue à un jeu compétitif avec un humain et choisit son action afin de manipuler l'état mental de l'humain par rapport à l'état du monde.
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/chatila2}
|
||
\caption{Exemple d'architecture cognitive pour un systeme robotique.}
|
||
\label{fig:chatila2}
|
||
\end{figure}
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/chatila1}
|
||
\caption{Apprentissage sensori-moteur pour une affordance}
|
||
\label{fig:chatila1}
|
||
\end{figure}
|
||
|
||
Plea for slow science\cite{stengers2016another}
|
||
L’histoire de la résistance contre les OGM concerne un droit – pas le droit d’arrêter les horloges,
|
||
il n’y a pas d’horloges – mais un droit démocratique primordial, celui de penser l’avenir. Grâce à
|
||
la désobéissance civile, la violence ultime contre la démocratie, celle du compte à rebours
|
||
argument, a été contrecarré. Mais : même s'il a été contrecarré, il n'a pas été vaincu. Le
|
||
Le limogeage de Barbara Van Dyck est en effet un signal fort.
|
||
\begin{quote}
|
||
Je me sens honteux devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: I feel ashamed before those young people entering university with the hope of
|
||
getting a better understanding of the world we live in. We know that those who enter
|
||
university today belong to the generation that will have to face a future the challenges of
|
||
which we just cannot imagine… Can we claim that what we are proposing them meets, or
|
||
even vaguely meets, this situation? Can we also claim that we deserve the trust people still
|
||
have in the role we, who are working at the university, and those we train, can play in this
|
||
future? It is heard that our ways of life will have to change, and this certainly entails a change
|
||
in the way we relate to our environment, social and ecological. Can we claim that such change
|
||
does not also entail a change in the ways our academic knowledge relates to its environment?}?
|
||
(...)
|
||
|
||
That is why I wish, ending this talk, to emphasize the difference
|
||
between, on the one hand, adhering to a rule and, on the other, recognizing its power while
|
||
looking for the opportunities to experiment outside its bounds, creating interstices where13
|
||
another science could discover its own demands. To take just an example, a university may be
|
||
free to define such reclaiming explorations of slowing down practices in terms of services to
|
||
the community, which they are indeed, and recognize them as such. This would be a strong
|
||
signal, indeed, that we are not a corporation, proudly obeying the ticking clocks of an
|
||
unsustainable progress, but a community trying to give some meaning to the now consensual
|
||
but often empty claim: the claim that we have to change our ways of behaving in this world.
|
||
\cite{stengers2016another}
|
||
\end{quote}
|
||
|
||
moral équivalence in \cite{shaw2009looking}:
|
||
les robots restent non-humains et incapables de
|
||
résumer une position d'équivalence morale avec les humains
|
||
la véracité morale des relations homme-robot, ce qui suggère que de telles relations
|
||
risquer d’être psychologiquement appauvri d’un point de vue moral.
|
||
spective, ou sont d’une inauthenticité déconcertante et donc
|
||
donc moralement problématique.
|
||
le statut ontologique du robot comme social ou sa capacité à s’engager
|
||
dans un comportement véritablement social, doutant qu'ils puissent réellement interagir
|
||
interpréter le monde qui les entoure en fonction de leur propre expérience.
|
||
L’étude de Turkle a examiné l’interaction relationnelle entre les seniors et Paro (un bébé phoque du Groenland robotisé) et a découvert que Paro suscitait des sentiments d'admiration, d'amour comportement et curiosité, mais il a estimé que le sceau du robot soulevait des difficultés. culte des questions sur le type d'authenticité que nous exigeons de
|
||
notre technologie. Voulons-nous que les robots disent des choses qu'ils ne pourrait-il pas vouloir dire ? Quels types de relations nous pensons qu'ils sont les plus appropriés pour nos enfants et nos aînés avoir avec les artefacts relationnels ?
|
||
Les trois lois de la robotique d’Asimov suffiraient comme lignes directrices éthiques
|
||
\begin{quote}
|
||
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles [69]. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species
|
||
(affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual di-
|
||
mension [69]. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new tech-
|
||
nological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, compan-
|
||
ions, and avatars.”}.”
|
||
\cite{shaw2009looking}
|
||
\end{quote}
|
||
|
||
\begin{quote}
|
||
``Les individus adoptent des comportements sociaux envers les technologies même lorsque ces comportements sont totalement incohérents avec leurs croyances sur les machines\footnote{en angalis: ``individuals engage in social behavior towards technologies even when such behavior is entirely inconsistent with their beliefs about the machines.”}.”
|
||
\cite{ass1997computers}
|
||
\end{quote}
|
||
|
||
according to \cite{chowdhury2021ethics}
|
||
: (orienté vers l'humain) qui provoquent l'ethisques physiques et caractéristiques de l’IA (orientée machine) qui soulèvent des questions éthiques.
|
||
des machines coûteuses, et les seules personnes qui peuvent se les permettre sont les grands
|
||
entreprises internationales, ce qui signifie que de moins en moins de personnes peuvent réellement contrôler
|
||
le destin de la technologie de l'IA,
|
||
si vous donnez à l'agent une fonction de récompense consistant simplement à préparer le
|
||
le thé, il fait plein dans l'arène des récompenses et s'il y a un vase sur le chemin, il va frapper
|
||
car vous n'avez pas précisé ce qui vous importait (dans ce cas, le vase) ainsi que le
|
||
mesures qui doivent être prises. Ce n'est pas dans la fonction de récompense, mais c'est ce qui vous tient à cœur.
|
||
Une des hypothèses de la norme Renforcement
|
||
Le paradigme d'apprentissage est qu'il existe une séparation entre l'agent et l'environnement,
|
||
les actions de l’agent peuvent affecter l’environnement et l’environnement n’affecte que le
|
||
agent en fournissant des observations et des récompenses. Mais dans un système d’IA avancé, c’est
|
||
déployé dans le monde réel, le fait que l'agent fait physiquement partie de l'environnement
|
||
devient important. L'environnement peut changer les choses sur l'agent et l'agent
|
||
peut changer les choses sur lui-même.
|
||
|
||
Humanity Plus; formerly the World Transhumanist Association) is a non-profit international educational organization that advocates the ethical use of technologies and evidence-based science to improve the human condition.
|
||
Anciens Transhumanistes (1998)
|
||
L'Institut pour l'éthique et les technologies émergentes est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Nous pensons que le progrès technologique peut être un catalyseur de développement humain positif à condition que nous veillions à ce que les technologies soient sûres et équitablement distribuées. Nous appelons cela une orientation technoprogressiste. (2004)
|
||
|
||
according to \cite{kazim2021high}
|
||
une conscience éthique:
|
||
|
||
Ethical consciousness refers to a person or institution or cultural norm, that has a disposition that is motivated by a moral awareness rather than, say, exclusively a concern of economics (pay and profit), or legality (responsibility, culpability, and compliance). In other words, this is a desire to do the right thing. Ethical consciousness can be read as coming out of business ethics,10 which is an applied ethics within the commercial environment. Sharing many of the themes from the previous section, it encompasses the integration of codes of conduct and compliance; however, it also expands to consider reputational issues, (corporate) social responsibility, and, most relevant to the development of ethical consciousness, concerns for institutional philosophy and culture. Drawing particularly on the latter, ethical
|
||
consciousness can be stated in terms of societal and culture shifts in the awareness of citizens, technology developers and deployers, policy makers, and leaders of industry, in the ethical dimensions of new digital technologies.
|
||
|
||
|
||
utiliser des modèles cognitifs robotiques pour promouvoir des interactions sociales dignes de confiance avec les humains.
|
||
|
||
ondes et conscience \cite{liu2024cognitive}
|
||
The EEG signal is a mixture of multiple underlying base frequencies, which is considered to reflect cognitive
|
||
activities and functional brain states over time. The EEG frequency is
|
||
classified into five sub-frequency ranges and they are delta (0.5–4 Hz),
|
||
theta (4–7 Hz), alpha (7–12 Hz), beta (13–30 Hz), and gamma-band
|
||
waveforms (>30 Hz) [15]. Different frequency ranges of EEG signals are
|
||
associated with specific functions of neural activities, and the summary
|
||
of these connections between brain frequencies and functions are
|
||
Delta-band activities are associated with deep stages of sleep and
|
||
are characterised by low-frequency and high-amplitude waves.
|
||
Delta rhythms can be present during wakefulness and delta waves
|
||
have been recorded interictally in patients with absence seizures,
|
||
which have the feature of brief, sudden lapses in attention.
|
||
Theta waveform is often associated with the behavioural states of
|
||
alertness, attention, orientation, and working memory including
|
||
the enhancement of cognitive and perceptual performances. The
|
||
theta rhythm detected in EEG measurement is often found in
|
||
young adults, particularly over the temporal regions and during
|
||
hyperventilation.
|
||
Alpha waves are often associated with a relaxed, calm and lucid
|
||
state of mind. Alpha waves can be found in the occipital and
|
||
posterior regions of the brain.
|
||
Alpha waves can be induced by
|
||
closing one’s eyes and when humans are in relaxing states, and
|
||
they are rarely present during intense cognitive processes like
|
||
thinking, mental calculus and problem-solving
|
||
Beta waves are most closely associated with being conscious or in
|
||
an awake, attentive and alert state. Low-amplitude beta waves are
|
||
associated with active concentration, or with a busy or anxious
|
||
state of mind. Beta waves are also associated with motor decisions
|
||
(suppression of movement and sensory feedback of motion).
|
||
Gamma frequencies are distributed widely throughout cerebral
|
||
structures and participate in various cerebral functions, such as
|
||
perception, attention, memory, consciousness, synaptic plasticity,
|
||
and motor control.
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/brainwaves}
|
||
\caption{Structure du cerveau humain et formes d'onde.}
|
||
\label{fig:brainwaves}
|
||
\end{figure}
|
||
|
||
|
||
|
||
|
||
Ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, les chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités associées à une forme de sagesse acquise grâce à l’expérience, comme la conscience de soi et la capacité à être un agent réactif à la raison.
|
||
Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine unique et restreint.
|
||
|
||
|
||
|
||
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
||
\begin{quote}
|
||
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
|
||
\cite{bostrom2018ethics}
|
||
\end{quote}
|
||
|
||
Pour résoudre ce dilemme, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées pour une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}.
|
||
|
||
|
||
Parmi les problématiques traitées par l’éthique des algorithmes IA je mentionne: les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales.
|
||
|
||
L'éthique des machines concerne la fabrication des machines qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Les problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation permise par l'IA.
|
||
|
||
Un test alternatif proposé est celui appelé le \textit{test éthique de Turing},
|
||
|
||
Au début des années 2000, des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle en comparaison avec une moralité fonctionnelle. Cette dernière est capable d'évaluer certains des aspects moralement significatifs de leurs propres actions, alors que la dernière est définie en relation avec deux critères (autonomie et sensibilité éthique). La relation entre les deux est illustré plus bas, avec des systèmes dotés d'une autonomie signifiant mais un niveau faible de sensibilité éthique, en paralelle avec des systemes qui ont une faible autonomie mais une grande sensibilité éthique.
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/AMA}
|
||
\caption{Differents niveaux de moralité pour les machines selon Wallach. Source : \cite{wallach2008mora}l}
|
||
\label{fig:ama}
|
||
\end{figure}
|
||
|
||
|
||
Le terme de \gls{éthique des robots}
|
||
|
||
|
||
L'une des premières publications abordant directement et établissant les bases de l'éthique des robots fut Runaround (histoire), une nouvelle de science-fiction écrite par Isaac Asimov en 1942 qui présentait ses célèbres Trois lois de la robotique. Ces trois lois ont été continuellement modifiées par Asimov, et une quatrième, ou loi zéro, a finalement été ajoutée pour précéder les trois premières, dans le contexte de ses œuvres de science-fiction. Le terme court roboéthique a probablement été inventé par Gianmarco Veruggio.
|
||
|
||
|
||
fait référence à la moralité de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots. L’éthique des robots recoupe l’éthique de l’IA. Les robots sont des machines physiques alors que l'IA ne peut être qu'un logiciel. Tous les robots ne fonctionnent pas via des systèmes d’IA et tous les systèmes d’IA ne sont pas des robots. L'éthique des robots considère la manière dont les machines peuvent être utilisées pour nuire ou bénéficier aux humains, leur impact sur l'autonomie individuelle et leurs effets sur la justice sociale.
|
||
Les droits des robots sont le concept selon lequel les gens devraient avoir des obligations morales envers leurs machines, semblables aux droits de l'homme ou aux droits des animaux.[78] Il a été suggéré que les droits des robots (tels que le droit d'exister et d'accomplir sa propre mission) pourraient être liés au devoir des robots de servir l'humanité, de la même manière que l'on associe les droits de l'homme aux devoirs de l'homme envers la société.[79] Ceux-ci pourraient inclure le droit à la vie et à la liberté, la liberté de pensée et d'expression et l'égalité devant la loi.[80] Une question spécifique à considérer est celle de savoir si la propriété du droit d'auteur peut être revendiquée.[81] La question a été examinée par l'\textit{Institute for the Future} et par le ministère britannique du Commerce et de l'Industrie.
|
||
L'IA sans éthique ou morale programmée est HAL 9000 dans la série Space Odyssey, où HAL (un ordinateur doté de capacités d'IA avancées qui surveille et assiste les humains sur une station spatiale) tue tous les humains à bord pour assurer le succès de la mission assignée après son sa propre vie est menacée
|
||
|
||
Super-intelligence aka Un certain nombre d'organisations étudient le problème du contrôle de l'IA, notamment le Future of Humanity Institute, le Machine Intelligence Research Institute, le Center for Human-Compatible Artificial Intelligence et le Future of Life Institute.
|
||
|
||
En octobre 2017, l'androïde Sophia a obtenu la citoyenneté saoudienne, même si certains ont considéré qu'il s'agissait davantage d'un coup publicitaire que d'une reconnaissance juridique significative.[84] Certains ont considéré ce geste comme un dénigrement ouvert des droits de l'homme et de l'État de droit.[85]
|
||
|
||
Le domaine controversée de la robotique militaire, le \textit{Système d'armes létales autonome}
|
||
Œuvrant pour une démocratisation des pratiques en lien avec l'AI et les modèles de langage type GPT-3, EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous l’amendement des chercheurs.
|
||
|
||
Le roman de Philip K. Dick de 1968, Les androïdes rêvent-ils de moutons électriques ? explore ce que signifie être humain. Dans son scénario post-apocalyptique, il se demande si l’empathie est une caractéristique entièrement humaine. Le livre est à la base du film de science-fiction Blade Runner de 1982.
|
||
|
||
Chappie, est un film de science-fiction qui explore les thèmes de l'intelligence artificielle, de la conscience et de l'humanité. Se déroulant dans un futur proche à Johannesburg, l'histoire suit un droïde de police nommé Chappie qui gagne une conscience après avoir été reprogrammé par un ingénieur logiciel. Au fur et à mesure que le robot apprend et évolue, il est influencé par un groupe diversifié de personnages, dont un gang criminel. Le film aborde de manière ambitieuse des questions complexes telles que la moralité, l’identité et la nature de la conscience.
|
||
|
||
humain augmenté, à l’image de la créature de Frankenstein ou \gls{social uncanniness}
|
||
|
||
Sur la question de la conscience des modèles de langage ou large language model (LLM), David Chalmers\cite{chalmers2023could} évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir a déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait. A son tour, Chalmer fait la distinction entre simuler la conscience et la prouver, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il n’a été entraînée auparavant. Il évoque six facteurs-clé qui font difficile implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent- la biologie- tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation.
|
||
\begin{quote}
|
||
``Peut-être que la théorie dominante actuelle de la conscience en neurosciences cognitives est la théorie de l'espace de travail global, proposée par Bernard Baars et développée par Stanislas Dehaene et ses collègues. Cette théorie stipule que la conscience implique un espace de travail global à capacité limitée : une sorte de centre de tri central pour rassembler les informations provenant de nombreux modules non conscients et rendre ces informations accessibles à eux. Tout ce qui entre dans l'espace de travail global est conscient\footnote{``Perharps the leading current theory of consciousness in cognitive neuroscience is the global
|
||
workspace theory put forward by Bernard Baars and developed by Stanislas Dehaene and
|
||
colleagues. This theory says that consciousness involves a limited-capacity global workspace: a
|
||
central clearing-house for gathering information from numerous non-conscious modules and
|
||
making information accessible to them. Whatever gets into the global workspace is conscious.”}.”
|
||
\cite{chalmers2023could}
|
||
\end{quote}
|
||
Au cours de la prochaine décennie, même si nous ne disposons pas d’une intelligence artificielle générale à l’échelle humaine, nous pourrions
|
||
ont des systèmes qui sont de sérieux candidats à la conscience. Même si les défis sont nombreux
|
||
et les objections à la conscience dans les systèmes d'apprentissage automatique, relever ces défis donne un
|
||
programme de recherche potentiel réaliste pour l’IA consciente. (chalmers says)
|
||
|
||
|
||
|
||
|
||
\section*{Conclusion chapitre 1}
|
||
|
||
|
||
\section*{Ouverture}
|
||
|
||
|
||
\begin{quote}
|
||
|
||
``Déléguer de la conscience aux machines, signifie faire de la conscience une propriété objective, une propriété physique. Chercher cela parce que nous autres, membres tard-venus d’une civilisation occidentale qui déclare avoir vaincu ses origines mythiques, pensons vivre dans un monde fait uniquement d’objets physiques. À partir de là, tout ce qui paraît non physique ne peut être qu’une propriété ou un sous- produit de quelque objet physique. Mais au nom de quoi pense-t-on cela ? Au nom d’une hypostase tacite des objets de la connaissance scientifique et de la manipulation technologique.”
|
||
\cite{bitbol2018cp}
|
||
\end{quote}
|
||
Au delà de leur message artistique, ces performances aident à comprendre l'impact de la technologie numérique sur les interactions sociales. Selon Kozel, nous découvrons les autres à travers des systèmes informatiques interactifs.
|
||
|
||
\textit{La puissance de calcul que permet un réseau de 16 milliards de neurones corticaux dépasse notre imagination
|
||
actuelle. Ce réseau fluctue sans cesse d'une façon partiellement
|
||
autonome, créant ainsi un monde interne de représentations
|
||
subjectives. Même lorsqu'il est confronté à des entrées sensorielles strictement identiques, il ne réagit pas de la même manière en fonction de son humeur, de ses buts et de ses souvenirs. Le code neural varie également d'un cerveau à l'autre. Bien que nous partagions tous le même attirail de neurones codant pour la couleur, la forme ou le mouvement, les détails de leur organisation résultent d'un long développement qui sculpte différemment chacun de nos cerveaux, en amplifiant ou en éliminant certaines de nos synapses.\cite{dehaene2014odile}
|
||
}
|
||
|
||
\begin{quote}
|
||
``Consciousness emerges from the mastery of sensorimotor knowledge resulting from the interaction between agent and environment, with the view that the living body's homeostatic regulation is crucial to self and consciousness.”
|
||
\cite{ziemke2007embodied}
|
||
\end{quote}
|
||
|
||
\begin{quote}
|
||
``The body by mid century came to be visualisable from outside itself. But what it saw from this exterieur viewpoint was a picture or portrait of its own appearance.” \cite{foster2010choreographing}
|
||
\end{quote} |