add ref on bostron
This commit is contained in:
parent
7c0d6d5fad
commit
1a3e8f04bc
|
@ -31,7 +31,6 @@ Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{steng
|
|||
\cite{stengers2016another}
|
||||
\end{quote}
|
||||
|
||||
|
||||
Selon\cite{nass1997computers}, les individus adoptent des comportements sociaux envers les technologies, même lorsque ces comportements sont totalement incohérents avec leurs croyances concernant les machines. Pour mieux comprendre cet aspect culturel de la robotique, dans \cite{shaw2009looking} les chercheurs évoquent la question de l’\textit{équivalence morale} entre humains et robots: ceux deniers étant non-humains, ils sont incapables d'avoir une position d'équivalence morale avec nous. Par son statut, un robot n'a pas une capacité à s’engager dans un comportement véritablement social, puisque cela signifie interagir et interpréter le monde en fonction d'une expérience propre. En analysant une interaction relationnelle entre des seniors et un bébé phoque robotisé appelé Paro, les chercheurs montrent comment Paro suscite des sentiments d'admiration et de curiosité, loin de l'authenticité propre aux relations humaines. Leurs observations nous invitent à mieux réfléchir aux types de relations que nous pensons appropriés entre des artefacts relationnels et des populations particulièrement vulnérables comme les personnes âgés ou malades. Ils proposent le cadre des trois lois de la robotique d’Asimov, comme prémisse pour des lignes directrices éthiques. Ces cadres s'appuient sur des modèles cognitifs pour promouvoir des interactions sociales dignes de confiance entre les humains et les robots:
|
||||
\begin{quote}
|
||||
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species (affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual dimension. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new technological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, companions, and avatars.”}.”
|
||||
|
@ -47,7 +46,7 @@ En parallèle, l'\textit{Institut pour l'éthique et les technologies émergente
|
|||
|
||||
Dans une démarche similaire, \cite{kazim2021high} décrit les caractéristiques d'une \textit{conscience éthique}. Cela concerne une personne, une institution ou une norme culturelle motivée par une position morale vis-à-vis des enjeux économiques (salaire et profit) ou légales (responsabilité, culpabilité et conformité). Le développement de ce type de conscience émerge dans le même temps que les préoccupations pour la philosophie et la culture institutionnelles.
|
||||
|
||||
Retournons à la question de la conscience et ses paradoxes. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et IA à clarifier son rôle dans le fonctionnement humain, est comme nous l'avons dit une question fascinante. En sciences cognitives pr exemple, grace au traitement du signal EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,5–4 Hz), thêta (4–7 Hz), alpha (7–12 Hz), bêta (13–30 Hz) et ondes de la bande gamma (>30 Hz).
|
||||
Retournons à la question de la conscience et ses paradoxes. Notre lecture des sciences cognitives, les efforts des chercheurs en robotique et IA à clarifier son rôle dans le fonctionnement humain, est comme nous l'avons dit une question fascinante. En sciences cognitives pr exemple, grâce au traitement du signal EEG, les ondes cérébrales sont de plus en plus connues. Les activités cognitives et les états fonctionnels du cerveau sont aujourd'hui classées en ondes avec plusieurs fréquences de base sous-jacentes \cite{liu2024cognitive}. Comme le montre le schéma en bas, la fréquence EEG peut-être classée en cinq sous-plages de fréquences : delta (0,5–4 Hz), thêta (4–7 Hz), alpha (7–12 Hz), bêta (13–30 Hz) et ondes de la bande gamma (>30 Hz).
|
||||
|
||||
\begin{figure}
|
||||
\centering
|
||||
|
@ -59,34 +58,17 @@ Retournons à la question de la conscience et ses paradoxes. Notre lecture des s
|
|||
Ces derniers années ces bandes de fréquences ont été associées à des fonctions spécifiques des activités neuronales. Les activités de la bande delta correspondent aux stades profonds du sommeil, ou par des laps de temps brefs et soudains d'inattention. Elles représentent des ondes de basse fréquence et de haute amplitude. Les ondes thêta sont associées aux états comportementaux nécessitant l'attention, l'orientation et du calcul mental. Elles jouent un rôle clé dans les performances cognitives et perceptuelles. Les ondes alpha correspondent à un état d'esprit détendu, de relaxation, trouvées dans les régions occipitales et postérieures du cerveau. Les ondes bêta sont aujourd'hui associées à un état éveillé, attentif et alerte, ce qui corresponds à un état de \textit{conscience}. Cet état est aussi celui des décisions motrices, ce qui confirme notre exploration en lien avec le mouvement et la kinesthésie. Tandis que les fréquences gamma sont distribuées dans plusieurs structures cérébrales, participant à diverses fonctions ce qui fait que leur spécificité est toujours étudiée. Une fois que ces hypothèses seront confirmés, la modélisation de l'esprit humain et l’émergence d'une forme de CA seront possibles.
|
||||
|
||||
Entre curiosité scientifique, spéculation, défi, comportement irresponsables, cet élément clé dans la compréhension de notre espèce aura un impact inéluctable sur notre avenir. Plusieurs domaines scientifiques convergent au même point d’acquis d'un savoir spectaculaire, proche de l'ordre du surnaturel. Les équations pas résolues trouvent petit à petit des solutions. Cependant les objectifs de chaque domaine est différent et l'ingérence du privé (qu'il soit politique ou industriel) dans ces domaines, porte un grand préjudice à la recherche fondamentale.
|
||||
C'est pour cela qu'une perspective philosophique (et plus largement artistique) et éthique de cette question est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre et avec son accord. Cet accord, ou la mise à disposition des informations afin de réfléchir collectivement à ces questions peut se faire au travers l'art.
|
||||
C'est pour cela qu'une perspective philosophique (puis plus largement une artistique) et éthique de cette question est impérative. Les efforts collectives et pluridisciplinaires doivent aller dans une direction commune, constructive pour le bénéfice du plus grand nombre, avec son accord. Cet accord, ou la mise à disposition des informations afin de réfléchir collectivement à ces questions, peut se faire au travers l'art.
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
|
||||
Ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, les chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités associées à une forme de sagesse acquise grâce à l’expérience, comme la conscience de soi et la capacité à être un agent réactif à la raison.
|
||||
Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine unique et restreint.
|
||||
|
||||
|
||||
|
||||
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
||||
Ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, des chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités acquises grâce à l’expérience, parmi lesquelles la conscience de soi et la capacité d'être réactif à la raison. Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine spécifique et restreint. \cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple, la capacité de construire des ruches est propres aux abeilles, et pas interchangeable avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} raccourcira ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A la recherche d'une solution, Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
||||
\begin{quote}
|
||||
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
|
||||
\cite{bostrom2018ethics}
|
||||
\end{quote}
|
||||
|
||||
Pour résoudre ce dilemme, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées pour une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}.
|
||||
Plus loin, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées, pour mettre en place une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}. Cependant, avons-nous réellement besoin réellement d'une police pour raisonner de manière éthique? Des algorithmes qui nous surveillent, afin de garantir notre objectivité, rendra encore plus confus notre rapport avec ces dernières. Nous aurions besoin de comprendre nos intentions et leur raisons, avant de reléguer notre liberté aux machines et leur éthique. Parmi les problématiques traitées par l’éthique des algorithmes d'IA, les chercheurs évoquent les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales. Domaine issu de ces problématiques, l'éthique des machines concerne la fabrication des artefacts qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Leurs problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation crée via des algorithmes d'IA. A cela des chercheurs ont même proposé un test alternatif, le \textit{test éthique de Turing}.
|
||||
|
||||
|
||||
Parmi les problématiques traitées par l’éthique des algorithmes IA je mentionne: les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales.
|
||||
|
||||
L'éthique des machines concerne la fabrication des machines qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Les problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation permise par l'IA.
|
||||
|
||||
Un test alternatif proposé est celui appelé le \textit{test éthique de Turing},
|
||||
|
||||
Au début des années 2000, des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle en comparaison avec une moralité fonctionnelle. Cette dernière est capable d'évaluer certains des aspects moralement significatifs de leurs propres actions, alors que la dernière est définie en relation avec deux critères (autonomie et sensibilité éthique). La relation entre les deux est illustré plus bas, avec des systèmes dotés d'une autonomie signifiant mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique.
|
||||
Au début des années 2000, des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle en comparaison avec une moralité fonctionnelle. Cette dernière est capable d'évaluer certains des aspects moralement significatifs de leurs propres actions, alors que la dernière est définie en relation avec deux critères (autonomie et sensibilité éthique). La relation entre les deux est illustré plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique:
|
||||
|
||||
\begin{figure}
|
||||
\centering
|
||||
|
@ -96,7 +78,7 @@ Au début des années 2000, des chercheurs abordaient déjà le problème de la
|
|||
\end{figure}
|
||||
|
||||
|
||||
Le terme de \gls{éthique des robots}
|
||||
Le terme d' \gls{éthique des robots}
|
||||
|
||||
|
||||
L'une des premières publications abordant directement et établissant les bases de l'éthique des robots fut Runaround (histoire), une nouvelle de science-fiction écrite par Isaac Asimov en 1942 qui présentait ses célèbres Trois lois de la robotique. Ces trois lois ont été continuellement modifiées par Asimov, et une quatrième, ou loi zéro, a finalement été ajoutée pour précéder les trois premières, dans le contexte de ses œuvres de science-fiction. Le terme court roboéthique a probablement été inventé par Gianmarco Veruggio.
|
||||
|
@ -113,13 +95,13 @@ En octobre 2017, l'androïde Sophia a obtenu la citoyenneté saoudienne, même s
|
|||
Le domaine controversée de la robotique militaire, le \textit{Système d'armes létales autonome}
|
||||
Œuvrant pour une démocratisation des pratiques en lien avec l'AI et les modèles de langage type GPT-3, EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous l’amendement des chercheurs.
|
||||
|
||||
Le roman de Philip K. Dick de 1968, Les androïdes rêvent-ils de moutons électriques ? explore ce que signifie être humain. Dans son scénario post-apocalyptique, il se demande si l’empathie est une caractéristique entièrement humaine. Le livre est à la base du film de science-fiction Blade Runner de 1982.
|
||||
Le roman de Philip K. Dick de 1968, \textit{Les androïdes rêvent-ils de moutons électriques ?} explore ce que signifie être humain. Dans son scénario post-apocalyptique, il se demande si l’empathie est une caractéristique entièrement humaine. Le livre est à la base du film de science-fiction Blade Runner de 1982.
|
||||
|
||||
Chappie, est un film de science-fiction qui explore les thèmes de l'intelligence artificielle, de la conscience et de l'humanité. Se déroulant dans un futur proche à Johannesburg, l'histoire suit un droïde de police nommé Chappie qui gagne une conscience après avoir été reprogrammé par un ingénieur logiciel. Au fur et à mesure que le robot apprend et évolue, il est influencé par un groupe diversifié de personnages, dont un gang criminel. Le film aborde de manière ambitieuse des questions complexes telles que la moralité, l’identité et la nature de la conscience.
|
||||
|
||||
humain augmenté, à l’image de la créature de Frankenstein ou \gls{social uncanniness}
|
||||
|
||||
Sur la question de la conscience des modèles de langage ou large language model (LLM), David Chalmers\cite{chalmers2023could} évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir a déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait. A son tour, Chalmer fait la distinction entre simuler la conscience et la prouver, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il n’a été entraînée auparavant. Il évoque six facteurs-clé qui font difficile implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent- la biologie- tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation.
|
||||
Sur la question de la conscience des modèles de langage ou large language model (LLM), David Chalmers\cite{chalmers2023could} évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir a déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait. A son tour, Chalmers fait la distinction entre simuler la conscience et la prouver, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il n’a été entraînée auparavant. Il évoque six facteurs-clé qui font difficile implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent- la biologie- tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation.
|
||||
\begin{quote}
|
||||
``Peut-être que la théorie dominante actuelle de la conscience en neurosciences cognitives est la théorie de l'espace de travail global, proposée par Bernard Baars et développée par Stanislas Dehaene et ses collègues. Cette théorie stipule que la conscience implique un espace de travail global à capacité limitée : une sorte de centre de tri central pour rassembler les informations provenant de nombreux modules non conscients et rendre ces informations accessibles à eux. Tout ce qui entre dans l'espace de travail global est conscient\footnote{``Perharps the leading current theory of consciousness in cognitive neuroscience is the global
|
||||
workspace theory put forward by Bernard Baars and developed by Stanislas Dehaene and
|
||||
|
|
Loading…
Reference in New Issue