623 lines
102 KiB
TeX
623 lines
102 KiB
TeX
parallèle\chapter*{Conclusion Générale}
|
||
\addcontentsline{toc}{chapter}{Conclusion Générale}
|
||
|
||
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
|
||
|
||
Actuellement plusieurs acteurs publics et privés affrontent des problèmes complexes en matière d’IA pour promouvoir des pratiques responsables concernant le partage et la transparence des données. Parmi les initiatives récentes, certaines ont échoué (comme le Conseil consultatif externe sur les technologies avancées de Googgle ou l'opacité des données d'entrainement de ChatGPT qui a donne suite à la création de la fondation Fondation EleutherAI ), tandis que d'autres (l'\textit{Algorithmic Justice League}, la \textit{Cooperative AI Foundation}, le \textit{Global Partnership on Artificial Intelligence} , entre outres) continuent de sensibiliser la société aux préjugés et à l'impact écologique de l'IA. Dans les prochaines pages je m’apprête à évoquer certaines directions et considération éthiques en robotique et en IA. Cette taxonomie est certainement non exhaustive et je la mentionne pour souligner le caractère interdisciplinaire de ces approches et leur diversité, qui sont également un élément clé de mes pratiques.
|
||
|
||
Cette thèse devient ainsi une contribution pour faire progresser la recherche et le développement en éthique de l'IA et de la robotique afin de mieux penser notre cohabitation avec les machines, dans les années à venir. Au sens large, mon intention est probablement de clarifier la place que nous accordons aux technologies dans nos vies. Autre que les robots qui sont pour l'instant moins accessibles, cela se traduit par des jeux vidéos, par notre présence accrue sur les réseaux sociaux, par l'utilisation des applications chargées sur notre portable, par le recours aux gadgets connectés à l’intérieur d'une maison. Nous vivons entourés par ces dispositifs, au point de les considérer comme des extensions de notre personnalité. Leur spécificité nous échappe, car nous imaginons que leur utilité désigne leur fonction. Cependant la plupart du temps c’est nous qui sommes à leur service, car ces machine sont besoin de nos données, notre attention et notre dévouement pour exister. La question de l’identité se pose, car c’est très important d’interroger d’où vient ce besoin de déléguer aux machines nos décisions et préférences, de fantasmer sur leur capacités absolues et d'ignorer leur limitations.
|
||
|
||
La danse raconte une histoire en engageant différentes parties du corps. La technologie peut être un moyen pour renforcer l'idée d'un spectacle, tout comme elle peut devenir partenaire actif dans un scénario. Tel a été le cas pour \textit{TIWIDWH} où HRP-4 devient personnage principal d'une danse sur une chaise. Le rendu est à la fois enrichissant pour le danseur qui a été obligé de trouver une autre façon de faire dans son corps, mais aussi pour l'spectateur qui s'est imaginé des intentions pour le robot danseur. L'art profite de cet endroit privilégié pour interroger les formes d'expression conventionnelles, tandis que les scientifiques analysent l'appropriation de leur outil numérique par des non-initiés. Cependant, malgré les récents développements des algorithmes en \gls{intelligence artificielle générative}, il n'est pas certain que nous partageons avec les machines la créativité. Pour le contexte particulier de la danse, cette créativité est définie au sens large, en incluant toute forme de mouvement générée dans un cadre de représentation artistique. Dans des futures projets, j’aimerais imaginer le point de vue des robots sur la danse, leur retour d'experience sur nos expérimentations et la possibilité d’une “collaboration” plus fructueuse. Des domaines tel la robotique culturelle, pourront nous aider à mieux comprendre ces rapports. Nous laisserons ouverte cette question concernant les robots sociaux et la manière dont ils participent à la culture, tout en soulignant le caractère dynamique de ces contributions. Dans son livre\cite{dunstan2023cultural}, Dunstan questionne le statut de robots et leur attribue une possible culture propre, différente de la culture humaine. Cette culture serait méconnaissable pour les humains tout en exerçant une certaine influence sur ces derniers. Certaines théories contemporaines sur les relations homme-machine décentrent l'humain et plaident pour une forme d'agence non-humaine. D'autres chercheurs prennent en compte le concept d'empathie kinesthésique de la danse\cite{foster2010choreographing} et de la théorie associée des neurones miroirs\cite{gallese1996action} pour construire une dynamique relationnelle entre humains et machines afin de mieux anticiper l’influence de ces derniers sur les humains. Le projet \textit{code\_red} (2021) présenté dans un chapitre\cite{loke2023rouge} du livre\cite{dunstan2023cultural}, traite des rapports intimes entre humains et robots. Ainsi un bras industriel apprends à dessiner des lèvres, puis mettre du rouge à lèvres à une femme assise devant lui. Ce geste est interprété par les auteurs comme un acte de coquetterie mais aussi comme un acte d’engagement: marquer sa voix par une couleur rouge- symbole de la peinture de guerre, pour mieux réclamer ses droits. L’influence du robot sur l’humain est ici omniprésente, bien que le geste de peindre ses lèvres est propre qu'à l'humain. Plus loin les auteurs font une critique philosophique de cette démarche en utilisant le concept deleuzien de \textit{résonance}, où “l'interaction des sensations entre les corps conduit à une fusion ou un brouillage des frontières entre l'humain et la machine”. Ils citent à leur tour Petra Gemeinboeck qui utilise le terme de \textit{résonances intra-corporelles}\cite{gemeinboeck2021aesthetics} pour désigner une forme d'empathie incarnée propice à une harmonisation des vibrations et des rythmes corporelles entre humain et machine. Ainsi à la place de modeler des robots à l'image des humains, les auteurs soulignent l'importance d'un langage primordial du mouvement, partagé entre les espèces\cite{loke2023rouge}, à différentes échelles et intensités. Ce langage, construit par la perception et l'adaptation entre des agents humains et non-humains, doit s’échapper à une monopolisation humaine de la rencontre. Au contraire, comme le montre Gemeinboeck, éviter délibérément la focalisation sur l'individualisme des agents interactifs favorise un croisement des flux perceptuels et des dynamiques de mouvement qui donnent naissance à des effets émergents de signification.
|
||
|
||
|
||
Self aware robots\cite{chatila2018toward}:
|
||
Notre hypothèse est que la conscience de soi doit d'abord reposer sur la perception de soi comme différent de l'environnement et des autres agents. Cela nécessite que le robot interagisse avec l'environnement et construise des représentations sensori-motrices qui expriment les possibilités offertes par les éléments de l'environnement, et qu'il interagisse avec d'autres agents pour se distinguer d'eux.
|
||
|
||
Auto-évaluation. Il s'agit de la capacité de savoir que je sais et d'utiliser délibérément cette connaissance dans la sélection des actions. En d'autres termes, le robot construit une connaissance de ses capacités apprises et du moment où il peut les utiliser. Il est capable de transformer les comportements appris en compétences explicites et de caractériser les situations dans lesquelles ces compétences sont applicables, revenant à un comportement dirigé par un objectif planifié lorsqu'elles ne le sont pas.
|
||
|
||
Méta-raisonnement. L'autre capacité principale est la délibération sur son propre raisonnement. Nous proposons un système initialement motivé par des motivations de base, capable de raisonner sur les moyens de les satisfaire pour déterminer ses propres objectifs. Finalement, de nouvelles motivations devraient être apprises, mais cela n'est pas développé dans cet article.
|
||
l'affordance - quoi faire avec un objet
|
||
Le robot doit avoir la capacité de se représenter lui-même et l'humain avec lequel il interagit. Ce faisant, il doit être capable de déduire comment chacune de ces représentations évolue au fur et à mesure du déroulement de l'action conjointe. Le robot doit être capable de prendre en compte la capacité de prise de perspective, en sachant que les représentations évoluent différemment selon chaque point de vue. Parmi d'autres, Milliez et al. (2014) et Hiatt et Trafton (2010) dotent un robot de la capacité de construire une représentation des états mentaux des autres agents concernant l'environnement, lui permettant de réussir le test de Sally et Anne (Wimmer et Perner, 1983). Ensuite, ces états mentaux sont utilisés dans Hiatt et al. (2011) pour interpréter et expliquer le comportement des humains. Mais le robot doit également comprendre et prendre en compte les effets de ses propres actions sur les états mentaux de ses partenaires, ce qui implique un second degré de conscience. Cela est réalisé dans Gray et Breazeal (2014) où le robot joue à un jeu compétitif avec un humain et choisit son action afin de manipuler l'état mental de l'humain par rapport à l'état du monde.
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/chatila2}
|
||
\caption{Exemple d'architecture cognitive pour un systeme robotique.}
|
||
\label{fig:chatila2}
|
||
\end{figure}
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/chatila1}
|
||
\caption{Apprentissage sensori-moteur pour une affordance}
|
||
\label{fig:chatila1}
|
||
\end{figure}
|
||
|
||
Plea for slow science\cite{stengers2016another}
|
||
L’histoire de la résistance contre les OGM concerne un droit – pas le droit d’arrêter les horloges,
|
||
il n’y a pas d’horloges – mais un droit démocratique primordial, celui de penser l’avenir. Grâce à
|
||
la désobéissance civile, la violence ultime contre la démocratie, celle du compte à rebours
|
||
argument, a été contrecarré. Mais : même s'il a été contrecarré, il n'a pas été vaincu. Le
|
||
Le limogeage de Barbara Van Dyck est en effet un signal fort.
|
||
\begin{quote}
|
||
Je me sens honteux devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: I feel ashamed before those young people entering university with the hope of
|
||
getting a better understanding of the world we live in. We know that those who enter
|
||
university today belong to the generation that will have to face a future the challenges of
|
||
which we just cannot imagine… Can we claim that what we are proposing them meets, or
|
||
even vaguely meets, this situation? Can we also claim that we deserve the trust people still
|
||
have in the role we, who are working at the university, and those we train, can play in this
|
||
future? It is heard that our ways of life will have to change, and this certainly entails a change
|
||
in the way we relate to our environment, social and ecological. Can we claim that such change
|
||
does not also entail a change in the ways our academic knowledge relates to its environment?}?
|
||
(...)
|
||
|
||
That is why I wish, ending this talk, to emphasize the difference
|
||
between, on the one hand, adhering to a rule and, on the other, recognizing its power while
|
||
looking for the opportunities to experiment outside its bounds, creating interstices where13
|
||
another science could discover its own demands. To take just an example, a university may be
|
||
free to define such reclaiming explorations of slowing down practices in terms of services to
|
||
the community, which they are indeed, and recognize them as such. This would be a strong
|
||
signal, indeed, that we are not a corporation, proudly obeying the ticking clocks of an
|
||
unsustainable progress, but a community trying to give some meaning to the now consensual
|
||
but often empty claim: the claim that we have to change our ways of behaving in this world.
|
||
\cite{stengers2016another}
|
||
\end{quote}
|
||
|
||
moral équivalence in \cite{shaw2009looking}:
|
||
les robots restent non-humains et incapables de
|
||
résumer une position d'équivalence morale avec les humains
|
||
la véracité morale des relations homme-robot, ce qui suggère que de telles relations
|
||
risquer d’être psychologiquement appauvri d’un point de vue moral.
|
||
spective, ou sont d’une inauthenticité déconcertante et donc
|
||
donc moralement problématique.
|
||
le statut ontologique du robot comme social ou sa capacité à s’engager
|
||
dans un comportement véritablement social, doutant qu'ils puissent réellement interagir
|
||
interpréter le monde qui les entoure en fonction de leur propre expérience.
|
||
L’étude de Turkle a examiné l’interaction relationnelle entre les seniors et Paro (un bébé phoque du Groenland robotisé) et a découvert que Paro suscitait des sentiments d'admiration, d'amour comportement et curiosité, mais il a estimé que le sceau du robot soulevait des difficultés. culte des questions sur le type d'authenticité que nous exigeons de
|
||
notre technologie. Voulons-nous que les robots disent des choses qu'ils ne pourrait-il pas vouloir dire ? Quels types de relations nous pensons qu'ils sont les plus appropriés pour nos enfants et nos aînés avoir avec les artefacts relationnels ?
|
||
Les trois lois de la robotique d’Asimov suffiraient comme lignes directrices éthiques
|
||
\begin{quote}
|
||
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles [69]. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species
|
||
(affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual di-
|
||
mension [69]. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new tech-
|
||
nological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, compan-
|
||
ions, and avatars.”}.”
|
||
\cite{shaw2009looking}
|
||
\end{quote}
|
||
|
||
\begin{quote}
|
||
``Les individus adoptent des comportements sociaux envers les technologies même lorsque ces comportements sont totalement incohérents avec leurs croyances sur les machines\footnote{en angalis: ``individuals engage in social behavior towards technologies even when such behavior is entirely inconsistent with their beliefs about the machines.”}.”
|
||
\cite{ass1997computers}
|
||
\end{quote}
|
||
|
||
according to \cite{chowdhury2021ethics}
|
||
: (orienté vers l'humain) qui provoquent l'ethisques physiques et caractéristiques de l’IA (orientée machine) qui soulèvent des questions éthiques.
|
||
des machines coûteuses, et les seules personnes qui peuvent se les permettre sont les grands
|
||
entreprises internationales, ce qui signifie que de moins en moins de personnes peuvent réellement contrôler
|
||
le destin de la technologie de l'IA,
|
||
si vous donnez à l'agent une fonction de récompense consistant simplement à préparer le
|
||
le thé, il fait plein dans l'arène des récompenses et s'il y a un vase sur le chemin, il va frapper
|
||
car vous n'avez pas précisé ce qui vous importait (dans ce cas, le vase) ainsi que le
|
||
mesures qui doivent être prises. Ce n'est pas dans la fonction de récompense, mais c'est ce qui vous tient à cœur.
|
||
Une des hypothèses de la norme Renforcement
|
||
Le paradigme d'apprentissage est qu'il existe une séparation entre l'agent et l'environnement,
|
||
les actions de l’agent peuvent affecter l’environnement et l’environnement n’affecte que le
|
||
agent en fournissant des observations et des récompenses. Mais dans un système d’IA avancé, c’est
|
||
déployé dans le monde réel, le fait que l'agent fait physiquement partie de l'environnement
|
||
devient important. L'environnement peut changer les choses sur l'agent et l'agent
|
||
peut changer les choses sur lui-même.
|
||
|
||
Humanity Plus; formerly the World Transhumanist Association) is a non-profit international educational organization that advocates the ethical use of technologies and evidence-based science to improve the human condition.
|
||
Anciens Transhumanistes (1998)
|
||
L'Institut pour l'éthique et les technologies émergentes est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Nous pensons que le progrès technologique peut être un catalyseur de développement humain positif à condition que nous veillions à ce que les technologies soient sûres et équitablement distribuées. Nous appelons cela une orientation technoprogressiste. (2004)
|
||
|
||
according to \cite{kazim2021high}
|
||
une conscience éthique:
|
||
|
||
Ethical consciousness refers to a person or institution or cultural norm, that has a disposition that is motivated by a moral awareness rather than, say, exclusively a concern of economics (pay and profit), or legality (responsibility, culpability, and compliance). In other words, this is a desire to do the right thing. Ethical consciousness can be read as coming out of business ethics,10 which is an applied ethics within the commercial environment. Sharing many of the themes from the previous section, it encompasses the integration of codes of conduct and compliance; however, it also expands to consider reputational issues, (corporate) social responsibility, and, most relevant to the development of ethical consciousness, concerns for institutional philosophy and culture. Drawing particularly on the latter, ethical
|
||
consciousness can be stated in terms of societal and culture shifts in the awareness of citizens, technology developers and deployers, policy makers, and leaders of industry, in the ethical dimensions of new digital technologies.
|
||
|
||
|
||
utiliser des modèles cognitifs robotiques pour promouvoir des interactions sociales dignes de confiance avec les humains.
|
||
|
||
ondes et conscience \cite{liu2024cognitive}
|
||
Le signal EEG est un mélange de plusieurs fréquences de base sous-jacentes, qui sont considérées comme reflétant les activités cognitives et les états fonctionnels du cerveau au fil du temps. La fréquence EEG est classée en cinq sous-plages de fréquences : delta (0,5–4 Hz), thêta (4–7 Hz), alpha (7–12 Hz), bêta (13–30 Hz) et ondes de la bande gamma (>30 Hz) [15]. Différentes plages de fréquences des signaux EEG sont associées à des fonctions spécifiques des activités neuronales, et le résumé de ces connexions entre les fréquences cérébrales et les fonctions est le suivant :
|
||
|
||
Les activités de la bande delta sont associées aux stades profonds du sommeil et se caractérisent par des ondes de basse fréquence et de haute amplitude. Les rythmes delta peuvent être présents pendant l'éveil, et des ondes delta ont été enregistrées interictalement chez des patients souffrant de crises d'absence, qui se caractérisent par des laps de temps brefs et soudains d'inattention.
|
||
|
||
Les ondes thêta sont souvent associées aux états comportementaux de vigilance, d'attention, d'orientation et de mémoire de travail, y compris l'amélioration des performances cognitives et perceptuelles. Le rythme thêta détecté dans les mesures EEG est souvent trouvé chez les jeunes adultes, particulièrement dans les régions temporales et lors de l'hyperventilation.
|
||
|
||
Les ondes alpha sont souvent associées à un état d'esprit détendu, calme et lucide. Les ondes alpha peuvent être trouvées dans les régions occipitales et postérieures du cerveau. Les ondes alpha peuvent être induites en fermant les yeux et lorsque les humains sont dans des états de relaxation. Elles sont rarement présentes pendant les processus cognitifs intenses tels que la réflexion, les calculs mentaux et la résolution de problèmes.
|
||
|
||
Les ondes bêta sont le plus étroitement associées à l'état de conscience ou à un état éveillé, attentif et alerte. Les ondes bêta de faible amplitude sont associées à une concentration active, ou à un état d'esprit occupé ou anxieux. Les ondes bêta sont également associées aux décisions motrices (suppression du mouvement et retour sensoriel du mouvement).
|
||
|
||
Les fréquences gamma sont largement distribuées dans les structures cérébrales et participent à diverses fonctions cérébrales, telles que la perception, l'attention, la mémoire, la conscience, la plasticité synaptique et le contrôle moteur.
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/brainwaves}
|
||
\caption{Structure du cerveau humain et formes d'onde.}
|
||
\label{fig:brainwaves}
|
||
\end{figure}
|
||
|
||
|
||
|
||
|
||
Ce qui rend d’expérience humaine unique est sa \gls{sentience}, vue comme capacité d'avoir une expérience phénoménale propre, ou ce que nous avons déjà defini comme \gls{qualia}. A cela, les chercheurs rajoutent le concept de \gls{sapience} qui désigne un ensemble de capacités associées à une forme de sagesse acquise grâce à l’expérience, comme la conscience de soi et la capacité à être un agent réactif à la raison.
|
||
Actuellement les algorithmes d'IA dotés de performances équivalentes ou supérieures à celles des humains se caractérisent par des compétences programmées dans un domaine unique et restreint.
|
||
|
||
|
||
|
||
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. L’émergence d'une \gls{intelligence artificielle générale} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin d’être résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
|
||
\begin{quote}
|
||
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
|
||
\cite{bostrom2018ethics}
|
||
\end{quote}
|
||
|
||
Pour résoudre ce dilemme, son \textit{hypothese du monde vulnerable} ou \gls{vulnerable world hypothesis} promut des recherches en matière des capacités amplifiées pour une police préventive avec une surveillance mondiale de la population\cite{bostrom2019vulnerable}.
|
||
|
||
|
||
Parmi les problématiques traitées par l’éthique des algorithmes IA je mentionne: les biais et l’équité dans le traitement des données, la prise de décision automatisée, la transparence et la réglementation de politiques internationales.
|
||
|
||
L'éthique des machines concerne la fabrication des machines qui se comportent de manière éthique ou \textit{AMA - Artificial Moral Agents}. Les problématiques couvrent en outre le bio-hacking, la course aux armements, la sécurité, le chômage technologique et la désinformation permise par l'IA.
|
||
|
||
Un test alternatif proposé est celui appelé le \textit{test éthique de Turing},
|
||
|
||
Au début des années 2000, des chercheurs abordaient déjà le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle en comparaison avec une moralité fonctionnelle. Cette dernière est capable d'évaluer certains des aspects moralement significatifs de leurs propres actions, alors que la dernière est définie en relation avec deux critères (autonomie et sensibilité éthique). La relation entre les deux est illustré plus bas, avec des systèmes dotés d'une autonomie signifiant mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique.
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/AMA}
|
||
\caption{Differents niveaux de moralité pour les machines selon Wallach. Source : \cite{wallach2008mora}l}
|
||
\label{fig:ama}
|
||
\end{figure}
|
||
|
||
|
||
Le terme de \gls{éthique des robots}
|
||
|
||
|
||
L'une des premières publications abordant directement et établissant les bases de l'éthique des robots fut Runaround (histoire), une nouvelle de science-fiction écrite par Isaac Asimov en 1942 qui présentait ses célèbres Trois lois de la robotique. Ces trois lois ont été continuellement modifiées par Asimov, et une quatrième, ou loi zéro, a finalement été ajoutée pour précéder les trois premières, dans le contexte de ses œuvres de science-fiction. Le terme court roboéthique a probablement été inventé par Gianmarco Veruggio.
|
||
|
||
|
||
fait référence à la moralité de la manière dont les humains conçoivent, construisent, utilisent et traitent les robots. L’éthique des robots recoupe l’éthique de l’IA. Les robots sont des machines physiques alors que l'IA ne peut être qu'un logiciel. Tous les robots ne fonctionnent pas via des systèmes d’IA et tous les systèmes d’IA ne sont pas des robots. L'éthique des robots considère la manière dont les machines peuvent être utilisées pour nuire ou bénéficier aux humains, leur impact sur l'autonomie individuelle et leurs effets sur la justice sociale.
|
||
Les droits des robots sont le concept selon lequel les gens devraient avoir des obligations morales envers leurs machines, semblables aux droits de l'homme ou aux droits des animaux.[78] Il a été suggéré que les droits des robots (tels que le droit d'exister et d'accomplir sa propre mission) pourraient être liés au devoir des robots de servir l'humanité, de la même manière que l'on associe les droits de l'homme aux devoirs de l'homme envers la société.[79] Ceux-ci pourraient inclure le droit à la vie et à la liberté, la liberté de pensée et d'expression et l'égalité devant la loi.[80] Une question spécifique à considérer est celle de savoir si la propriété du droit d'auteur peut être revendiquée.[81] La question a été examinée par l'\textit{Institute for the Future} et par le ministère britannique du Commerce et de l'Industrie.
|
||
L'IA sans éthique ou morale programmée est HAL 9000 dans la série Space Odyssey, où HAL (un ordinateur doté de capacités d'IA avancées qui surveille et assiste les humains sur une station spatiale) tue tous les humains à bord pour assurer le succès de la mission assignée après son sa propre vie est menacée
|
||
|
||
Super-intelligence aka Un certain nombre d'organisations étudient le problème du contrôle de l'IA, notamment le Future of Humanity Institute, le Machine Intelligence Research Institute, le Center for Human-Compatible Artificial Intelligence et le Future of Life Institute.
|
||
|
||
En octobre 2017, l'androïde Sophia a obtenu la citoyenneté saoudienne, même si certains ont considéré qu'il s'agissait davantage d'un coup publicitaire que d'une reconnaissance juridique significative.[84] Certains ont considéré ce geste comme un dénigrement ouvert des droits de l'homme et de l'État de droit.
|
||
|
||
Le domaine controversée de la robotique militaire, le \textit{Système d'armes létales autonome}
|
||
Œuvrant pour une démocratisation des pratiques en lien avec l'AI et les modèles de langage type GPT-3, EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous l’amendement des chercheurs.
|
||
|
||
Le roman de Philip K. Dick de 1968, Les androïdes rêvent-ils de moutons électriques ? explore ce que signifie être humain. Dans son scénario post-apocalyptique, il se demande si l’empathie est une caractéristique entièrement humaine. Le livre est à la base du film de science-fiction Blade Runner de 1982.
|
||
|
||
Chappie, est un film de science-fiction qui explore les thèmes de l'intelligence artificielle, de la conscience et de l'humanité. Se déroulant dans un futur proche à Johannesburg, l'histoire suit un droïde de police nommé Chappie qui gagne une conscience après avoir été reprogrammé par un ingénieur logiciel. Au fur et à mesure que le robot apprend et évolue, il est influencé par un groupe diversifié de personnages, dont un gang criminel. Le film aborde de manière ambitieuse des questions complexes telles que la moralité, l’identité et la nature de la conscience.
|
||
|
||
humain augmenté, à l’image de la créature de Frankenstein ou \gls{social uncanniness}
|
||
|
||
Sur la question de la conscience des modèles de langage ou large language model (LLM), David Chalmers\cite{chalmers2023could} évoque le cas de Blake Lemoine, ingénieur software licencié par Google en juin 2022 après avoir a déclaré qu'il avait détecté de la sentience dans LaMDA2, un de systèmes de modèles de langage pour lequel il travaillait. A son tour, Chalmer fait la distinction entre simuler la conscience et la prouver, en se demandant comment construire un modèle de langage qui décrit les caractéristiques de la conscience sur lesquelles il n’a été entraînée auparavant. Il évoque six facteurs-clé qui font difficile implémentation d'une conscience dans les modèles de langage, parmi lesquels seulement un est permanent- la biologie- tandis que les cinq autres (l'incarnation, le modèle du monde, l'espace de travail global, l'entrainement récurrent et l'agence unifiée) sont plus ou moins temporaires - dans le sens que les avancées technologiques des prochaines années vont permettre leur modélisation.
|
||
\begin{quote}
|
||
``Peut-être que la théorie dominante actuelle de la conscience en neurosciences cognitives est la théorie de l'espace de travail global, proposée par Bernard Baars et développée par Stanislas Dehaene et ses collègues. Cette théorie stipule que la conscience implique un espace de travail global à capacité limitée : une sorte de centre de tri central pour rassembler les informations provenant de nombreux modules non conscients et rendre ces informations accessibles à eux. Tout ce qui entre dans l'espace de travail global est conscient\footnote{``Perharps the leading current theory of consciousness in cognitive neuroscience is the global
|
||
workspace theory put forward by Bernard Baars and developed by Stanislas Dehaene and
|
||
colleagues. This theory says that consciousness involves a limited-capacity global workspace: a
|
||
central clearing-house for gathering information from numerous non-conscious modules and
|
||
making information accessible to them. Whatever gets into the global workspace is conscious.”}.”
|
||
\cite{chalmers2023could}
|
||
\end{quote}
|
||
Au cours de la prochaine décennie, même si nous ne disposons pas d’une intelligence artificielle générale à l’échelle humaine, nous pourrions
|
||
ont des systèmes qui sont de sérieux candidats à la conscience. Même si les défis sont nombreux
|
||
et les objections à la conscience dans les systèmes d'apprentissage automatique, relever ces défis donne un
|
||
programme de recherche potentiel réaliste pour l’IA consciente. (chalmers says)
|
||
|
||
\cite{agamben2017omnibus}
|
||
Homo Sacer dont la vie ne peut être intégrée dans l'ordre politique.
|
||
Georgio Agamben, partant d’une réflexion croisée sur la question juridique de l’essence de la souveraineté chez Carl Schmitt et sur l’archéologie des biopouvoirs chez Michel Foucault, montre en quoi, à l’époque moderne, le corps humain est devenu l’enjeu fondamental des stratégies politiques. C’est à l’intérieur de la zone d’indifférenciation de la vie et de la non-vie, dans le pouvoir même de déterminer leur point d’articulation et dans la substitution au corps naturel d’un corps intégralement disponible au pouvoir de la technique, que s’exerce le biopouvoir constitutif de la souveraineté moderne, et dont Agamben décrit minutieusement les différents paradigmes
|
||
|
||
Tout le problème, chez Agamben, comme d’ailleurs chez Foucault, consiste dans le passage de la question généalogique à la question proprement juridique, du factuel au normatif, et ce alors même que, comme l’écrit justement Agamben, la vie nue est précisément le seuil où le droit se transforme chaque fois en fait et le fait en droit et où ces deux plans tendent à devenir indiscernables
|
||
or, si Agamben montre de façon très approfondie en quoi le juridique se réduit au factuel, il laisse singulièrement dans l’ombre la possibilité évoquée d’une constitution du biopouvoir (factuel) en souveraineté (juridique) ; ce qui n’est envisageable que si l’on détermine en quelle mesure le corps – entendons bien notre corps, non un corps sans organe pourrait être non seulement l’objet de ce biopouvoir, mais aussi en constituer la finalité propre dans quelle mesure il n’est pas seulement assujetti au biopouvoir mais est à même de s’en rendre, en un sens, souverain.
|
||
\begin{quote}
|
||
``Pendant des millénaires, l'homme est resté ce qu'il était pour Aristote : un animal vivant avec la capacité supplémentaire d'existence politique ; l'homme moderne est un animal dont la politique met en question son existence en tant qu'être vivant\footnote{For millennia man remained what he was for Aristotle: a living animal with the additional capacity for political existence; modern man is an animal whose politics calls his existence as a living being into question.”}.”
|
||
\cite{agamben2017omnibus}
|
||
\end{quote}
|
||
THE CAMP AS BIOPOLITICAL PARADIGM OF THE MODERN
|
||
Traçant la discussion d'abord jusqu'à la définition décisive d'Aristote et l'observation de Foucault, Agamben se fixe sur l'analyse de Hannah Arendt (1973) du processus par lequel la vie biologique occupe le centre même de la scène politique de la modernité. Foucault a été empêché par sa mort prématurée d'explorer la manière dont l'entrée du zoe dans la sphère du polis signalait une transformation de la pensée classique et devenait le concept seuil de la modernité politique. La biopolitique en tant que catégorie philosophique était arrivée et la contribution durable de Foucault était son abandon décisif de l'approche traditionnelle du problème du pouvoir, qui est basée sur des modèles juridico-institutionnels (la définition de la souveraineté, la théorie de l'État), en faveur d'une analyse impartiale des façons concrètes dont le pouvoir pénètre dans les corps des sujets et les formes de vie. (ibid.)
|
||
|
||
Agamben identifie comment les deux éléments dans l'œuvre de Foucault—les techniques politiques de l'État et les technologies du soi—nous pourrions dire la subjection et la subjectivation, entrent dans une double structure du pouvoir moderne dont le lieu reste apparemment flou ou non résolu dans l'œuvre de Foucault. Ce point de départ crucial est bien documenté dans deux vidéos de 2009 d'Agamben— Forms of Power et the Problem of Subjectivity —disponibles sur son profil de faculté à l'École Européenne de Gradués.
|
||
|
||
Le \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} est une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de l’intelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et l'entrepreneur Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA plus puissants que GPT-4 pour garantir la sécurité et la gouvernance. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}.
|
||
|
||
Selon Stanford Encyclopedia of Philosophy, le domaine de l’\textit{éthique de l'IA et de la robotique} regroupe plusieurs sous-domaines dont la distinction principale se fait entre des systèmes IA en tant qu'objets, ou outils pour les humains et systèmes AI en tant que sujets, ou systèmes concernés par une morale propre différente de celle des humains, que nous appelons ici éthique des machines. Les problématiques spécifiques aux outils de l'IA regroupent des questions liées à la vie privée, aux préjugés et biais que cela peut engendrer, ainsi qu'à l'interaction homme-robot, aux conséquences sur le marché de l'emploi et au conséquences de l'autonomie de ces systèmes en général.
|
||
|
||
L’éthique de l’IA et de la robotique est un domaine très jeune au sein de l’éthique appliquée, avec une dynamique significative, mais peu de questions bien établies et aucun aperçu faisant autorité – bien qu’il existe des contours prometteurs (Groupe européen d’éthique des sciences et des nouvelles technologies 2018) et il existe sont des débuts en matière d’impact sociétal (Floridi et al. 2018 ; Taddeo et Floridi 2018 ; S. Taylor et al. 2018 ; Walsh 2018 ; Bryson 2019 ; Gibert 2019 ; Whittlestone et al. 2019) et de recommandations politiques (AI HLEG 2019 [OIR ] ; IEEE 2019). Cet article ne peut donc pas se contenter de reproduire ce que la communauté a réalisé jusqu'à présent, mais doit proposer un ordre là où il existe peu d'ordre.
|
||
Certains robots utilisent l'IA, d'autres non : les robots industriels typiques suivent aveuglément des scripts complètement définis avec un minimum d'apport sensoriel et aucun apprentissage ni raisonnement (environ 500 000 nouveaux robots industriels de ce type sont installés chaque année (IFR 2019 [OIR])). Il est probablement juste de dire que si les systèmes robotiques suscitent davantage d’inquiétudes auprès du grand public, les systèmes d’IA sont plus susceptibles d’avoir un impact plus important sur l’humanité. En outre, les systèmes d’IA ou de robotique destinés à un ensemble restreint de tâches sont moins susceptibles de causer de nouveaux problèmes que les systèmes plus flexibles et autonomes.
|
||
D’un autre côté, les entreprises, les militaires et certaines administrations publiques ont tendance à se contenter de parler et à procéder à un nettoyage éthique afin de préserver une bonne image publique et de continuer comme avant. La mise en œuvre d’une réglementation juridiquement contraignante remettrait en question les modèles et pratiques économiques existants. La politique actuelle n’est pas seulement une mise en œuvre d’une théorie éthique, mais elle est soumise aux structures de pouvoir sociétales – et les agents qui détiennent le pouvoir s’opposeront à tout ce qui les restreint. Il existe donc un risque important que la réglementation reste impuissante face au pouvoir économique et politique.
|
||
|
||
préoccupations éthiques
|
||
Une fois que nous avons compris une technologie dans son contexte, nous devons façonner notre réponse sociétale, y compris la réglementation et la loi.
|
||
La trace de données que nous laissons derrière nous est la façon dont nos services gratuits sont payés – mais nous ne sommes pas informés de cette collecte de données et de la valeur de cette nouvelle matière première, et nous sommes manipulés pour laisser toujours plus de données de ce type. Pour les big 5(Amazon, Google/Alphabet, Microsoft, Apple, Facebook), la principale partie de leur activité de collecte de données semble reposer sur la tromperie, l’exploitation des faiblesses humaines, l’encouragement de la procrastination, la génération de dépendances et la manipulation ( Harris 2016 [OIR]). Dans cette économie de la surveillance, l’objectif principal des médias sociaux, des jeux vidéo et de la majeure partie d’Internet est d’attirer, de maintenir et de diriger l’attention – et donc la fourniture de données. \textit{La surveillance est le modèle économique d'Internet} (Schneier 2015). Cette économie de surveillance et d’attention est parfois appelée {capitalisme de surveillance} (Zuboff 2019). Cela a donné lieu à de nombreuses tentatives pour échapper à l’emprise de ces entreprises, par exemple dans des exercices de minimalisme (Newport 2019), parfois à travers le mouvement open source, mais il semble que les citoyens d’aujourd’hui ont perdu le degré d’autonomie nécessaire pour s'évader tout en poursuivant pleinement leur vie et leur travail. Nous avons perdu la propriété de nos données, si propriété est ici le bon rapport. Nous avons sans doute perdu le contrôle de nos données.
|
||
|
||
\cite{harari2014sapiens}
|
||
Combien de temps faudra-t-il pour achever le Projet Gilgamesh—la quête de l'immortalité ? Cent ans ? Cinq cents ans ? Mille ans ? Lorsque nous rappelons combien nous savions peu sur le corps humain en 1900 et combien de connaissances nous avons acquises en un siècle, il y a lieu d'être optimiste. Les ingénieurs génétiques ont récemment doublé l'espérance de vie moyenne des vers Caenorhabditis elegans. Pourraient-ils en faire autant pour Homo sapiens ? Les experts en nanotechnologie développent un système immunitaire bionique composé de millions de nano-robots, qui habiteraient nos corps, ouvriraient les vaisseaux sanguins obstrués, combattraient les virus et les bactéries, élimineraient les cellules cancéreuses et inverseraient même les processus de vieillissement. Quelques chercheurs sérieux suggèrent que d'ici 2050, certains humains deviendront a-mortels (non pas immortels, car ils pourraient toujours mourir d'un accident, mais a-mortels, signifiant qu'en l'absence de traumatisme fatal, leur vie pourrait être prolongée indéfiniment).
|
||
|
||
Dans son livre\cite{harari2017homo}, \textit{les organismes sont des algorithmes}. Cela inclut les humains, qui sont constitués d’algorithmes qui produisent des copies d’eux-mêmes. Les sensations, les émotions, les pensées et les comportements proviennent tous de ces algorithmes. Dans une vision évolutionniste du monde, ces algorithmes biologiques ont été produits sur des milliards d’années de variation aléatoire et de sélection naturelle. L'essence humaine n'est pas l'âme pour Harari – c'est l'ADN. Bientôt, dit-il, nous serons capables de réécrire les brins d'ADN et de créer une nouvelle espèce humaine.
|
||
\begin{quote}
|
||
L’humanité est désormais prête à remplacer la sélection naturelle par une conception intelligente et à prolonger la vie du domaine organique vers le domaine inorganique\footnote{Now humankind is poised to replace natural selection with intelligent design, and to extend life from the organic realm into the inorganic.}
|
||
\cite{harari2017homo}
|
||
\end{quote}
|
||
En 2021 le président d’Amazon, Jeff Bezos, a investi dans Altos Labs, un startup dont l'objectif est de travailler sur une technologie pour régénérer les cellules et potentiellement prolonger la vie. Plusieurs chercheurs de renommée internationale se son associés à cette initiative\footnote{https://www.cbsnews.com/news/jeff-bezos-altos-labs-startup-trying-to-extend-human-life-reprogramming-stem-cells/}.
|
||
Les enjeux éthiques de l’IA dans la surveillance vont au-delà de la simple accumulation de données et de l’orientation de l’attention : ils incluent l’utilisation d’informations pour manipuler les comportements, en ligne et hors ligne, d’une manière qui sape les choix rationnels autonomes. Bien sûr, les efforts visant à manipuler les comportements sont anciens, mais ils peuvent acquérir une nouvelle dimension lorsqu’ils utilisent des systèmes d’IA.
|
||
Bien entendu, certaines contraintes assez fondamentales de l’éthique des affaires et du droit s’appliquent également aux robots : la sécurité et la responsabilité des produits, ou la non-tromperie dans la publicité. Il semble que ces contraintes existantes répondent à de nombreuses préoccupations soulevées. Il existe cependant des cas où l’interaction entre humains présente des aspects qui semblent spécifiquement humains et qui ne peuvent peut-être pas être remplacés par des robots : les soins, l’amour et le sexe.
|
||
débats philosophiques où l’autonomie est le fondement de la responsabilité et de la personnalité. Dans ce contexte, la responsabilité implique l'autonomie, mais pas l'inverse, de sorte qu'il peut y avoir des systèmes qui disposent de degrés d'autonomie technique sans soulever de questions de responsabilité.
|
||
|
||
L'idée de singularité est que si la trajectoire de l'intelligence artificielle atteint des systèmes ayant un niveau d'intelligence humain, alors ces systèmes auraient eux-mêmes la capacité de développer des systèmes d'IA surpassant le niveau d'intelligence humain, c'est-à-dire qu'ils seraient superintelligents. De tels systèmes d'IA superintelligents s'amélioreraient rapidement eux-mêmes ou développeraient des systèmes encore plus intelligents. Ce tournant radical des événements après avoir atteint l'IA superintelligente est la singularité à partir de laquelle le développement de l'IA échappe au contrôle humain et devient difficile à prédire
|
||
|
||
|
||
|
||
Kurzweil est un enfant surdoué, Il est chercheur principal et visionnaire de l'IA chez Google, où il étudie les implications à long terme de la technologie et de la société.
|
||
souligne essentiellement que la puissance de calcul augmente de manière exponentielle, c'est-à-dire qu'elle double environ tous les 2 ans depuis 1970 conformément à la loi de Moore sur le nombre de transistors, et qu'elle continuera à le faire pendant un certain temps. Il a prédit dans (Kurzweil 1999) qu'en 2010, les superordinateurs atteindraient la capacité de calcul humaine, qu'en 2030, le téléchargement de l'esprit serait possible et qu'en 2045, la singularité se produirait.
|
||
\cite{kurzweil2005singularity}
|
||
Deux études on été faites dans le cadre du projet \textit{One Hundred Year Study on Artificial Intelligence} de l'Université de Stanford.
|
||
|
||
|
||
Livre structuré en trois parties dont la première intitule \textit{Le programme de longévité de Ray et Terry} Emportez-en avec vous. Apportez des sachets de stévia lorsque vous mangez à l'extérieur.
|
||
Vous pouvez préparer une vinaigrette à faible teneur en glucides et en matières grasses en combinant la stévia avec du jus de citron et/ou du vinaigre balsamique.
|
||
*Mangez des légumes pauvres en amidon à volonté. Nous vous suggérons de manger une grande variété de légumes de toutes les couleurs possibles. Le guide est disponible online\footnote{https://fantastic-voyage.net/ShortGuide.htm}
|
||
Une suite à son bestseller de 2005\cite{kurzweil2005singularity} est prévue apparaitre en été 2024\footnote{https://www.economist.com/by-invitation/2024/06/17/ray-kurzweil-on-how-ai-will-transform-the-physical-world} sous le titre \textit{The Singularity Is Nearer: When We Merge with AI}
|
||
|
||
La suite se concentrant sur les avancés et biotechnologies nanotechnologies dues à l'IA, dans une perspective pragmatique et sans aucune considération éthique.
|
||
Son expérience personnelle avec le diabète l'a amené à s’investir dans des recherches sur le metabolisme et le corps
|
||
|
||
Le premier, en 2016
|
||
Pour le grand public,
|
||
il vise à fournir une représentation accessible, scientifiquement et technologiquement précise
|
||
de l’état actuel de l’IA et de son potentiel. Pour l'industrie, le rapport décrit les
|
||
technologies et les défis juridiques et éthiques, et peuvent aider à orienter l’allocation des ressources.
|
||
Le rapport s'adresse également aux gouvernements locaux, nationaux et internationaux pour les aider
|
||
qu'ils planifient mieux l'IA dans la gouvernance. Enfin, le rapport peut aider les chercheurs en IA,
|
||
ainsi que leurs institutions et bailleurs de fonds, pour fixer des priorités et prendre en compte les aspects éthiques et
|
||
enjeux juridiques soulevés par la recherche sur l’IA et ses applications
|
||
e plus important : le transport ; robots de service ; soins de santé; éducation; à faibles ressources
|
||
les communautés ; la sûreté et la sécurité publiques ; emploi et lieu de travail; et du divertissement.
|
||
Dans chacun de ces domaines, le rapport reflète à la fois les progrès réalisés au cours des quinze dernières années
|
||
et anticipe les évolutions dans les quinze années à venir.
|
||
t Influences et défis de l’IA,
|
||
comme la difficulté de créer du matériel sûr et fiable (transport et service
|
||
robots), la difficulté d’interagir en douceur avec des experts humains (soins de santé et
|
||
éducation), le défi de gagner la confiance du public (communautés à faibles ressources et
|
||
sûreté et sécurité), le défi de surmonter les craintes de marginalisation des humains
|
||
(emploi et lieu de travail), et le risque social et sociétal de diminution des relations interpersonnelles
|
||
interactions (divertissement).
|
||
|
||
Contrairement aux prédictions plus fantastiques de la presse populaire concernant l'IA, le panel d'étude n'a trouvé aucune raison de s'inquiéter du fait que l'IA constitue une menace imminente pour l'humanité. Aucune machine dotée d'objectifs et d'intentions autonomes à long terme n'a été développée, et il est peu probable qu'elles le soient dans un avenir proche. En revanche, des applications de plus en plus utiles de l'IA, avec des impacts potentiellement profonds et positifs sur notre société et notre économie, sont susceptibles d'émerger d'ici 2030, période considérée dans ce rapport. En même temps, bon nombre de ces développements provoqueront des perturbations dans la manière dont le travail humain est augmenté ou remplacé par l'IA, créant de nouveaux défis pour l'économie et la société en général. Des augmentations substantielles des utilisations futures des applications de l'IA, y compris plus de voitures autonomes, des diagnostics de soins de santé et des traitements ciblés, ainsi que l'assistance physique pour les soins aux personnes âgées, peuvent être attendues.
|
||
|
||
\begin{quote}
|
||
Society is now at a crucial juncture in determining how to deploy AI-based technologies in ways that
|
||
promote rather than hinder democratic values such as freedom, equality, and transparency.(...)The field of AI is shifting toward building intelligent systems that can collaborate effectively with people, including creative
|
||
ways to develop interactive and scalable ways for people to teach robots.
|
||
\cite{rap 2016}
|
||
\end{quote}
|
||
et qui sont plus généralement conscients de l'humain,
|
||
y compris des moyens créatifs pour développer des moyens interactifs et évolutifs permettant aux gens de
|
||
enseigner aux robots. Ces tendances déterminent les domaines actuellement chauds de la recherche sur l’IA, à la fois
|
||
méthodes fondamentales et domaines d’application :
|
||
L’apprentissage automatique à grande échelle concerne la conception d’algorithmes d’apprentissage, ainsi que
|
||
ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux.
|
||
L'apprentissage profond, une classe de procédures d'apprentissage, a facilité la reconnaissance d'objets
|
||
dans les images, l'étiquetage vidéo et la reconnaissance d'activités, et fait des percées significatives dans
|
||
d'autres domaines de perception, tels que le traitement de l'audio, de la parole et du langage naturel.
|
||
L'apprentissage par renforcement est un cadre qui déplace l'attention de la machine
|
||
apprendre de la reconnaissance de formes à la prise de décision séquentielle basée sur l’expérience.
|
||
Il promet de faire progresser les applications d’IA vers des actions dans le monde réel.
|
||
Bien qu'en grande partie confiné au monde universitaire au cours des dernières décennies, il apparaît désormais
|
||
quelques réussites pratiques et concrètes.
|
||
La robotique s'intéresse actuellement à la manière d'entraîner un robot à interagir avec le
|
||
monde qui l'entoure de manière généralisable et prévisible, comment faciliter la manipulation
|
||
des objets dans des environnements interactifs et comment interagir avec les gens. Progrès en
|
||
la robotique s'appuiera sur des progrès proportionnés pour améliorer la fiabilité et la généralité
|
||
de vision par ordinateur et d’autres formes de perception machine.
|
||
La vision par ordinateur est actuellement la forme de perception artificielle la plus répandue.
|
||
Il s’agit du sous-domaine de l’IA le plus transformé par l’essor du deep learning. Pour le
|
||
Pour la première fois, les ordinateurs sont capables d’effectuer certaines tâches visuelles mieux que les humains. Beaucoup
|
||
les recherches actuelles se concentrent sur le sous-titrage automatique des images et des vidéos.
|
||
Le traitement du langage naturel, souvent couplé à la reconnaissance vocale automatique,
|
||
devient rapidement un produit pour les langues largement parlées avec de grands ensembles de données.
|
||
La recherche s'oriente désormais vers le développement de systèmes raffinés et performants, capables de
|
||
interagir avec les gens par le biais du dialogue, et pas seulement réagir à des demandes stylisées. De grands progrès
|
||
ont également été réalisés en traduction automatique entre différentes langues, avec plus
|
||
des échanges de personne à personne en temps réel à l'horizon proche.
|
||
La recherche collaborative sur les systèmes étudie des modèles et des algorithmes pour aider à développer
|
||
des systèmes autonomes capables de travailler en collaboration avec d’autres systèmes et avec des humains.
|
||
La recherche sur le crowdsourcing et le calcul humain étudie les méthodes permettant de
|
||
augmenter les systèmes informatiques en faisant appel automatiquement à l'expertise humaine pour résoudre
|
||
des problèmes que les ordinateurs seuls ne peuvent pas résoudre correctement.
|
||
|
||
Les transports, où quelques technologies clés ont catalysé
|
||
l’adoption généralisée de l’IA à une vitesse étonnante. Transport autonome
|
||
sera bientôt monnaie courante et, comme la première expérience physique de la plupart des gens
|
||
Les systèmes d’IA incarnés influenceront fortement la perception du public à l’égard de l’IA. Comme les voitures
|
||
deviendront de meilleurs conducteurs que les humains, les citadins posséderont moins de voitures, vivront plus loin des
|
||
travailler et passer du temps différemment, ce qui conduit à une toute nouvelle organisation urbaine. Dans
|
||
la ville nord-américaine typique en 2030, les applications d'IA physiquement incarnées
|
||
ne se limite pas aux voitures, mais inclut probablement les camions, les véhicules volants et les véhicules personnels.
|
||
des robots. Les améliorations apportées au matériel sûr et fiable stimuleront l'innovation au cours des années à venir.
|
||
quinze ans, comme ils le feront avec les Robots Home/Service, qui sont déjà entrés
|
||
maisons des gens, principalement sous la forme d’aspirateurs. De meilleures puces, une 3D à faible coût
|
||
les capteurs, l'apprentissage automatique basé sur le cloud et les progrès dans la compréhension de la parole seront
|
||
améliorer les services des futurs robots et leurs interactions avec les humains. But spécial
|
||
les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité. Mais technique
|
||
les contraintes et les coûts élevés des dispositifs mécaniques fiables continueront de limiter
|
||
opportunités commerciales vers des applications étroitement définies dans un avenir prévisible.
|
||
Publié le 1er septembre 2016, le premier rapport a été
|
||
largement couvert dans la presse populaire et est connu pour avoir
|
||
influencé les discussions au sein des conseils consultatifs gouvernementaux
|
||
et des ateliers dans plusieurs pays. Il a également été utilisé
|
||
dans une variété de programmes d’études en intelligence artificielle
|
||
|
||
|
||
Le deuxieme en 2021
|
||
L'UE a été particulièrement active dans le domaine concret
|
||
règlement, y compris le Règlement Général sur la Protection des Données
|
||
Règlement (RGPD), qui comprend une certaine réglementation de
|
||
les systèmes de décision automatisés et le Cadre d’éthique
|
||
Aspects de la robotique IA et des technologies associées, qui
|
||
propose la création d'organismes nationaux de contrôle et
|
||
la désignation de technologies à haut risque
|
||
Étude de cas : Létal Autonome
|
||
Armes
|
||
\begin{quote}
|
||
La nature de la conscience reste une question ouverte. Certains voient des progrès ; d'autres croient que nous n'avons pas avancé dans la compréhension de la manière de créer un agent conscient depuis 46 ans, lorsque le philosophe Thomas Nagel a posé la fameuse question : Quelle est la sensation d'être une chauve-souris ?. Il n'est même pas clair que comprendre la conscience soit nécessaire pour comprendre l'intelligence humaine. La question est devenue moins pressante à cette fin alors que nous commençons à reconnaître les limites du traitement de l'information consciente dans la cognition humaine, et que nos modèles sont de plus en plus basés sur des processus émergents plutôt que sur une conception centrale. Les modèles cognitifs motivent une analyse de la manière dont les gens intègrent des informations provenant de multiples modalités, de multiples sens et de multiples sources : notre cerveau, notre corps physique, les objets physiques (stylo, papier, ordinateurs) et les entités sociales (d'autres personnes, Wikipédia). Bien qu'il y ait maintenant beaucoup de preuves que c'est la capacité à réaliser cette intégration qui soutient les réalisations les plus remarquables de l'humanité, comment nous y parvenons reste en grande partie mystérieux. De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{The nature of consciousness remains an open question. Some see progress; others believe we are no further along in understanding how to build a conscious agent than we were 46 years ago, when the philosopher Thomas Nagel famously posed the question, “What is it like to be a bat?” It is not even clear that understanding consciousness is necessary for understanding human intelligence. The question has become less pressing for this purpose as we have begun to recognize the limits of conscious information processing in human cognition, and as our models become increasingly based on emergent processes instead of central design. Cognitive models motivate an analysis of how people integrate information from multiple modalities, multiple senses, and multiple sources: our brains, our physical bodies, physical objects (pen, paper, computers), and social entities (other people, Wikipedia). Although there
|
||
is now a lot of evidence that it is the ability to do this integration that supports humanity’s more remarkable
|
||
achievements, how we do so remains largely mysterious. Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly
|
||
judge as intelligent}.
|
||
|
||
|
||
Technological determinism is the false claim that new technologies such as AI shape society independently of human
|
||
choices and values, in a manner that humans are helpless to control, alter or steer
|
||
|
||
As with any emerging technology—and especially one so diverse in its applications as AI—effective experimentation
|
||
and testing can meaningfully support more effective governance and policy design
|
||
\end{quote}
|
||
This increased mixing of academic and industrial
|
||
research has raised concerns about the impact of
|
||
|
||
Cette mixité accrue entre la recherche académique et industrielle a suscité des préoccupations concernant l'impact de
|
||
|
||
En septembre 2016, le projet One Hundred Year Study on Artificial Intelligence (AI100) de Stanford a publié le premier rapport de son évaluation périodique à long terme de l'intelligence artificielle (IA) et de son impact sur la société. Il a été rédigé par un panel de 17 auteurs, chacun étant profondément enraciné dans la recherche en IA, présidé par Peter Stone de l'Université du Texas à Austin. Le rapport, intitulé Artificial Intelligence and Life in 2030, examine huit domaines des environnements urbains typiques sur lesquels l'IA est susceptible d'avoir un impact dans les années à venir : les transports, les robots domestiques et de service, les soins de santé, l'éducation, la sécurité publique, les communautés à faibles ressources, l'emploi et le lieu de travail, ainsi que le divertissement. Il vise à fournir au grand public une représentation scientifiquement et technologiquement précise de l'état actuel de l'IA et de son potentiel, à aider à orienter les décisions dans l'industrie et les gouvernements, ainsi qu'à informer la recherche et le développement dans ce domaine. La mission de ce rapport a été confiée au panel par le Comité Permanent de l'AI100, présidé par Barbara Grosz de l'Université Harvard.
|
||
|
||
La critique du récit de la singularité a été soulevée sous divers angles. Kurzweil et Bostrom semblent supposer que l'intelligence est une propriété unidimensionnelle et que l'ensemble des agents intelligents est totalement ordonné au sens mathématique, mais aucun des deux ne discute de l'intelligence en profondeur dans leurs livres. En général, il est juste de dire que, malgré quelques efforts, les hypothèses faites dans le puissant récit de la superintelligence et de la singularité n'ont pas été examinées en détail. Une question est de savoir si une telle singularité se produira jamais — elle peut être conceptuellement impossible, pratiquement impossible ou ne peut simplement pas se produire en raison d'événements contingents, y compris des personnes qui l'empêchent activement. Philosophiquement, la question intéressante est de savoir si la singularité n'est qu'un mythe Ganascia 2017, et non sur la trajectoire de la recherche en IA actuelle. C'est une hypothèse souvent faite par les praticiens (par exemple, Brooks 2017). Ils peuvent le faire parce qu'ils craignent les répercussions en termes de relations publiques, parce qu'ils surestiment les problèmes pratiques, ou parce qu'ils ont de bonnes raisons de penser que la superintelligence est un résultat improbable de la recherche actuelle en IA (Müller à paraître-a). Cette discussion soulève la question de savoir si la préoccupation concernant la singularité n'est qu'un récit sur une IA fictive basée sur les peurs humaines.
|
||
C'est la frontière entre la recherche universitaire et industrielle en IA
|
||
s'estompe, d'autres questions sociales et éthiques apparaissent au premier plan.
|
||
Les chercheurs universitaires et industriels peuvent avoir des opinions différentes
|
||
perspectives sur – et donc adopter des approches différentes –
|
||
de nombreux défis sociotechniques qui peuvent être au moins partiellement
|
||
résolu par des solutions techniques, telles que le biais dans la machine-
|
||
modèles appris, équité dans les algorithmes de prise de décision de l'IA,
|
||
la confidentialité dans la collecte de données et l’émergence de la polarisation
|
||
ou des bulles de filtrage dans la consommation des médias sociaux
|
||
plusieurs études récentes ont montré que
|
||
Les équipes d’IA humaine ne surpassent souvent pas actuellement l’IA.
|
||
uniquement des équipes.204 Il existe néanmoins un nombre croissant de travaux sur
|
||
méthodes pour créer une collaboration homme-IA plus efficace
|
||
|
||
Parmi les dangers le plus pressants ils ont identifié:
|
||
Techno-solutionnisme
|
||
L’un des dangers les plus urgents de l’IA est la technologie.
|
||
le solutionnisme, l’idée selon laquelle l’IA peut être considérée comme une panacée
|
||
quand ce n'est qu'un outil.
|
||
Les dangers de l’adoption d’une statistique
|
||
Perspective sur la justice
|
||
La prise de décision automatisée peut produire des résultats faussés
|
||
qui reproduisent et amplifient les préjugés existants. Un potentiel
|
||
Le danger est donc lorsque le public accepte les technologies dérivées de l’IA.
|
||
conclusions comme certitudes. Cette approche déterministe de
|
||
La prise de décision en matière d’IA peut avoir des conséquences désastreuses dans les deux cas
|
||
milieux criminels et de soins de santé. Approches basées sur l'IA
|
||
comme PredPol, logiciel développé à l'origine par le Los
|
||
Département de police d'Angeles et UCLA qui prétend
|
||
pour aider à protéger un citoyen américain sur 33,
|
||
|
||
|
||
\begin{quote}
|
||
New research efforts are aimed at re-conceptualizing the foundations of the field to make AI systems less reliant on explicit, and easily misspecified, objectives. A particularly visible danger is that AI can make it easier to build machines that can spy and even kill at scale.
|
||
\end{quote}
|
||
|
||
\begin{quote}
|
||
Nous utilisons souvent le terme déploiement pour désigner la mise en œuvre d'un système d'IA dans le monde réel. Cependant, le déploiement porte la connotation de l'implémentation d'un système technique plus ou moins prêt à l'emploi, sans tenir compte des besoins ou des conditions locales spécifiques. Les chercheurs ont décrit cette approche comme une implantation sans contexte. Les systèmes prédictifs les plus réussis ne sont pas implantés de cette manière, mais sont intégrés de manière réfléchie dans les environnements et les pratiques sociales et organisationnelles existants. Dès le départ, les praticiens de l'IA et les décideurs doivent prendre en compte les dynamiques organisationnelles existantes, les incitations professionnelles, les normes comportementales, les motivations économiques et les processus institutionnels qui détermineront comment un système est utilisé et perçu. Ces considérations deviennent encore plus importantes lorsque nous tentons de faire fonctionner des modèles prédictifs aussi bien dans différents territoires et contextes qui peuvent avoir des objectifs politiques et des défis de mise en œuvre différents. \footnote{We often use the term “deployment” to refer to the implementation of an AI system in the real world.
|
||
However, deployment carries the connotation of implementing a more or less ready-made technical system,
|
||
without regard for specific local needs or conditions. Researchers have described this approach as “context-less
|
||
dropping in.”295 The most successful predictive systems are not dropped in but are thoughtfully integrated
|
||
into existing social and organizational environments and practices. From the outset, AI practitioners and
|
||
decision-makers must consider the existing organizational dynamics, occupational incentives, behavioral norms,
|
||
economic motivations, and institutional processes that will determine how a system is used and responded to. These
|
||
considerations become even more important when we attempt to make predictive models function equally well
|
||
across different jurisdictions and contexts that may have different policy objectives and implementation challenges}
|
||
\end{quote}
|
||
|
||
\begin{quote}
|
||
Intégrer avec succès l'IA dans des contextes de prise de décision publique à fort enjeu nécessite un travail ardu, une compréhension approfondie et multidisciplinaire du problème et du contexte, la cultivation de relations significatives avec les praticiens et les communautés affectées, ainsi qu'une compréhension nuancée des limites des approches techniques. \footnote{Successfully integrating AI into high-stakes public decision-making contexts requires difficult
|
||
work, deep and multidisciplinary understanding of the problem and context, cultivation of meaningful relationships with practitioners and affected communities, and a nuanced understanding of the limitations of technical approaches.}
|
||
\end{quote}
|
||
|
||
Les refis pressants et opportunités dans l'utilisation de l'IA
|
||
Les systèmes autonomes ne doivent pas remplacer pas les soins humains
|
||
L'IA de service devrait être dirigée par les valeurs sociales et non par le marché
|
||
|
||
\begin{quote}
|
||
Il est désormais urgent de réfléchir sérieusement aux inconvénients et aux risques que révèle l'application généralisée de l'IA. La capacité croissante à automatiser les décisions à grande échelle est une arme à double tranchant ; des deepfakes intentionnels ou simplement des algorithmes incontrôlables faisant des recommandations cruciales peuvent conduire à ce que les gens soient induits en erreur, discriminés et même physiquement blessés. Les algorithmes entraînés sur des données historiques sont susceptibles de renforcer et même d'exacerber les biais et les inégalités existants. Alors que la recherche en IA a traditionnellement été du ressort des informaticiens et des chercheurs étudiant les processus cognitifs, il est devenu clair que tous les domaines de la recherche humaine, en particulier les sciences sociales, doivent être inclus dans une conversation plus large sur l'avenir du domaine. Minimiser les impacts négatifs sur la société et améliorer les aspects positifs nécessite plus que des solutions technologiques ponctuelles ; maintenir l'IA sur la voie des résultats positifs pertinents pour la société nécessite un engagement continu et une attention constante\footnote{It is now urgent to think seriously about the downsides
|
||
and risks that the broad application of AI is revealing. The increasing capacity to automate decisions at scale is a double-edged sword; intentional deepfakes or simply unaccountable algorithms making mission-critical recommendations can result in people being misled, discriminated against, and even physically harmed. Algorithms trained on historical data are disposed to reinforce and even exacerbate existing biases and inequalities. Whereas AI research has traditionally been the purview of computer scientists and researchers studying cognitive processes, it has become clear that all areas of human inquiry, especially the social sciences, need to be included in a broader conversation about the future of the field. Minimizing the negative impacts on society and enhancing the positive requires more than one-shot technological solutions; keeping AI on track for positive outcomes relevant to society requires ongoing engagement and continual attention.}
|
||
\end{quote}
|
||
|
||
Le déterminisme technologique est un courant de pensée par lequel on suppose que le changement technique est un facteur indépendant de la société. D'une part, le changement technique est autonome [...]. D'autre part, un changement technique provoque un changement social. Le déterminisme technologique est donc constitué autour de deux grandes idées :
|
||
|
||
La société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science ;
|
||
La technique influence la société.
|
||
|
||
André Leroi-Gourhan est l'un des grands représentants du courant déterministe, et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que
|
||
\begin{quote}le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon.
|
||
\cite{leroi1971evolution}
|
||
\end{quote}
|
||
Le déterminisme technologique est aujourd'hui fortement remis en cause par les avancées de la sociologie des techniques.
|
||
\begin{quote}
|
||
Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure qu’une machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. C’est possible, mais loin d’être garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don d’être créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. MAchines are amoral, and it is dangerous to assume otherwise.}
|
||
\cite{barrat2023our}
|
||
\end{quote}
|
||
Sur son blog, Rodney Brooks s'est engagé a faire des prédictions sur les avancées technologiques d'ici 2050 lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}
|
||
|
||
Il s'agit de ma sixième mise à jour annuelle sur la façon dont mes prédictions datées du 1er janvier 2018 concernant (1) les voitures autonomes, (2) la robotique, l'IA et l'apprentissage automatique, et (3) les voyages spatiaux humains, ont tenu le coup. J'ai alors promis de les revoir chaque année en début d'année jusqu'en 2050 (juste après mon 95e anniversaire), trente-deux ans au total. L’idée est de me tenir responsable de ces prédictions. Dans quelle mesure avais-je raison ou tort ?
|
||
|
||
Concernant les robots:
|
||
Un robot qui semble aussi intelligent, aussi attentif et aussi fidèle qu'un chien. not earlier than 2048
|
||
C’est bien plus difficile que la plupart des gens ne l’imaginent : beaucoup pensent que nous y sommes déjà ; Je dis que nous n'en sommes pas du tout là.
|
||
Un robot qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains. pas de son vivant
|
||
|
||
\cite{ganascia2017mythe}
|
||
Faut-il craindre l’intelligence artificielle ? Grande question, et d’abord parce qu’elle revient sans cesse, depuis les années 60 environ,
|
||
C’est d’ailleurs par un tableau de ces inquiétudes que Jean-Gabriel Ganascia ouvre son livre : c’est par exemple, Stephen Hawking, le célèbre physicien et cosmologiste britannique, qui lance un cri d’alarme en 2014 contre les technologies susceptibles de devenir incontrôlables, c’est Kevin Warwick, cybernéticien qui se fait connaître du grand public en 1998 lorsqu’il exhibe à la presse la puce de silicium pour montrer que l’on peut l’introduire sous la peau et transformer ainsi le corps en organisme cybernétique, ou c’est encore le chercheur belge, Hugo de Garis, qui va jusqu’à imaginer une guerre mondiale et fratricide entre cosmits , détenteurs d’une intelligence artificielle, et les terrans qui veulent conserver à tout prix l’homme à sa suprématie.
|
||
À l’aube du millénaire, Bill Joy, le cofondateur de la société Sun-Microsystem, prétendit sonner le tocsin en faisant paraître un article retentissant intitulé : \textit{Pourquoi le futur n’a pas besoin de nous ?} (2000)
|
||
\begin{quote}
|
||
À ce jour, quelle est au juste la gravité [du] danger qui pèse sur nous? [...] Le philosophe John Leslie, qui s'est penché sur la question, évalue le risque minimal d'extinction de l'espèce humaine à 30 \%. Ray Kurzweil, quant à lui, estime que \textit{notre chance de nous en sortir est supérieure à la moyenne}, en précisant au passage qu'on lui a \textit{toujours reproché d'être un optimiste}. [...] Face à de telles assertions, certains individus dignes de foi suggèrent tout simplement de se redéployer loin de la Terre, et cela dans les meilleurs délais. Nous coloniserions la galaxie au moyen des sondes spatiales de von Neumann, qui, bondissant d'un système stellaire à
|
||
l'autre, s'autoreproduisent en quittant les lieux. Franchir cette étape sera un impératif incontournable dans les cinq milliards d'années à venir [...] ; mais si l'on prend au mot Kurzweil et Moravec, cette migration pourrait se révéler nécessaire d'ici le milieu du siècle.
|
||
|
||
\cite{joy2001pourquoi}
|
||
\end{quote}
|
||
Avant et après lui, bien d’autres qui, comme lui, contribuèrent à la conception des technologies de l’information et bâtirent l’empire qu’elles ont aujourd’hui sur le monde, font maintenant mine de tinter le glas funèbre pour éveiller nos consciences assoupies… Même si, de l’un à l’autre, la chanson et l’air diffèrent quelque peu, le refrain demeure identique : nous courrons un grand risque avec le déploiement massif des technologies, car un précipice s’ouvre devant nous. Ce qui ici, dans la formulation de Bill Joy, retient notre attention tient à la référence explicite à un futur qui n’aurait pas, voire plus, besoin de nous. Cette invocation du futur fait écho à d’autres, par exemple au titre de l’ouvrage de Moravec The Future of Robot and Human Intelligence ou aux noms de deux instituts de prospective très engagés, l’Institut du futur de la vie8, qui fit paraître en janvier 2015 une lettre ouverte signée des spécialistes d’intelligence artificielle inquiets des conséquences du développement de leur discipline, et l’Institut sur le futur de l’humanité d’Oxford7 dont le seul intitulé suffit à indiquer les orientations transhumanistes.
|
||
Le futur n’aurait – ou n’aura – plus besoin de nous ! Prise au pied de la lettre, et sans même en discuter la cause, l’affirmation déroute : de quel futur parle-t-on …
|
||
Critique des proche d’eugénisme
|
||
Retrace l'apparition du terme de \textit{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant des propos de John von Neumann dans ses équations mathématiques.
|
||
puis Isaac Asimov qui dans son nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs
|
||
ais Jean-Gabriel Ganascia s’attache à démontrer que :1) Le terme même d’IA est abusivement utilisé par les promoteurs de la singularité et que les capacités des ordinateurs, aussi impressionnantes soient-elles, ne peuvent par principe leur conférer ces pouvoirs espérés ou redoutés.2) Loin d’être neuve, la perspective de la singularité recycle de vieilles idéologies gnostiques et millénaristes, rénovées par un habillage technofuturiste, tout en étant sous-tendue par les stratégies de communication mercantiles des multinationales de l’informatique.Voici un essai critique et concis sur ce thème à grand retentissement public par l’un des meilleurs experts des humanités numériques.
|
||
les prophéties à propos de la Singularité reposent sur une extrapolation infondée de la loi de Moore, une épistémologie aporétique (à la fois matérialiste et dualiste dans ses prémisses) et, plus encore, sur un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique.
|
||
une perspective transhumaniste ou catastrophiste (non éclairée et dystopique), lesquelles versions se sont substituées au fil du temps au premier (concept
|
||
|
||
La quesion de l'ethique des machines a été abordé dés 2006\cite{anderson2007machine}
|
||
\cite{nath2020problem}
|
||
L’IA ou l’éthique des machines s’intéresse au comportement des machines envers les utilisateurs humains et peut-être aussi à d’autres machines, ainsi qu’à l’éthique de ces interactions. Le but ultime de l’éthique des machines, selon les scientifiques de l’IA, est de créer une machine qui elle-même suit un principe éthique idéal ou un ensemble de principes ; c'est-à-dire qu'il est guidé par ce ou ces principes dans les décisions qu'il prend sur les lignes d'action possibles qu'il pourrait prendre.
|
||
Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisions et des actions volontaires. La notion d’esprit est au cœur de notre pensée éthique, et cela est dû au fait que l’esprit humain est conscient de lui-même, et c’est une propriété qui manque encore aux machines.
|
||
|
||
|
||
\begin{figure}
|
||
\centering
|
||
\includegraphics[width=0.7\linewidth]{images/AIforhumanity}
|
||
\caption{Source: \cite{ma2024ai}}
|
||
\label{fig:aiforhumanity}
|
||
\end{figure}
|
||
|
||
|
||
\cite{hunyadi2019artificial}
|
||
Comment pouvons-nous de manière plausible qualifier les robots d’agents moraux artificiels ? Compte tenu de la classification utile du philosophe du domaine de l’intelligence artificielle James H. Moor, qui a identifié quatre types différents d’éthique, je soutiendrai que le terme d’agent moral artificiel est philosophiquement illégitime. Mon argumentation se développe en trois étapes : la première étape porte sur le choix même des principes éthiques à programmer dans la machine ; la deuxième étape explore les difficultés inhérentes à donner à ces principes une forme algorithmique ; et la troisième se concentre sur la difficulté suprême découlant de la nature même du raisonnement moral. Cette analyse vise à encourager la recherche sur les concepts de raisonnement et de jugement moral. En effet, une compréhension fine de ces notions devrait révéler toute l’étendue du problème des agents moraux artificiels ; Avant de pouvoir discuter de l'éthique des machines ou de l'éthique artificielle, nous devons, si nous voulons éviter la spéculation et l'idéologie, avoir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. .
|
||
|
||
\cite{correa2023worldwide} propose une synthèse de 200 études autour de la gouvernance de l’IA
|
||
La version synthétique de leur étude est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}
|
||
Après l’hiver de l’IA à la fin des années 80, la recherche sur l’IA a connu une croissance remarquable. Actuellement, de nombreux travaux sont en cours pour définir les valeurs et les idées qui devraient guider les avancées de l’IA. Un défi majeur réside toutefois dans l’établissement d’un consensus sur ces valeurs, compte tenu des perspectives diverses des différentes parties prenantes à travers le monde et de l’abstraction du discours normatif. Les chercheurs et les décideurs politiques ont besoin de meilleurs outils pour cataloguer et comparer les documents sur la gouvernance de l’IA du monde entier et pour identifier les points de divergence et de points communs.
|
||
|
||
\cite{anderson2022future} réfléchit à la question de l'interdisciplinarité : si l’éthique de l’IA devait devenir interdisciplinaire, le deviendra-t-elle compte tenu de l’histoire d’efforts similaires dans d’autres disciplines technologiques, et quelles tensions ou caractéristiques inhérentes à l’IA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie, pourrait-elle empêcher l'interdisciplinarité ? Je me concentrerai principalement sur la relation interdisciplinaire potentielle entre le développement de l’IA et l’éthique en tant que philosophie, mais je m’égarerai également quelque peu dans d’autres disciplines. Je conclurai en proposant quelques réflexions sur ce qu'il faut peut-être pour intégrer l'éthique dans l'engagement interdisciplinaire avec le développement technologique, par ex. le philosophe devra acquérir des connaissances techniques proportionnellement au développeur technologique qui apprendra des connaissances éthiques.
|
||
|
||
\cite{brooks2001relationship}
|
||
Appelons cela l'hypothèse du nouveau truc l'hypothèse selon laquelle il pourrait y avoir une sorte de truc supplémentaire dans les systèmes vivants qui échappe à notre compréhension scientifique actuelle. Roger Penrose, par exemple, a déjà émis l'hypothèse d'une forme faible de nouveau truc comme explication de la conscience. Il suggère que les effets quantiques dans les microtubules des cellules nerveuses pourraient être le lieu de la conscience au niveau de la cellule individuelle, qui se combine en fonctions d'onde plus grandes au niveau de l'organisme. Penrose n'a pas élaboré une théorie réelle de la manière dont cela pourrait fonctionner. Il a plutôt suggéré que cela pourrait être un élément critique qui devra être intégré dans une compréhension finale. C'est une forme faible de nouveau truc car elle ne repose sur rien en dehors du domaine de la physique actuelle. Pour certains, cela peut avoir un certain attrait en ce qu'il unifie une grande découverte en physique avec une grande question en biologie — la nature de la conscience. David Chalmers a hypothéqué une forme plus forte de nouveau truc comme explication alternative pour la conscience. Il suggère qu'un type fondamentalement nouveau, de l'ordre d'importance du spin ou du charme en physique des particules, pourrait être nécessaire pour expliquer la conscience. Ce serait une nouvelle sorte de propriété physique des choses dans l'Univers, soumise à des lois physiques que nous ne comprenons pas encore. D'autres philosophes, tant naturels que religieux, pourraient hypothéquer une entité plus ineffable comme une âme ou un élan vital — la force vitale. Une autre façon dont cette découverte inimaginable pourrait se produire est par le biais des nouvelles mathématiques. Cela ne nécessiterait pas la présence de nouvelles physiques dans les systèmes vivants.
|
||
|
||
Le Touring passé en 2014 par un chatbot qui se faisait passer par un garçon de 13 ans d'Ukraine. Hilary W. Putnam, l’hypothèse du cerveau dans la cuve (1981). Supposons qu’un cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il n’a pas d’expérience sensorielle du monde et il n’a jamais interagi avec les choses. Pour celui qui n’a pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
|
||
|
||
\cite{dumouchel2016vivre} les enjeux de la robotique sociale, la question de l'autonomie et des manifestations affectives trompeuses des agents artificiels
|
||
la dynamique des échanges affectifs résultat de nos intentions d'action les émotions deviennent des moments saillants des mécanismes de coordination
|
||
processus dynamique d’interactions qui détermine comment ils sont disposés à l’égard de leurs partenaires humains et l'inverse
|
||
les substitues mystification qui abusent de notre naïveté
|
||
chapitre 5, statut d'animaux sauvages
|
||
|
||
\cite{torrance2008ethics}
|
||
les agents artificiels manquent de certaines propriétés clés des organismes biologiques,
|
||
Le point de vue organique soutient également que la sensibilité et la téléologie nécessitent des formes d'auto-organisation et d'auto-entretien autonomes fondées sur la biologie.
|
||
Une distinction forte doit être établie entre les propriétés cognitives et phénoménologiques de l'esprit. Il est avancé que la mentalité n'est peut-être pas un domaine composite : certains types de propriétés mentales peuvent être informatiques, tandis que d'autres peuvent nécessiter une base intrinsèquement biologique.
|
||
\begin{quote}
|
||
La notion de sensibilité doit être distinguée de celle de la conscience de soi : de nombreux êtres qui possèdent la première peuvent ne pas posséder la seconde. On peut soutenir que de nombreux mammifères possèdent la sensibilité, ou la conscience phénoménale — ils sont capables de ressentir la douleur, la peur, le plaisir sensuel, etc. Néanmoins, il est généralement admis que ces mammifères ne possèdent pas couramment la capacité d'articuler ou d'être conscients, d'une manière de second ordre, de ces états sensibles, et manquent donc de conscience de soi\footnote{The notion of sentience should be distinguished from that of self-consciousness: many beings, which possess the former may not possess the latter. Arguably, many mammals possess sentience, or phenomenal consciousness—they are capable of feeling pain, fear, sensuous pleasure and so on. Nevertheless it is usually taken that such mammals do not standardly possess the ability to articulate or be aware, in a higher-order way, of such sentient states, and so lack self-consciousness.}
|
||
\cite{torrance2008ethics}
|
||
\end{quote}
|
||
|
||
\cite{wallach2020consciousness}
|
||
Quels rôles ou fonctions la conscience remplit-elle dans la prise de décisions morales ? Les agents artificiels capables de prendre des décisions appropriées dans des situations moralement chargées nécessiteront-ils une conscience machine ? La capacité de prendre des décisions morales doit-elle être considérée comme une caractéristique essentielle pour être désigné comme un agent pleinement conscient ? La recherche sur les perspectives de développement des machines capables de prendre des décisions morales et la recherche sur la conscience machine se sont développées en tant que domaines d'enquête indépendants. Pourtant, il existe un chevauchement significatif. Les deux domaines sont susceptibles de progresser grâce à l'instanciation de systèmes dotés d'intelligence artificielle générale (IAG). Certainement, des classes particulières de prise de décisions morales nécessiteront des attributs de conscience tels que la capacité à empathiser avec la douleur et la souffrance des autres. Mais dans cet article, nous proposerons que la conscience joue également un rôle fonctionnel dans la prise de la plupart, sinon de toutes, des décisions morales. Le travail des auteurs de cet article avec LIDA, un modèle computationnel et conceptuel de la cognition humaine, aidera à illustrer comment la conscience peut être comprise comme jouant un rôle très large dans la prise de toutes les décisions, y compris les décisions morales.
|
||
|
||
\cite{dodig2012robots}
|
||
est que la moralité artificielle doit venir par degrés et dépendre du niveau d’action, d’autonomie et d’intelligence de la machine.
|
||
Des systèmes tels que les robots cognitifs sont en cours de développement et devraient faire partie de notre vie quotidienne dans les décennies à venir. Il faut donc s’assurer que leur comportement est adéquat. Par analogie avec l'intelligence artificielle, qui est la capacité d'une machine à effectuer des activités qui nécessiteraient de l'intelligence chez les humains, la moralité artificielle est considérée comme la capacité d'une machine à effectuer des activités qui nécessiteraient de la moralité chez les humains. La capacité de moralité artificielle (artificielle), telle que l’action artificielle, la responsabilité artificielle, les intentions artificielles, les émotions artificielles (synthétiques), etc., se manifeste à des degrés divers et dépend du type d’agent.
|
||
surveillance biquiteuse, (2) ingénierie sociale, (3) robots militaires, (4) robots sexuels et (5) transhumanisme. À l’exception partielle du transhumanisme, tous ces domaines d’interaction entre l’IA et les services robotiques présentent déjà des problèmes éthiques dans la pratique. Mais ces cinq domaines soulèveront des préoccupations supplémentaires à l’avenir à mesure que ces technologies se développeront. Ces problèmes ont de graves conséquences et il est impératif de les étudier et de les résoudre dès maintenant.
|
||
|
||
\cite{zawieska2020disengagement}
|
||
Au cours des deux dernières décennies, les défis éthiques liés aux technologies robotiques ont suscité un intérêt croissant parmi différentes communautés de recherche et non universitaires, en particulier dans le domaine de la robotique. Même si les raisons d’aborder la robotéthique sont claires, il faut mieux comprendre pourquoi ne pas s’engager dans la question de l’éthique. Cet article se concentre sur un engagement limité ou absent envers l'éthique qui a lieu au sein de certaines parties de la communauté robotique et ses implications pour la conceptualisation de l'être humain. L’hypothèse sous-jacente est que le terme éthique signifie essentiellement humain. Ainsi, cet article discute une hypothèse de travail selon laquelle, en évitant de s’engager dans la robotique, les roboticiens contribuent au processus tacite de déshumanisation émergeant dans et en dehors de la robotique. Une approche alternative inclut l’éthique vécue , qui implique non seulement d’incorporer des approches éthiques formelles dans le travail des roboticiens, mais également d’ être éthique et de s’engager réellement dans une réflexion et une pratique éthiques.
|
||
|
||
\cite{fleres2023integrative}
|
||
La racine du débat éthique sur la robotique trouve son origine dans le premier symposium international de robotique, organisé à Sanremo par le roboticien Gianmarco Veruggio en 2004.
|
||
En 2006, la première feuille de route de la robotique a été publiée.
|
||
Ce document a rassemblé toutes les réalisations atteintes au sein du Projet Atelier de Roboéthique fondé par EURON, parmi lesquels : (a) une définition de la robot-éthique qui mel’accent sur mesure la différence entre l'éthique des robots, à savoir une branche d’éthique se concentrant sur les robots en tant qu’agents éthiques – et les robots l'éthique, c'est-à-dire une branche de l'éthique axée sur les humains en tant que
|
||
agents construisant et utilisant des robots ; (b) la transdisciplinarité nature de la robot-éthique et une liste de toutes les disciplines impliquées. lignes; (c) un ensemble de principes éthiques pertinents pour la robotique,
|
||
basé sur des principes éthiques issus de la bioéthique et des principes fondamentaux droits humains; (d) l’individuation des principaux enjeux éthiques. cernes liés aux différents domaines de la robotique. En 2014, un
|
||
|
||
Une nouvelle étape dans le développement de la robotéthique a été marquée par les lignes directrices sur la régulation de la robotique
|
||
|
||
Cet article propose une approche intégrative de la recherche en robotique, basée sur l'introduction de l'interdisciplinarité en laboratoire. Une telle approche permettra aux chercheurs de divers domaines d’acquérir une compréhension plus nuancée de la technologie, de la manière dont elle est développée et de ses impacts potentiels. Nous décrivons comment un philosophe a passé du temps dans des laboratoires de robotique de différents pays européens au sein d'une équipe interdisciplinaire, obtenant ainsi un aperçu de leurs travaux et de leurs perspectives, notamment de la façon dont les chercheurs en robotique perçoivent les questions éthiques liées à la recherche en robotique. En nous concentrant sur les questions soulevées par la motion du Parlement européen sur la robotique, nous avons développé un séminaire et un questionnaire qui ont étudié les questions d'éthique, de personnalité électronique et le rôle de la politique dans l'éthique de la recherche. Nos résultats soulignent que même si les chercheurs en robotique se soucient des implications éthiques de leurs travaux et soutiennent les politiques qui répondent aux préoccupations éthiques, ils estiment qu'il existe d'importants malentendus dans la façon dont les décideurs politiques perçoivent la robotique et l'IA, ainsi qu'un manque de compréhension et de confiance. dans, le rôle que les experts extérieurs à la robotique peuvent jouer dans la réglementation efficace de la recherche en robotique. Nous proposons qu'une approche intégrative puisse dissiper ces malentendus en démystifiant la manière dont les connaissances sont créées dans différents domaines.
|
||
scénario appelle à l’intervention d’une enquête éthique
|
||
assurer la durabilité sociale de la robotique . Additionner
|
||
Au niveau national, il stimule la recherche éthique sur les robots pour s'engager dans un processus de réflexion visant à dépasser les limites et lacunes qui caractérisent ses expressions actuelles. Basé sur pré-
|
||
explorations précédentes, les principales insuffisances affecter l’enquête éthique contemporaine sur les robots peut être
|
||
schématiquement répertoriés comme suit manque d’intégration disciplinaire efficace. Sur celui
|
||
d’autre part, des chercheurs issus de disciplines traditionnellement
|
||
préoccupé par les questions éthiques, de la philosophie et d'autres
|
||
des sciences humaines aux disciplines des sciences sociales, ne sont pas nécessairement
|
||
manquent souvent d’expertise en matière d’éthique.
|
||
|
||
Absence d’un corpus interdisciplinaire de connaissances sur
|
||
l’innovation et la transformation générées par les robots
|
||
au niveau sociétal. Actuellement, l'ensemble des connaissances
|
||
disponibles sur les robots ont tendance à se concentrer sur les aspects techniques.
|
||
Explorations des processus de production, intégration et l’impact social des robots qui considèrent leur
|
||
dimensions multiples (par exemple, anthropologique, psychologique)
|
||
cal, socioculturel, politique, ontologique, épistémologique
|
||
dimensions), ainsi que leurs interconnexions, sont encore en
|
||
leurs premiers balbutiements et il n'existe pas encore d'approche convenue pour
|
||
mener une enquête éthique.
|
||
|
||
Déterminisme technologique .
|
||
souvent, le débat éthique tend à considérer notre société
|
||
contextes en tant qu’objets passifs d’actions transformatrices exercées
|
||
cisé par les robots, et ne détecte pas la dynamique des
|
||
détermination mutuelle entre société et robotique dans
|
||
auquel s’inscrit le développement des robots
|
||
|
||
Une résistance à la création de nouveautés éthiques.
|
||
Il existe une tendance diffuse à résoudre les problèmes émergents
|
||
de robot-éthique, certainement nouvelle, avec des principes éthiques préexistants
|
||
approches, développées pour aborder des questions ethniques complètement différentes.
|
||
questions iques. Le recours intensif à des principes éthiques en est un bon exemple.
|
||
cadres développés dans le domaine de la bioéthique pour aborder
|
||
questions éthiques liées à la robotique.
|
||
|
||
La stagnation du débat éthique, qui apparaît souvent
|
||
polarisée dans l’alternative stérile entre techno-enthousiasme et technophobie utopie technologique
|
||
anisme et pressentiment dystopique
|
||
|
||
|
||
\section*{Conclusion chapitre 1}
|
||
|
||
\section*{Ouverture}
|
||
|
||
|
||
\begin{quote}
|
||
``Déléguer de la conscience aux machines, signifie faire de la conscience une propriété objective, une propriété physique. Chercher cela parce que nous autres, membres tard-venus d’une civilisation occidentale qui déclare avoir vaincu ses origines mythiques, pensons vivre dans un monde fait uniquement d’objets physiques. À partir de là, tout ce qui paraît non physique ne peut être qu’une propriété ou un sous- produit de quelque objet physique. Mais au nom de quoi pense-t-on cela ? Au nom d’une hypostase tacite des objets de la connaissance scientifique et de la manipulation technologique.”
|
||
\cite{bitbol2018cp}
|
||
\end{quote}
|
||
Au delà de leur message artistique, ces performances aident à comprendre l'impact de la technologie numérique sur les interactions sociales. Selon Kozel, nous découvrons les autres à travers des systèmes informatiques interactifs.
|
||
|
||
\textit{La puissance de calcul que permet un réseau de 16 milliards de neurones corticaux dépasse notre imagination
|
||
actuelle. Ce réseau fluctue sans cesse d'une façon partiellement
|
||
autonome, créant ainsi un monde interne de représentations
|
||
subjectives. Même lorsqu'il est confronté à des entrées sensorielles strictement identiques, il ne réagit pas de la même manière en fonction de son humeur, de ses buts et de ses souvenirs. Le code neural varie également d'un cerveau à l'autre. Bien que nous partagions tous le même attirail de neurones codant pour la couleur, la forme ou le mouvement, les détails de leur organisation résultent d'un long développement qui sculpte différemment chacun de nos cerveaux, en amplifiant ou en éliminant certaines de nos synapses.\cite{dehaene2014odile}
|
||
}
|
||
|
||
\begin{quote}
|
||
``Consciousness emerges from the mastery of sensorimotor knowledge resulting from the interaction between agent and environment, with the view that the living body's homeostatic regulation is crucial to self and consciousness.”
|
||
\cite{ziemke2007embodied}
|
||
\end{quote}
|
||
|
||
\begin{quote}
|
||
``The body by mid century came to be visualisable from outside itself. But what it saw from this exterieur viewpoint was a picture or portrait of its own appearance.” \cite{foster2010choreographing}
|
||
\end{quote}
|
||
|