add ref on stengers
This commit is contained in:
parent
08b185005e
commit
23f14f9fdb
|
@ -1,4 +1,4 @@
|
|||
parallèle\chapter*{Conclusion Générale}
|
||||
dilatabilitésparallèle\chapter*{Conclusion Générale}
|
||||
\addcontentsline{toc}{chapter}{Conclusion Générale}
|
||||
|
||||
Au cours de ce projet de recherche et aussi de deux dernières années au LIRMM, j'ai travaillé en étroite collaboration avec des roboticiens, acquérant des informations précieuses sur les défis et les lignes directrices des recherches en l'IA quant à une possible émergence d'une forme de CA. Cela m'a également permis de construire un cadre humaniste qui considère les robots engagés dans des pratiques artistiques collaboratives, \textit{plus que} de simples outils. Bien que cette idée est un travail en cours, cela continue de façonner mes recherches et mes interrogations artistiques.
|
||||
|
@ -24,99 +24,31 @@ L’étude de Chatila présente une architecture d'apprentissage des capacités
|
|||
\end{quote}
|
||||
|
||||
|
||||
Dans son discours inaugural pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers
|
||||
Dans son discours inaugural, intitulé \textit{Plea for slow science}\cite{stengers2016another} pour la Chaire Willy Calewaert 2011-2012, la chercheuse Isabelle Stengers évoque le licenciement de la chercheuse Barbara Van Dyck. Cette dernière a expliqué et approuvé publiquement une action contre un champ de pommes de terre génétiquement modifiées à Wetteren. Stengers questionne la neutralité de la recherche universitaire, en proposant une réflexion sur les possibilités de critique face à une définition dominante des faits. Elle défend le droit à une temporalité éloignée de toute logique capitaliste et insiste sur l'importance de se concentrer sur les possibilités futures, en s'imaginant les situations en termes de possibles. Stengers souligne la différence entre l'adhésion à une règle et la reconnaissance de son pouvoir, tout en cherchant des opportunités pour s'expérimenter en dehors de ses limites. Pour elle cela renvoie à un endroit atemporel où une autre science développe ses propres revendications:
|
||||
|
||||
\textit{Plea for slow science}\cite{stengers2016another} (2016), défend le droit à une temporalité éloignée de toute logique capitaliste dans la recherche fondamentale.
|
||||
fonction des critères d'évaluation actuels, ce qui est une situation déjà dénoncée par beaucoup. Cependant, l'auteur, en tant que philosophe, insiste sur l'importance de se concentrer sur les possibilités futures plutôt que sur les probabilités actuelles. Il explique que son rôle est de penser les situations en termes de possibles, même lorsqu'elles sont incertaines, et de ne pas simplement se soumettre à la situation actuelle, même pour la critiquer.
|
||||
|
||||
En prenant comme point d'appui le licenciement de la chercheuse Barbara Van Dyck par son université, pour avoir soutenu publiquement une action contre un champ de pommes de terre génétiquement modifiées à Wetteren, Stengers propose une réflexion sur les possibilités d'engagement imaginatif et de résistance à la définition dominante des faits, au lieu de se contenter de la dénoncer.
|
||||
|
||||
Cependant, se plaindre et décrire les tristes probabilités que la recherche universitaire sera redéfinie en fonction des critères utilisés pour l'évaluer n'ajouterait rien de pertinent à la situation. Ces probabilités sont ce que beaucoup d'entre nous savent déjà et dénoncent. Je considère que mon travail, en tant que philosophe, est d'activer le possible, et non de décrire le probable, c'est-à-dire de penser les situations avec et à travers leurs inconnues lorsque je peux les ressentir.
|
||||
|
||||
Et c'est le sentiment d'une telle inconnue qui a été activé par les répercussions parmi les chercheurs de l'événement qui s'est produit à Louvain le trois juin de cette année, lorsque Barbara Van Dyck a été licenciée par son université pour avoir publiquement expliqué et approuvé l'action contre un champ de pommes de terre génétiquement modifiées à Wetteren. Une inconnue très ténue, certes, mais ce que j'appelle inconnue concerne toujours la possibilité, non la probabilité, ce qui appelle un engagement imaginatif plutôt que la soumission à la définition donnée d'un état de fait, même si c'est pour le dénoncer.
|
||||
|
||||
L’histoire de la résistance contre les OGM concerne un droit – pas le droit d’arrêter les horloges,
|
||||
il n’y a pas d’horloges – mais un droit démocratique primordial, celui de penser l’avenir. Grâce à
|
||||
la désobéissance civile, la violence ultime contre la démocratie, celle du compte à rebours
|
||||
argument, a été contrecarré. Mais : même s'il a été contrecarré, il n'a pas été vaincu. Le
|
||||
Le limogeage de Barbara Van Dyck est en effet un signal fort.
|
||||
\begin{quote}
|
||||
Je me sens honteux devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: I feel ashamed before those young people entering university with the hope of
|
||||
getting a better understanding of the world we live in. We know that those who enter
|
||||
university today belong to the generation that will have to face a future the challenges of
|
||||
which we just cannot imagine… Can we claim that what we are proposing them meets, or
|
||||
even vaguely meets, this situation? Can we also claim that we deserve the trust people still
|
||||
have in the role we, who are working at the university, and those we train, can play in this
|
||||
future? It is heard that our ways of life will have to change, and this certainly entails a change
|
||||
in the way we relate to our environment, social and ecological. Can we claim that such change
|
||||
does not also entail a change in the ways our academic knowledge relates to its environment?}?
|
||||
(...)
|
||||
|
||||
That is why I wish, ending this talk, to emphasize the difference
|
||||
between, on the one hand, adhering to a rule and, on the other, recognizing its power while
|
||||
looking for the opportunities to experiment outside its bounds, creating interstices where13
|
||||
another science could discover its own demands. To take just an example, a university may be
|
||||
free to define such reclaiming explorations of slowing down practices in terms of services to
|
||||
the community, which they are indeed, and recognize them as such. This would be a strong
|
||||
signal, indeed, that we are not a corporation, proudly obeying the ticking clocks of an
|
||||
unsustainable progress, but a community trying to give some meaning to the now consensual
|
||||
but often empty claim: the claim that we have to change our ways of behaving in this world.
|
||||
``Je ressens de la honte devant ces jeunes qui entrent à l'université avec l'espoir de mieux comprendre le monde dans lequel nous vivons. Nous savons que ceux qui entrent à l'université aujourd'hui appartiennent à la génération qui devra faire face à un avenir dont nous ne pouvons même pas imaginer les défis... Pouvons-nous prétendre que ce que nous leur proposons répond, même vaguement, à cette situation ? Pouvons-nous aussi prétendre que nous méritons la confiance que les gens ont encore dans le rôle que nous, qui travaillons à l'université, et ceux que nous formons, pouvons jouer dans cet avenir ? Il est entendu que nos modes de vie devront changer, et cela implique certainement un changement dans la manière dont nous nous rapportons à notre environnement, social et écologique. Pouvons-nous prétendre qu'un tel changement n'implique pas aussi un changement dans les façons dont notre savoir académique se rapporte à son environnement\footnote{en version originale: ``I feel ashamed before those young people entering university with the hope of getting a better understanding of the world we live in. We know that those who enter university today belong to the generation that will have to face a future the challenges of which we just cannot imagine… Can we claim that what we are proposing them meets, or even vaguely meets, this situation? Can we also claim that we deserve the trust people still have in the role we, who are working at the university, and those we train, can play in this future? It is heard that our ways of life will have to change, and this certainly entails a change in the way we relate to our environment, social and ecological. Can we claim that such change does not also entail a change in the ways our academic knowledge relates to its environment?”}?”
|
||||
\cite{stengers2016another}
|
||||
\end{quote}
|
||||
|
||||
moral équivalence in \cite{shaw2009looking}:
|
||||
les robots restent non-humains et incapables de
|
||||
résumer une position d'équivalence morale avec les humains
|
||||
la véracité morale des relations homme-robot, ce qui suggère que de telles relations
|
||||
risquer d’être psychologiquement appauvri d’un point de vue moral.
|
||||
spective, ou sont d’une inauthenticité déconcertante et donc
|
||||
donc moralement problématique.
|
||||
le statut ontologique du robot comme social ou sa capacité à s’engager
|
||||
dans un comportement véritablement social, doutant qu'ils puissent réellement interagir
|
||||
interpréter le monde qui les entoure en fonction de leur propre expérience.
|
||||
L’étude de Turkle a examiné l’interaction relationnelle entre les seniors et Paro (un bébé phoque du Groenland robotisé) et a découvert que Paro suscitait des sentiments d'admiration, d'amour comportement et curiosité, mais il a estimé que le sceau du robot soulevait des difficultés. culte des questions sur le type d'authenticité que nous exigeons de
|
||||
notre technologie. Voulons-nous que les robots disent des choses qu'ils ne pourrait-il pas vouloir dire ? Quels types de relations nous pensons qu'ils sont les plus appropriés pour nos enfants et nos aînés avoir avec les artefacts relationnels ?
|
||||
Les trois lois de la robotique d’Asimov suffiraient comme lignes directrices éthiques
|
||||
|
||||
|
||||
Selon\cite{nass1997computers}, les individus adoptent des comportements sociaux envers les technologies, même lorsque ces comportements sont totalement incohérents avec leurs croyances sur les machines. Pour mieux comprendre cet aspect culturel de la robotique, dans \cite{shaw2009looking} les chercheurs évoquent la question de l’équivalence morale entre humains et robots: ceux deniers étant non-humains, ils sont incapables d'avoir une position d'équivalence morale avec nous. Par son statut, un robot n'a pas une capacité à s’engager dans un comportement véritablement social, puisque cela signifie interagir et interpréter le monde en fonction d'une expérience propre. En analysant une interaction relationnelle entre des seniors et un bébé phoque robotisé appelé Paro, les chercheurs montrent comment Paro suscite des sentiments d'admiration et de curiosité, loin de l'authenticité propre aux relations humaines. Leurs observations nous invitent à mieux réfléchir aux types de relations que nous pensons appropriés entre des artefacts relationnels et des populations particulièrement vulnérables comme les personnes âgés ou malades. Ils proposent le cadre des trois lois de la robotique d’Asimov, comme prémisse pour des lignes directrices éthiques:
|
||||
\begin{quote}
|
||||
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles [69]. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species
|
||||
(affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual di-
|
||||
mension [69]. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new tech-
|
||||
nological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, compan-
|
||||
ions, and avatars.”}.”
|
||||
``Les robots imaginés comme une nouvelle espèce sociale magnifique (robots sociaux affectifs) supposent que les machines peuvent finalement exceller dans les dimensions morales aussi bien qu'intellectuelles. Par conséquent, nous avons besoin d'approches éthiques et de cadres qui dépassent la théorie morale classique et sont mieux à même de traiter des problèmes éthiques/moraux inattendus et encore non résolus liés à l'émergence de nouveaux sujets technologiques qui ne peuvent plus être facilement classés comme de simples outils mais peut-être comme de nouvelles espèces d'agents, de compagnons et d'avatars\footnote{en anglais: ``Robots imagined as a magnificent new social species (affective social robots) presumes that machines may ultimately exceed in the moral as well as the intellectual dimension. Therefore, we require ethical approaches and frames that move beyond classical moral theory and are better able to deal with unexpected, yet to be resolved, ethical/moral problems related to the emergence of new technological subjects that can no longer be easily classified asmere tools but perhaps as new species of agents, companions, and avatars.”}.”
|
||||
\cite{shaw2009looking}
|
||||
\end{quote}
|
||||
|
||||
\begin{quote}
|
||||
``Les individus adoptent des comportements sociaux envers les technologies même lorsque ces comportements sont totalement incohérents avec leurs croyances sur les machines\footnote{en angalis: ``individuals engage in social behavior towards technologies even when such behavior is entirely inconsistent with their beliefs about the machines.”}.”
|
||||
\cite{ass1997computers}
|
||||
\end{quote}
|
||||
Actuellement les machines dotées d'une véritable IA sont très coûteuses. Les seules personnes qui peuvent se permettre d'interagir avec, sont les grands entreprises internationales. Le nombre de personnes qui peuvent objectivement évaluer l'impact de ces technologies sur l'avenir étant très réduit, cela soulève des nombreux questions éthiques\cite{chowdhury2021ethics}. Pour illustres un exemple d'algorithme qui entraine un IA, les chercheurs illustre le cas d'un robot qui obtient une récompense pour préparer du thé. Pour atteindre son objectif, le robot va \textit{gagner} plein des récompenses. Cependant si lors de sa préparation, quelqu'un oublie une vase sur le trajet du robot, celui-ci va la renverser puisqu'il ne connait aucune instruction concernant cette vase. Ainsi pour un système d’IA avancé déployé dans le monde réel, il faut considérer le plus que possible, l’apprentissage de l'agent en lien avec son environnement.
|
||||
|
||||
according to \cite{chowdhury2021ethics}
|
||||
: (orienté vers l'humain) qui provoquent l'ethisques physiques et caractéristiques de l’IA (orientée machine) qui soulèvent des questions éthiques.
|
||||
des machines coûteuses, et les seules personnes qui peuvent se les permettre sont les grands
|
||||
entreprises internationales, ce qui signifie que de moins en moins de personnes peuvent réellement contrôler
|
||||
le destin de la technologie de l'IA,
|
||||
si vous donnez à l'agent une fonction de récompense consistant simplement à préparer le
|
||||
le thé, il fait plein dans l'arène des récompenses et s'il y a un vase sur le chemin, il va frapper
|
||||
car vous n'avez pas précisé ce qui vous importait (dans ce cas, le vase) ainsi que le
|
||||
mesures qui doivent être prises. Ce n'est pas dans la fonction de récompense, mais c'est ce qui vous tient à cœur.
|
||||
Une des hypothèses de la norme Renforcement
|
||||
Le paradigme d'apprentissage est qu'il existe une séparation entre l'agent et l'environnement,
|
||||
les actions de l’agent peuvent affecter l’environnement et l’environnement n’affecte que le
|
||||
agent en fournissant des observations et des récompenses. Mais dans un système d’IA avancé, c’est
|
||||
déployé dans le monde réel, le fait que l'agent fait physiquement partie de l'environnement
|
||||
devient important. L'environnement peut changer les choses sur l'agent et l'agent
|
||||
peut changer les choses sur lui-même.
|
||||
Ces questions sont traités par des organismes comme \textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association} fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine.
|
||||
|
||||
Humanity Plus; formerly the World Transhumanist Association) is a non-profit international educational organization that advocates the ethical use of technologies and evidence-based science to improve the human condition.
|
||||
Anciens Transhumanistes (1998)
|
||||
L'Institut pour l'éthique et les technologies émergentes est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Nous pensons que le progrès technologique peut être un catalyseur de développement humain positif à condition que nous veillions à ce que les technologies soient sûres et équitablement distribuées. Nous appelons cela une orientation technoprogressiste. (2004)
|
||||
En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique peut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres et équitablement distribuées.
|
||||
|
||||
according to \cite{kazim2021high}
|
||||
une conscience éthique:
|
||||
|
||||
Ethical consciousness refers to a person or institution or cultural norm, that has a disposition that is motivated by a moral awareness rather than, say, exclusively a concern of economics (pay and profit), or legality (responsibility, culpability, and compliance). In other words, this is a desire to do the right thing. Ethical consciousness can be read as coming out of business ethics,10 which is an applied ethics within the commercial environment. Sharing many of the themes from the previous section, it encompasses the integration of codes of conduct and compliance; however, it also expands to consider reputational issues, (corporate) social responsibility, and, most relevant to the development of ethical consciousness, concerns for institutional philosophy and culture. Drawing particularly on the latter, ethical
|
||||
consciousness can be stated in terms of societal and culture shifts in the awareness of citizens, technology developers and deployers, policy makers, and leaders of industry, in the ethical dimensions of new digital technologies.
|
||||
La conscience éthique se réfère à une personne, une institution ou une norme culturelle qui possède une disposition motivée par une conscience morale plutôt que, par exemple, une préoccupation exclusivement économique (salaire et profit) ou légale (responsabilité, culpabilité et conformité). En d'autres termes, c'est un désir de faire ce qui est juste. La conscience éthique peut être perçue comme issue de l'éthique des affaires, qui est une éthique appliquée dans l'environnement commercial. Partageant de nombreux thèmes de la section précédente, elle englobe l'intégration de codes de conduite et de conformité ; cependant, elle s'étend également à la considération des questions de réputation, de responsabilité sociale (corporative), et, plus pertinent pour le développement de la conscience éthique, des préoccupations pour la philosophie et la culture institutionnelles. En se basant particulièrement sur ces dernières, la conscience éthique peut être définie en termes de changements sociétaux et culturels dans la prise de conscience des citoyens, des développeurs et déployeurs de technologies, des décideurs politiques et des leaders de l'industrie, concernant les dimensions éthiques des nouvelles technologies numériques.
|
||||
|
||||
|
||||
utiliser des modèles cognitifs robotiques pour promouvoir des interactions sociales dignes de confiance avec les humains.
|
||||
|
|
Loading…
Reference in New Issue