adding ref on stanford and other AI guidelines

This commit is contained in:
silviaC 2024-06-17 18:34:53 +02:00
parent ab74e36bff
commit 229468e8f8
3 changed files with 358 additions and 6 deletions

View File

@ -1,3 +1,100 @@
@inproceedings{anderson2022future,
title={Is the Future of AI Ethics Interdisciplinary?},
author={Anderson, Marc M},
booktitle={Where AI Ethics Should Go},
year={2022}
}
@article{correa2023worldwide,
title={Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance},
author={Corr{\^e}a, Nicholas Kluge and Galv{\~a}o, Camila and Santos, James William and Del Pino, Carolina and Pinto, Edson Pontes and Barbosa, Camila and Massmann, Diogo and Mambrini, Rodrigo and Galv{\~a}o, Luiza and Terem, Edmund and others},
journal={Patterns},
volume={4},
number={10},
year={2023},
publisher={Elsevier}
}
@article{anderson2007machine,
title={Machine ethics: Creating an ethical intelligent agent},
author={Anderson, Michael and Anderson, Susan Leigh},
journal={AI magazine},
volume={28},
number={4},
pages={15--15},
year={2007}
}
@article{hunyadi2019artificial,
title={Artificial moral agents. Really?},
author={Hunyadi, Mark},
journal={Wording Robotics: Discourses and Representations on Robotics},
pages={59-69},
year={2019},
publisher={Springer}
}
@article{nath2020problem,
title={The problem of machine ethics in artificial intelligence},
author={Nath, Rajakishore and Sahu, Vineet},
journal={AI \& society},
volume={35},
pages={103-111},
year={2020},
publisher={Springer}
}
@book{ma2024ai,
title={AI for Humanity: Building a Sustainable AI for the Future},
author={Ma, Andeed and Ong, James and Tan, Siok Siok},
year={2024},
publisher={John Wiley \& Sons}
}
@book{leroi1971evolution,
title={Evolution et techniques},
author={Leroi-Gourhan, Andr{\'e}},
volume={1},
year={1971},
publisher={A. Michel}
}
@book{ganascia2017mythe,
title={Le Mythe de la Singularit{\'e}. Faut-il craindre l'intelligence artificielle?},
author={Ganascia, Jean-Gabriel},
year={2017},
publisher={M{\'e}dia Diffusion}
}
@book{barrat2023our,
title={Our final invention: Artificial intelligence and the end of the human era},
author={Barrat, James},
year={2023},
publisher={Hachette UK}
}
@incollection{kurzweil2005singularity,
title={The singularity is near},
author={Kurzweil, Ray},
booktitle={Ethics and emerging technologies},
pages={393-406},
year={2005},
publisher={Springer}
}
@book{harari2014sapiens,
title={Sapiens: A brief history of humankind},
author={Harari, Yuval Noah},
year={2014},
publisher={Random House}
}
@book{harari2017homo,
title={Homo deus: une br{\`e}ve histoire du futur},
author={Harari, Yuval Noah},
year={2017},
publisher={Albin Michel}
}
@book{agamben2017omnibus,
title={The omnibus homo sacer},
author={Agamben, Giorgio},

BIN
images/AIforhumanity.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 45 KiB

View File

@ -181,7 +181,7 @@ Actuellement les algorithmes d'IA dotés de performances équivalentes ou supér
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. Lémergence d'une \gls{intelligence artificielle générale} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin dêtre résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
\cite{bostrom2018ethics} fait une parallèle entre les aptitudes des animaux sauvages et les formes d'AI spécialisés dans des domaines précises. Dans son exemple la capacité de construire de ruches sont propres aux abeilles, et pas interchangeables avec celle de construire de barrages d'eau propre aux castors. La polyvalence des aptitudes des humains vient principalement de leur capacité d'apprendre et c'est cette capacité qui nous distingue des algorithmes. Lémergence d'une \gls{intelligence artificielle générale} résoudra ce gap, cependant les enjeux morales et éthiques d'un tel exploit sont loin dêtre résolues. A son tour Bostrom cite la philosophe Francis Kamm qui propose, dés 2007, une définition du statut moral:
\begin{quote}
``X a un statut moral = parce que X compte moralement en soi, il est permis/interdit de lui faire des choses pour son propre bien\footnote{``en anglais: X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake.”}.”
\cite{bostrom2018ethics}
@ -218,7 +218,7 @@ L'IA sans éthique ou morale programmée est HAL 9000 dans la série Space Odyss
Super-intelligence aka Un certain nombre d'organisations étudient le problème du contrôle de l'IA, notamment le Future of Humanity Institute, le Machine Intelligence Research Institute, le Center for Human-Compatible Artificial Intelligence et le Future of Life Institute.
En octobre 2017, l'androïde Sophia a obtenu la citoyenneté saoudienne, même si certains ont considéré qu'il s'agissait davantage d'un coup publicitaire que d'une reconnaissance juridique significative.[84] Certains ont considéré ce geste comme un dénigrement ouvert des droits de l'homme et de l'État de droit.[85]
En octobre 2017, l'androïde Sophia a obtenu la citoyenneté saoudienne, même si certains ont considéré qu'il s'agissait davantage d'un coup publicitaire que d'une reconnaissance juridique significative.[84] Certains ont considéré ce geste comme un dénigrement ouvert des droits de l'homme et de l'État de droit.
Le domaine controversée de la robotique militaire, le \textit{Système d'armes létales autonome}
Œuvrant pour une démocratisation des pratiques en lien avec l'AI et les modèles de langage type GPT-3, EleutherAI a publié ces derniers années des données d'entrainement pour les grands modèles linguistiques, sous lamendement des chercheurs.
@ -244,6 +244,7 @@ et les objections à la conscience dans les systèmes d'apprentissage automatiqu
programme de recherche potentiel réaliste pour lIA consciente. (chalmers says)
\cite{agamben2017omnibus}
Homo Sacer dont la vie ne peut être intégrée dans l'ordre politique.
Georgio Agamben, partant dune réflexion croisée sur la question juridique de lessence de la souveraineté chez Carl Schmitt et sur larchéologie des biopouvoirs chez Michel Foucault, montre en quoi, à lépoque moderne, le corps humain est devenu lenjeu fondamental des stratégies politiques. Cest à lintérieur de la zone dindifférenciation de la vie et de la non-vie, dans le pouvoir même de déterminer leur point darticulation et dans la substitution au corps naturel dun corps intégralement disponible au pouvoir de la technique, que sexerce le biopouvoir constitutif de la souveraineté moderne, et dont Agamben décrit minutieusement les différents paradigmes
Tout le problème, chez Agamben, comme dailleurs chez Foucault, consiste dans le passage de la question généalogique à la question proprement juridique, du factuel au normatif, et ce alors même que, comme lécrit justement Agamben, la vie nue est précisément le seuil où le droit se transforme chaque fois en fait et le fait en droit et où ces deux plans tendent à devenir indiscernables
@ -259,16 +260,269 @@ Agamben identifie comment les deux éléments dans l'œuvre de Foucault—les te
Le \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} est une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de lintelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et l'entrepreneur Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA plus puissants que GPT-4 pour garantir la sécurité et la gouvernance. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}.
Selon Stanford Encyclopedia of Philosophy, le domaine de l\textit{éthique de l'IA et de la robotique} regroupe plusieurs sous-domaines dont la distinction principale se fait entre des systèmes IA en tant qu'objets, ou outils pour les humains et systèmes AI en tant que sujets, ou systèmes concernés par une morale propre différente de celle des humains, que nous appelons ici éthique des machines. Les problématiques spécifiques aux outils de l'IA regroupent des questions liées à la vie privée, aux préjugés et biais que cela peut engendrer, ainsi qu'à l'interaction homme-robot, aux conséquences sur le marché de l'emploi et au conséquences de l'autonomie de ces systèmes en général.
Léthique de lIA et de la robotique est un domaine très jeune au sein de léthique appliquée, avec une dynamique significative, mais peu de questions bien établies et aucun aperçu faisant autorité bien quil existe des contours prometteurs (Groupe européen déthique des sciences et des nouvelles technologies 2018) et il existe sont des débuts en matière dimpact sociétal (Floridi et al. 2018 ; Taddeo et Floridi 2018 ; S. Taylor et al. 2018 ; Walsh 2018 ; Bryson 2019 ; Gibert 2019 ; Whittlestone et al. 2019) et de recommandations politiques (AI HLEG 2019 [OIR ] ; IEEE 2019). Cet article ne peut donc pas se contenter de reproduire ce que la communauté a réalisé jusqu'à présent, mais doit proposer un ordre là où il existe peu d'ordre.
Certains robots utilisent l'IA, d'autres non : les robots industriels typiques suivent aveuglément des scripts complètement définis avec un minimum d'apport sensoriel et aucun apprentissage ni raisonnement (environ 500 000 nouveaux robots industriels de ce type sont installés chaque année (IFR 2019 [OIR])). Il est probablement juste de dire que si les systèmes robotiques suscitent davantage dinquiétudes auprès du grand public, les systèmes dIA sont plus susceptibles davoir un impact plus important sur lhumanité. En outre, les systèmes dIA ou de robotique destinés à un ensemble restreint de tâches sont moins susceptibles de causer de nouveaux problèmes que les systèmes plus flexibles et autonomes.
Dun autre côté, les entreprises, les militaires et certaines administrations publiques ont tendance à se contenter de parler et à procéder à un nettoyage éthique afin de préserver une bonne image publique et de continuer comme avant. La mise en œuvre dune réglementation juridiquement contraignante remettrait en question les modèles et pratiques économiques existants. La politique actuelle nest pas seulement une mise en œuvre dune théorie éthique, mais elle est soumise aux structures de pouvoir sociétales et les agents qui détiennent le pouvoir sopposeront à tout ce qui les restreint. Il existe donc un risque important que la réglementation reste impuissante face au pouvoir économique et politique.
préoccupations éthiques
Une fois que nous avons compris une technologie dans son contexte, nous devons façonner notre réponse sociétale, y compris la réglementation et la loi.
La trace de données que nous laissons derrière nous est la façon dont nos services gratuits sont payés mais nous ne sommes pas informés de cette collecte de données et de la valeur de cette nouvelle matière première, et nous sommes manipulés pour laisser toujours plus de données de ce type. Pour les big 5(Amazon, Google/Alphabet, Microsoft, Apple, Facebook), la principale partie de leur activité de collecte de données semble reposer sur la tromperie, lexploitation des faiblesses humaines, lencouragement de la procrastination, la génération de dépendances et la manipulation ( Harris 2016 [OIR]). Dans cette économie de la surveillance, lobjectif principal des médias sociaux, des jeux vidéo et de la majeure partie dInternet est dattirer, de maintenir et de diriger lattention et donc la fourniture de données. \textit{La surveillance est le modèle économique d'Internet} (Schneier 2015). Cette économie de surveillance et dattention est parfois appelée {capitalisme de surveillance} (Zuboff 2019). Cela a donné lieu à de nombreuses tentatives pour échapper à lemprise de ces entreprises, par exemple dans des exercices de minimalisme (Newport 2019), parfois à travers le mouvement open source, mais il semble que les citoyens daujourdhui ont perdu le degré dautonomie nécessaire pour s'évader tout en poursuivant pleinement leur vie et leur travail. Nous avons perdu la propriété de nos données, si propriété est ici le bon rapport. Nous avons sans doute perdu le contrôle de nos données.
\cite{harari2014sapiens}
Combien de temps faudra-t-il pour achever le Projet Gilgamesh—la quête de l'immortalité ? Cent ans ? Cinq cents ans ? Mille ans ? Lorsque nous rappelons combien nous savions peu sur le corps humain en 1900 et combien de connaissances nous avons acquises en un siècle, il y a lieu d'être optimiste. Les ingénieurs génétiques ont récemment doublé l'espérance de vie moyenne des vers Caenorhabditis elegans. Pourraient-ils en faire autant pour Homo sapiens ? Les experts en nanotechnologie développent un système immunitaire bionique composé de millions de nano-robots, qui habiteraient nos corps, ouvriraient les vaisseaux sanguins obstrués, combattraient les virus et les bactéries, élimineraient les cellules cancéreuses et inverseraient même les processus de vieillissement. Quelques chercheurs sérieux suggèrent que d'ici 2050, certains humains deviendront a-mortels (non pas immortels, car ils pourraient toujours mourir d'un accident, mais a-mortels, signifiant qu'en l'absence de traumatisme fatal, leur vie pourrait être prolongée indéfiniment).
Dans son livre\cite{harari2017homo}, \textit{les organismes sont des algorithmes}. Cela inclut les humains, qui sont constitués dalgorithmes qui produisent des copies deux-mêmes. Les sensations, les émotions, les pensées et les comportements proviennent tous de ces algorithmes. Dans une vision évolutionniste du monde, ces algorithmes biologiques ont été produits sur des milliards dannées de variation aléatoire et de sélection naturelle. L'essence humaine n'est pas l'âme pour Harari c'est l'ADN. Bientôt, dit-il, nous serons capables de réécrire les brins d'ADN et de créer une nouvelle espèce humaine.
\begin{quote}
Lhumanité est désormais prête à remplacer la sélection naturelle par une conception intelligente et à prolonger la vie du domaine organique vers le domaine inorganique\footnote{Now humankind is poised to replace natural selection with intelligent design, and to extend life from the organic realm into the inorganic.}
\cite{harari2017homo}
\end{quote}
En 2021 le président dAmazon, Jeff Bezos, a investi dans Altos Labs, un startup dont l'objectif est de travailler sur une technologie pour régénérer les cellules et potentiellement prolonger la vie. Plusieurs chercheurs de renommée internationale se son associés à cette initiative\footnote{https://www.cbsnews.com/news/jeff-bezos-altos-labs-startup-trying-to-extend-human-life-reprogramming-stem-cells/}.
Les enjeux éthiques de lIA dans la surveillance vont au-delà de la simple accumulation de données et de lorientation de lattention : ils incluent lutilisation dinformations pour manipuler les comportements, en ligne et hors ligne, dune manière qui sape les choix rationnels autonomes. Bien sûr, les efforts visant à manipuler les comportements sont anciens, mais ils peuvent acquérir une nouvelle dimension lorsquils utilisent des systèmes dIA.
Bien entendu, certaines contraintes assez fondamentales de léthique des affaires et du droit sappliquent également aux robots : la sécurité et la responsabilité des produits, ou la non-tromperie dans la publicité. Il semble que ces contraintes existantes répondent à de nombreuses préoccupations soulevées. Il existe cependant des cas où linteraction entre humains présente des aspects qui semblent spécifiquement humains et qui ne peuvent peut-être pas être remplacés par des robots : les soins, lamour et le sexe.
débats philosophiques où lautonomie est le fondement de la responsabilité et de la personnalité. Dans ce contexte, la responsabilité implique l'autonomie, mais pas l'inverse, de sorte qu'il peut y avoir des systèmes qui disposent de degrés d'autonomie technique sans soulever de questions de responsabilité.
L'idée de singularité est que si la trajectoire de l'intelligence artificielle atteint des systèmes ayant un niveau d'intelligence humain, alors ces systèmes auraient eux-mêmes la capacité de développer des systèmes d'IA surpassant le niveau d'intelligence humain, c'est-à-dire qu'ils seraient superintelligents. De tels systèmes d'IA superintelligents s'amélioreraient rapidement eux-mêmes ou développeraient des systèmes encore plus intelligents. Ce tournant radical des événements après avoir atteint l'IA superintelligente est la singularité à partir de laquelle le développement de l'IA échappe au contrôle humain et devient difficile à prédire
Kurzweil souligne essentiellement que la puissance de calcul augmente de manière exponentielle, c'est-à-dire qu'elle double environ tous les 2 ans depuis 1970 conformément à la loi de Moore sur le nombre de transistors, et qu'elle continuera à le faire pendant un certain temps. Il a prédit dans (Kurzweil 1999) qu'en 2010, les superordinateurs atteindraient la capacité de calcul humaine, qu'en 2030, le téléchargement de l'esprit serait possible et qu'en 2045, la singularité se produirait.
\cite{kurzweil2005singularity}
Deux études on été faites dans le cadre du projet \textit{One Hundred Year Study on Artificial Intelligence} de l'Université de Stanford.
Le premier, en 2016
Pour le grand public,
il vise à fournir une représentation accessible, scientifiquement et technologiquement précise
de létat actuel de lIA et de son potentiel. Pour l'industrie, le rapport décrit les
technologies et les défis juridiques et éthiques, et peuvent aider à orienter lallocation des ressources.
Le rapport s'adresse également aux gouvernements locaux, nationaux et internationaux pour les aider
qu'ils planifient mieux l'IA dans la gouvernance. Enfin, le rapport peut aider les chercheurs en IA,
ainsi que leurs institutions et bailleurs de fonds, pour fixer des priorités et prendre en compte les aspects éthiques et
enjeux juridiques soulevés par la recherche sur lIA et ses applications
e plus important : le transport ; robots de service ; soins de santé; éducation; à faibles ressources
les communautés ; la sûreté et la sécurité publiques ; emploi et lieu de travail; et du divertissement.
Dans chacun de ces domaines, le rapport reflète à la fois les progrès réalisés au cours des quinze dernières années
et anticipe les évolutions dans les quinze années à venir.
t Influences et défis de lIA,
comme la difficulté de créer du matériel sûr et fiable (transport et service
robots), la difficulté dinteragir en douceur avec des experts humains (soins de santé et
éducation), le défi de gagner la confiance du public (communautés à faibles ressources et
sûreté et sécurité), le défi de surmonter les craintes de marginalisation des humains
(emploi et lieu de travail), et le risque social et sociétal de diminution des relations interpersonnelles
interactions (divertissement).
Contrairement aux prédictions plus fantastiques de la presse populaire concernant l'IA, le panel d'étude n'a trouvé aucune raison de s'inquiéter du fait que l'IA constitue une menace imminente pour l'humanité. Aucune machine dotée d'objectifs et d'intentions autonomes à long terme n'a été développée, et il est peu probable qu'elles le soient dans un avenir proche. En revanche, des applications de plus en plus utiles de l'IA, avec des impacts potentiellement profonds et positifs sur notre société et notre économie, sont susceptibles d'émerger d'ici 2030, période considérée dans ce rapport. En même temps, bon nombre de ces développements provoqueront des perturbations dans la manière dont le travail humain est augmenté ou remplacé par l'IA, créant de nouveaux défis pour l'économie et la société en général. Des augmentations substantielles des utilisations futures des applications de l'IA, y compris plus de voitures autonomes, des diagnostics de soins de santé et des traitements ciblés, ainsi que l'assistance physique pour les soins aux personnes âgées, peuvent être attendues.
\begin{quote}
Society is now at a crucial juncture in determining how to deploy AI-based technologies in ways that
promote rather than hinder democratic values such as freedom, equality, and transparency.(...)The field of AI is shifting toward building intelligent systems that can collaborate effectively with people, including creative
ways to develop interactive and scalable ways for people to teach robots.
\cite{rap 2016}
\end{quote}
et qui sont plus généralement conscients de l'humain,
y compris des moyens créatifs pour développer des moyens interactifs et évolutifs permettant aux gens de
enseigner aux robots. Ces tendances déterminent les domaines actuellement chauds de la recherche sur lIA, à la fois
méthodes fondamentales et domaines dapplication :
Lapprentissage automatique à grande échelle concerne la conception dalgorithmes dapprentissage, ainsi que
ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux.
L'apprentissage profond, une classe de procédures d'apprentissage, a facilité la reconnaissance d'objets
dans les images, l'étiquetage vidéo et la reconnaissance d'activités, et fait des percées significatives dans
d'autres domaines de perception, tels que le traitement de l'audio, de la parole et du langage naturel.
L'apprentissage par renforcement est un cadre qui déplace l'attention de la machine
apprendre de la reconnaissance de formes à la prise de décision séquentielle basée sur lexpérience.
Il promet de faire progresser les applications dIA vers des actions dans le monde réel.
Bien qu'en grande partie confiné au monde universitaire au cours des dernières décennies, il apparaît désormais
quelques réussites pratiques et concrètes.
La robotique s'intéresse actuellement à la manière d'entraîner un robot à interagir avec le
monde qui l'entoure de manière généralisable et prévisible, comment faciliter la manipulation
des objets dans des environnements interactifs et comment interagir avec les gens. Progrès en
la robotique s'appuiera sur des progrès proportionnés pour améliorer la fiabilité et la généralité
de vision par ordinateur et dautres formes de perception machine.
La vision par ordinateur est actuellement la forme de perception artificielle la plus répandue.
Il sagit du sous-domaine de lIA le plus transformé par lessor du deep learning. Pour le
Pour la première fois, les ordinateurs sont capables deffectuer certaines tâches visuelles mieux que les humains. Beaucoup
les recherches actuelles se concentrent sur le sous-titrage automatique des images et des vidéos.
Le traitement du langage naturel, souvent couplé à la reconnaissance vocale automatique,
devient rapidement un produit pour les langues largement parlées avec de grands ensembles de données.
La recherche s'oriente désormais vers le développement de systèmes raffinés et performants, capables de
interagir avec les gens par le biais du dialogue, et pas seulement réagir à des demandes stylisées. De grands progrès
ont également été réalisés en traduction automatique entre différentes langues, avec plus
des échanges de personne à personne en temps réel à l'horizon proche.
La recherche collaborative sur les systèmes étudie des modèles et des algorithmes pour aider à développer
des systèmes autonomes capables de travailler en collaboration avec dautres systèmes et avec des humains.
La recherche sur le crowdsourcing et le calcul humain étudie les méthodes permettant de
augmenter les systèmes informatiques en faisant appel automatiquement à l'expertise humaine pour résoudre
des problèmes que les ordinateurs seuls ne peuvent pas résoudre correctement.
Les transports, où quelques technologies clés ont catalysé
ladoption généralisée de lIA à une vitesse étonnante. Transport autonome
sera bientôt monnaie courante et, comme la première expérience physique de la plupart des gens
Les systèmes dIA incarnés influenceront fortement la perception du public à légard de lIA. Comme les voitures
deviendront de meilleurs conducteurs que les humains, les citadins posséderont moins de voitures, vivront plus loin des
travailler et passer du temps différemment, ce qui conduit à une toute nouvelle organisation urbaine. Dans
la ville nord-américaine typique en 2030, les applications d'IA physiquement incarnées
ne se limite pas aux voitures, mais inclut probablement les camions, les véhicules volants et les véhicules personnels.
des robots. Les améliorations apportées au matériel sûr et fiable stimuleront l'innovation au cours des années à venir.
quinze ans, comme ils le feront avec les Robots Home/Service, qui sont déjà entrés
maisons des gens, principalement sous la forme daspirateurs. De meilleures puces, une 3D à faible coût
les capteurs, l'apprentissage automatique basé sur le cloud et les progrès dans la compréhension de la parole seront
améliorer les services des futurs robots et leurs interactions avec les humains. But spécial
les robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité. Mais technique
les contraintes et les coûts élevés des dispositifs mécaniques fiables continueront de limiter
opportunités commerciales vers des applications étroitement définies dans un avenir prévisible.
Publié le 1er septembre 2016, le premier rapport a été
largement couvert dans la presse populaire et est connu pour avoir
influencé les discussions au sein des conseils consultatifs gouvernementaux
et des ateliers dans plusieurs pays. Il a également été utilisé
dans une variété de programmes détudes en intelligence artificielle
Le deuxieme en 2021
L'UE a été particulièrement active dans le domaine concret
règlement, y compris le Règlement Général sur la Protection des Données
Règlement (RGPD), qui comprend une certaine réglementation de
les systèmes de décision automatisés et le Cadre déthique
Aspects de la robotique IA et des technologies associées, qui
propose la création d'organismes nationaux de contrôle et
la désignation de technologies à haut risque
Étude de cas : Létal Autonome
Armes
\begin{quote}
La nature de la conscience reste une question ouverte. Certains voient des progrès ; d'autres croient que nous n'avons pas avancé dans la compréhension de la manière de créer un agent conscient depuis 46 ans, lorsque le philosophe Thomas Nagel a posé la fameuse question : Quelle est la sensation d'être une chauve-souris ?. Il n'est même pas clair que comprendre la conscience soit nécessaire pour comprendre l'intelligence humaine. La question est devenue moins pressante à cette fin alors que nous commençons à reconnaître les limites du traitement de l'information consciente dans la cognition humaine, et que nos modèles sont de plus en plus basés sur des processus émergents plutôt que sur une conception centrale. Les modèles cognitifs motivent une analyse de la manière dont les gens intègrent des informations provenant de multiples modalités, de multiples sens et de multiples sources : notre cerveau, notre corps physique, les objets physiques (stylo, papier, ordinateurs) et les entités sociales (d'autres personnes, Wikipédia). Bien qu'il y ait maintenant beaucoup de preuves que c'est la capacité à réaliser cette intégration qui soutient les réalisations les plus remarquables de l'humanité, comment nous y parvenons reste en grande partie mystérieux. De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{The nature of consciousness remains an open question. Some see progress; others believe we are no further along in understanding how to build a conscious agent than we were 46 years ago, when the philosopher Thomas Nagel famously posed the question, “What is it like to be a bat?” It is not even clear that understanding consciousness is necessary for understanding human intelligence. The question has become less pressing for this purpose as we have begun to recognize the limits of conscious information processing in human cognition, and as our models become increasingly based on emergent processes instead of central design. Cognitive models motivate an analysis of how people integrate information from multiple modalities, multiple senses, and multiple sources: our brains, our physical bodies, physical objects (pen, paper, computers), and social entities (other people, Wikipedia). Although there
is now a lot of evidence that it is the ability to do this integration that supports humanitys more remarkable
achievements, how we do so remains largely mysterious. Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly
judge as intelligent}.
Technological determinism is the false claim that new technologies such as AI shape society independently of human
choices and values, in a manner that humans are helpless to control, alter or steer
As with any emerging technology—and especially one so diverse in its applications as AI—effective experimentation
and testing can meaningfully support more effective governance and policy design
\end{quote}
This increased mixing of academic and industrial
research has raised concerns about the impact of
Cette mixité accrue entre la recherche académique et industrielle a suscité des préoccupations concernant l'impact de
En septembre 2016, le projet "One Hundred Year Study on Artificial Intelligence" (AI100) de Stanford a publié le premier rapport de son évaluation périodique à long terme de l'intelligence artificielle (IA) et de son impact sur la société. Il a été rédigé par un panel de 17 auteurs, chacun étant profondément enraciné dans la recherche en IA, présidé par Peter Stone de l'Université du Texas à Austin. Le rapport, intitulé "Artificial Intelligence and Life in 2030", examine huit domaines des environnements urbains typiques sur lesquels l'IA est susceptible d'avoir un impact dans les années à venir : les transports, les robots domestiques et de service, les soins de santé, l'éducation, la sécurité publique, les communautés à faibles ressources, l'emploi et le lieu de travail, ainsi que le divertissement. Il vise à fournir au grand public une représentation scientifiquement et technologiquement précise de l'état actuel de l'IA et de son potentiel, à aider à orienter les décisions dans l'industrie et les gouvernements, ainsi qu'à informer la recherche et le développement dans ce domaine. La mission de ce rapport a été confiée au panel par le Comité Permanent de l'AI100, présidé par Barbara Grosz de l'Université Harvard.
La critique du récit de la singularité a été soulevée sous divers angles. Kurzweil et Bostrom semblent supposer que l'intelligence est une propriété unidimensionnelle et que l'ensemble des agents intelligents est totalement ordonné au sens mathématique, mais aucun des deux ne discute de l'intelligence en profondeur dans leurs livres. En général, il est juste de dire que, malgré quelques efforts, les hypothèses faites dans le puissant récit de la superintelligence et de la singularité n'ont pas été examinées en détail. Une question est de savoir si une telle singularité se produira jamais — elle peut être conceptuellement impossible, pratiquement impossible ou ne peut simplement pas se produire en raison d'événements contingents, y compris des personnes qui l'empêchent activement. Philosophiquement, la question intéressante est de savoir si la singularité n'est qu'un mythe Ganascia 2017, et non sur la trajectoire de la recherche en IA actuelle. C'est une hypothèse souvent faite par les praticiens (par exemple, Brooks 2017). Ils peuvent le faire parce qu'ils craignent les répercussions en termes de relations publiques, parce qu'ils surestiment les problèmes pratiques, ou parce qu'ils ont de bonnes raisons de penser que la superintelligence est un résultat improbable de la recherche actuelle en IA (Müller à paraître-a). Cette discussion soulève la question de savoir si la préoccupation concernant la singularité n'est qu'un récit sur une IA fictive basée sur les peurs humaines.
C'est la frontière entre la recherche universitaire et industrielle en IA
s'estompe, d'autres questions sociales et éthiques apparaissent au premier plan.
Les chercheurs universitaires et industriels peuvent avoir des opinions différentes
perspectives sur et donc adopter des approches différentes
de nombreux défis sociotechniques qui peuvent être au moins partiellement
résolu par des solutions techniques, telles que le biais dans la machine-
modèles appris, équité dans les algorithmes de prise de décision de l'IA,
la confidentialité dans la collecte de données et lémergence de la polarisation
ou des bulles de filtrage dans la consommation des médias sociaux
plusieurs études récentes ont montré que
Les équipes dIA humaine ne surpassent souvent pas actuellement lIA.
uniquement des équipes.204 Il existe néanmoins un nombre croissant de travaux sur
méthodes pour créer une collaboration homme-IA plus efficace
Parmi les dangers le plus pressants ils ont identifié:
Techno-solutionnisme
Lun des dangers les plus urgents de lIA est la technologie.
le solutionnisme, lidée selon laquelle lIA peut être considérée comme une panacée
quand ce n'est qu'un outil.
Les dangers de ladoption dune statistique
Perspective sur la justice
La prise de décision automatisée peut produire des résultats faussés
qui reproduisent et amplifient les préjugés existants. Un potentiel
Le danger est donc lorsque le public accepte les technologies dérivées de lIA.
conclusions comme certitudes. Cette approche déterministe de
La prise de décision en matière dIA peut avoir des conséquences désastreuses dans les deux cas
milieux criminels et de soins de santé. Approches basées sur l'IA
comme PredPol, logiciel développé à l'origine par le Los
Département de police d'Angeles et UCLA qui prétend
pour aider à protéger un citoyen américain sur 33,
\begin{quote}
New research efforts are aimed at re-conceptualizing the foundations of the field to make AI systems less reliant on explicit, and easily misspecified, objectives. A particularly visible danger is that AI can make it easier to build machines that can spy and even kill at scale.
\end{quote}
\begin{quote}
Nous utilisons souvent le terme déploiement pour désigner la mise en œuvre d'un système d'IA dans le monde réel. Cependant, le déploiement porte la connotation de l'implémentation d'un système technique plus ou moins prêt à l'emploi, sans tenir compte des besoins ou des conditions locales spécifiques. Les chercheurs ont décrit cette approche comme une implantation sans contexte. Les systèmes prédictifs les plus réussis ne sont pas implantés de cette manière, mais sont intégrés de manière réfléchie dans les environnements et les pratiques sociales et organisationnelles existants. Dès le départ, les praticiens de l'IA et les décideurs doivent prendre en compte les dynamiques organisationnelles existantes, les incitations professionnelles, les normes comportementales, les motivations économiques et les processus institutionnels qui détermineront comment un système est utilisé et perçu. Ces considérations deviennent encore plus importantes lorsque nous tentons de faire fonctionner des modèles prédictifs aussi bien dans différents territoires et contextes qui peuvent avoir des objectifs politiques et des défis de mise en œuvre différents. \footnote{We often use the term “deployment” to refer to the implementation of an AI system in the real world.
However, deployment carries the connotation of implementing a more or less ready-made technical system,
without regard for specific local needs or conditions. Researchers have described this approach as “context-less
dropping in.”295 The most successful predictive systems are not dropped in but are thoughtfully integrated
into existing social and organizational environments and practices. From the outset, AI practitioners and
decision-makers must consider the existing organizational dynamics, occupational incentives, behavioral norms,
economic motivations, and institutional processes that will determine how a system is used and responded to. These
considerations become even more important when we attempt to make predictive models function equally well
across different jurisdictions and contexts that may have different policy objectives and implementation challenges}
\end{quote}
\begin{quote}
Intégrer avec succès l'IA dans des contextes de prise de décision publique à fort enjeu nécessite un travail ardu, une compréhension approfondie et multidisciplinaire du problème et du contexte, la cultivation de relations significatives avec les praticiens et les communautés affectées, ainsi qu'une compréhension nuancée des limites des approches techniques. \footnote{Successfully integrating AI into high-stakes public decision-making contexts requires difficult
work, deep and multidisciplinary understanding of the problem and context, cultivation of meaningful relationships with practitioners and affected communities, and a nuanced understanding of the limitations of technical approaches.}
\end{quote}
Les refis pressants et opportunités dans l'utilisation de l'IA
Les systèmes autonomes ne doivent pas remplacer pas les soins humains
L'IA de service devrait être dirigée par les valeurs sociales et non par le marché
\begin{quote}
Il est désormais urgent de réfléchir sérieusement aux inconvénients et aux risques que révèle l'application généralisée de l'IA. La capacité croissante à automatiser les décisions à grande échelle est une arme à double tranchant ; des deepfakes intentionnels ou simplement des algorithmes incontrôlables faisant des recommandations cruciales peuvent conduire à ce que les gens soient induits en erreur, discriminés et même physiquement blessés. Les algorithmes entraînés sur des données historiques sont susceptibles de renforcer et même d'exacerber les biais et les inégalités existants. Alors que la recherche en IA a traditionnellement été du ressort des informaticiens et des chercheurs étudiant les processus cognitifs, il est devenu clair que tous les domaines de la recherche humaine, en particulier les sciences sociales, doivent être inclus dans une conversation plus large sur l'avenir du domaine. Minimiser les impacts négatifs sur la société et améliorer les aspects positifs nécessite plus que des solutions technologiques ponctuelles ; maintenir l'IA sur la voie des résultats positifs pertinents pour la société nécessite un engagement continu et une attention constante\footnote{It is now urgent to think seriously about the downsides
and risks that the broad application of AI is revealing. The increasing capacity to automate decisions at scale is a double-edged sword; intentional deepfakes or simply unaccountable algorithms making mission-critical recommendations can result in people being misled, discriminated against, and even physically harmed. Algorithms trained on historical data are disposed to reinforce and even exacerbate existing biases and inequalities. Whereas AI research has traditionally been the purview of computer scientists and researchers studying cognitive processes, it has become clear that all areas of human inquiry, especially the social sciences, need to be included in a broader conversation about the future of the field. Minimizing the negative impacts on society and enhancing the positive requires more than one-shot technological solutions; keeping AI on track for positive outcomes relevant to society requires ongoing engagement and continual attention.}
\end{quote}
Le déterminisme technologique est un courant de pensée par lequel on suppose que le changement technique est un facteur indépendant de la société. D'une part, le changement technique est autonome [...]. D'autre part, un changement technique provoque un changement social. Le déterminisme technologique est donc constitué autour de deux grandes idées :
La société n'influence pas la technique, qui tire son évolution d'elle-même ou de la science ;
La technique influence la société.
André Leroi-Gourhan est l'un des grands représentants du courant déterministe, et en particulier de l'idée que les technologies sont leur propre moteur. À propos de son étude des techniques primitives, et notamment des propulseurs, il écrit ainsi que
\begin{quote}le déterminisme technique conduit à considérer le propulseur comme un trait naturel, inévitable, né de la combinaison de quelques lois physiques et de la nécessité de lancer le harpon.
\cite{leroi1971evolution}
\end{quote}
Le déterminisme technologique est aujourd'hui fortement remis en cause par les avancées de la sociologie des techniques.
\begin{quote}
Un ouragan n'essaie pas plus de nous tuer qu'il n'essaie de faire des sandwichs, mais nous donnerons un nom à cette tempête et nous nous mettrons en colère contre les seaux de pluie et les éclairs qu'il déverse sur notre quartier. Nous brandirons nos poings vers le ciel comme si nous pouvions menacer un ouragan. Il est tout aussi irrationnel de conclure quune machine cent ou mille fois plus intelligente que nous nous aimerait et voudrait nous protéger. Cest possible, mais loin dêtre garanti. À elle seule, une IA ne ressentira pas de gratitude pour le don dêtre créée à moins que ce ne soit dans sa programmation. Les machines sont amorales et il est dangereux de supposer le contraire\footnote{A hurricane isn't trying to kills us any more that it's trying to make sandwiches, but we will give that storm a name and fell angry about the buckets of rain and lightning bolts it is trowing down on our neighborhood. We will shake our fists at the sky as if we could thraten a hurricane. It is just as irrational to conclude that a machine one hundred or one thousand times more intelligent than we are would love us and want to protect us. It is possible, but far from guaranteed. On its own an AI will not feel gratitude for the gift of being created unless is in its programming. MAchines are amoral, and it is dangerous to assume otherwise.}
\cite{barrat2023our}
\end{quote}
Sur son blog, Rodney Brooks s'est engagé a faire des prédictions sur les avancées technologiques d'ici 2050 lors de sa 95éme anniversaire\footnote{http://rodneybrooks.com/predictions-scorecard-2024-january-01/}
Il s'agit de ma sixième mise à jour annuelle sur la façon dont mes prédictions datées du 1er janvier 2018 concernant (1) les voitures autonomes, (2) la robotique, l'IA et l'apprentissage automatique, et (3) les voyages spatiaux humains, ont tenu le coup. J'ai alors promis de les revoir chaque année en début d'année jusqu'en 2050 (juste après mon 95e anniversaire), trente-deux ans au total. Lidée est de me tenir responsable de ces prédictions. Dans quelle mesure avais-je raison ou tort ?
Concernant les robots:
Un robot qui semble aussi intelligent, aussi attentif et aussi fidèle qu'un chien. not earlier than 2048
Cest bien plus difficile que la plupart des gens ne limaginent : beaucoup pensent que nous y sommes déjà ; Je dis que nous n'en sommes pas du tout là.
Un robot qui a une idée réelle de sa propre existence, ou de l'existence des humains, de la même manière qu'un enfant de six ans comprend les humains. pas de son vivant
\cite{ganascia2017mythe}
La quesion de l'ethique des machines a été abordé dés 2006\cite{anderson2007machine}
\cite{nath2020problem}
LIA ou léthique des machines sintéresse au comportement des machines envers les utilisateurs humains et peut-être aussi à dautres machines, ainsi quà léthique de ces interactions. Le but ultime de léthique des machines, selon les scientifiques de lIA, est de créer une machine qui elle-même suit un principe éthique idéal ou un ensemble de principes ; c'est-à-dire qu'il est guidé par ce ou ces principes dans les décisions qu'il prend sur les lignes d'action possibles qu'il pourrait prendre.
Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisions et des actions volontaires. La notion desprit est au cœur de notre pensée éthique, et cela est dû au fait que lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/AIforhumanity}
\caption{Source: \cite{ma2024ai}}
\label{fig:aiforhumanity}
\end{figure}
\cite{hunyadi2019artificial}
Comment pouvons-nous de manière plausible qualifier les robots dagents moraux artificiels ? Compte tenu de la classification utile du philosophe du domaine de lintelligence artificielle James H. Moor, qui a identifié quatre types différents déthique, je soutiendrai que le terme dagent moral artificiel est philosophiquement illégitime. Mon argumentation se développe en trois étapes : la première étape porte sur le choix même des principes éthiques à programmer dans la machine ; la deuxième étape explore les difficultés inhérentes à donner à ces principes une forme algorithmique ; et la troisième se concentre sur la difficulté suprême découlant de la nature même du raisonnement moral. Cette analyse vise à encourager la recherche sur les concepts de raisonnement et de jugement moral. En effet, une compréhension fine de ces notions devrait révéler toute létendue du problème des agents moraux artificiels ; Avant de pouvoir discuter de l'éthique des machines ou de l'éthique artificielle, nous devons, si nous voulons éviter la spéculation et l'idéologie, avoir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. .
\cite{correa2023worldwide} propose une synthèse de 200 études autour de la gouvernance de lIA
La version synthétique de leur étude est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}
Après lhiver de lIA à la fin des années 80, la recherche sur lIA a connu une croissance remarquable. Actuellement, de nombreux travaux sont en cours pour définir les valeurs et les idées qui devraient guider les avancées de lIA. Un défi majeur réside toutefois dans létablissement dun consensus sur ces valeurs, compte tenu des perspectives diverses des différentes parties prenantes à travers le monde et de labstraction du discours normatif. Les chercheurs et les décideurs politiques ont besoin de meilleurs outils pour cataloguer et comparer les documents sur la gouvernance de lIA du monde entier et pour identifier les points de divergence et de points communs.
\cite{anderson2022future} réfléchit à la question de l'interdisciplinarité : si léthique de lIA devait devenir interdisciplinaire, le deviendra-t-elle compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques, et quelles tensions ou caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie, pourrait-elle empêcher l'interdisciplinarité ? Je me concentrerai principalement sur la relation interdisciplinaire potentielle entre le développement de lIA et léthique en tant que philosophie, mais je mégarerai également quelque peu dans dautres disciplines. Je conclurai en proposant quelques réflexions sur ce qu'il faut peut-être pour intégrer l'éthique dans l'engagement interdisciplinaire avec le développement technologique, par ex. le philosophe devra acquérir des connaissances techniques proportionnellement au développeur technologique qui apprendra des connaissances éthiques.
\section*{Conclusion chapitre 1}
\section*{Ouverture}
\begin{quote}
``Déléguer de la conscience aux machines, signifie faire de la conscience une propriété objective, une propriété physique. Chercher cela parce que nous autres, membres tard-venus dune civilisation occidentale qui déclare avoir vaincu ses origines mythiques, pensons vivre dans un monde fait uniquement dobjets physiques. À partir de là, tout ce qui paraît non physique ne peut être quune propriété ou un sous- produit de quelque objet physique. Mais au nom de quoi pense-t-on cela ? Au nom dune hypostase tacite des objets de la connaissance scientifique et de la manipulation technologique.”
``Déléguer de la conscience aux machines, signifie faire de la conscience une propriété objective, une propriété physique. Chercher cela parce que nous autres, membres tard-venus dune civilisation occidentale qui déclare avoir vaincu ses origines mythiques, pensons vivre dans un monde fait uniquement dobjets physiques. À partir de là, tout ce qui paraît non physique ne peut être quune propriété ou un sous- produit de quelque objet physique. Mais au nom de quoi pense-t-on cela ? Au nom dune hypostase tacite des objets de la connaissance scientifique et de la manipulation technologique.”
\cite{bitbol2018cp}
\end{quote}
Au delà de leur message artistique, ces performances aident à comprendre l'impact de la technologie numérique sur les interactions sociales. Selon Kozel, nous découvrons les autres à travers des systèmes informatiques interactifs.
@ -286,4 +540,5 @@ Au delà de leur message artistique, ces performances aident à comprendre l'imp
\begin{quote}
``The body by mid century came to be visualisable from outside itself. But what it saw from this exterieur viewpoint was a picture or portrait of its own appearance.” \cite{foster2010choreographing}
\end{quote}
\end{quote}