updates on penrose and synthesis on AI gouvernance

This commit is contained in:
silviaC 2024-07-20 18:16:37 +02:00
parent 0d0faf4799
commit ed77ab5c2a
2 changed files with 32 additions and 19 deletions

BIN
images/2023_synthesis.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 346 KiB

View File

@ -234,19 +234,14 @@ Un autre exemple pertinent cité par Ganascia est l'article intitulé : \textit{
Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui naurait plus besoin des humains. Ganascia évoque à son tour la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée début 2015 par une poignée des spécialistes dintelligence artificielle inquiets des conséquences du développement de leur discipline.
Entre autre, Ganascia attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant à son tour des propos de John von Neumann concernant ses équations mathématiques. Il évoque également Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Ainsi les chercheurs de Asimov posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac.
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} recycle de vieilles idéologies gnostiques et millénaristes, dans une perspective techno-futuriste marquée par les stratégies de communication mercantiles des multinationales de linformatique.
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia sattache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour Ganascia cette doctrine imprégnée par les stratégies de profit des multinationales de linformatique repose en réalité sur une extrapolation peu étayée de la loi de Moore, mélangé avec un récit eschatologique bien éloigné la rigueur scientifique.
Quant à la question de léthique des machines, il cite \cite{anderson2007machine} dont les observations sont partagés dés 2006.
Ainsi les prophéties à propos de la singularité reposent sur une extrapolation infondée de la loi de Moore, mélangés avec un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique.
Il note également que la question de léthique des machines est abordée pour lui, dés 2006\cite{anderson2007machine}.
\cite{nath2020problem}
LIA ou léthique des machines sintéresse au comportement des machines envers les utilisateurs humains et peut-être aussi à dautres machines, ainsi quà léthique de ces interactions. Le but ultime de léthique des machines, selon les scientifiques de lIA, est de créer une machine qui elle-même suit un principe éthique idéal ou un ensemble de principes ; c'est-à-dire qu'il est guidé par ce ou ces principes dans les décisions qu'il prend sur les lignes d'action possibles qu'il pourrait prendre.
Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisions et des actions volontaires. La notion desprit est au cœur de notre pensée éthique, et cela est dû au fait que lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.
Une contribution intéressante dans ce sens est celle de\cite{nath2020problem} qui discrimine léthique des machines en trois catégories: le comportement des machines envers les utilisateurs humains, le comportement des machines envers dautres machines, ainsi quà léthique de ces interactions combinés. Le fondements de cette éthique reposerait selon les auteurs sur des décisions et des actions volontaires. Ainsi la notion desprit est au cœur de leur pensée éthique, puisque lesprit humain est conscient de lui-même, et cest une propriété qui manque encore aux machines.
Un autre étude plus récent envisage une nouvelle branche de l'AI, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée:
\begin{figure}
\centering
@ -255,20 +250,38 @@ Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisio
\label{fig:aiforhumanity}
\end{figure}
L'éthique des machines trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont les technologies modifient notre conception de l'humain et de la société. \cite{hunyadi2019artificial} cite son travail pour appuyer lhypothèse que le terme dagent moral artificiel est philosophiquement illégitime. Afin déviter toute spéculation ou didéologie en lien avec l'éthique des machines, son auteur cherche à fournir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains.
\cite{hunyadi2019artificial}
Comment pouvons-nous de manière plausible qualifier les robots dagents moraux artificiels ? Compte tenu de la classification utile du philosophe du domaine de lintelligence artificielle James H. Moor, qui a identifié quatre types différents déthique, je soutiendrai que le terme dagent moral artificiel est philosophiquement illégitime. Mon argumentation se développe en trois étapes : la première étape porte sur le choix même des principes éthiques à programmer dans la machine ; la deuxième étape explore les difficultés inhérentes à donner à ces principes une forme algorithmique ; et la troisième se concentre sur la difficulté suprême découlant de la nature même du raisonnement moral. Cette analyse vise à encourager la recherche sur les concepts de raisonnement et de jugement moral. En effet, une compréhension fine de ces notions devrait révéler toute létendue du problème des agents moraux artificiels ; Avant de pouvoir discuter de l'éthique des machines ou de l'éthique artificielle, nous devons, si nous voulons éviter la spéculation et l'idéologie, avoir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. .
Si à la fin des années 80, la recherche sur lIA a connu une croissance remarquable, quarante ans après, de nombreux travaux cherchent à définir les valeurs qui devraient guider une éthique dans ce domaine. En absence d'un discours normatif, les chercheurs, les industriels et les décideurs politiques cherchent des moyens pour identifier les points de convergence afin de décider limplémentation future de ces stratégies.
\cite{correa2023worldwide} propose une synthèse de 200 études autour de la gouvernance de lIA
La version synthétique de leur étude est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}
Après lhiver de lIA à la fin des années 80, la recherche sur lIA a connu une croissance remarquable. Actuellement, de nombreux travaux sont en cours pour définir les valeurs et les idées qui devraient guider les avancées de lIA. Un défi majeur réside toutefois dans létablissement dun consensus sur ces valeurs, compte tenu des perspectives diverses des différentes parties prenantes à travers le monde et de labstraction du discours normatif. Les chercheurs et les décideurs politiques ont besoin de meilleurs outils pour cataloguer et comparer les documents sur la gouvernance de lIA du monde entier et pour identifier les points de divergence et de points communs.
\cite{anderson2022future} réfléchit à la question de l'interdisciplinarité : si léthique de lIA devait devenir interdisciplinaire, le deviendra-t-elle compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques, et quelles tensions ou caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie, pourrait-elle empêcher l'interdisciplinarité ? Je me concentrerai principalement sur la relation interdisciplinaire potentielle entre le développement de lIA et léthique en tant que philosophie, mais je mégarerai également quelque peu dans dautres disciplines. Je conclurai en proposant quelques réflexions sur ce qu'il faut peut-être pour intégrer l'éthique dans l'engagement interdisciplinaire avec le développement technologique, par ex. le philosophe devra acquérir des connaissances techniques proportionnellement au développeur technologique qui apprendra des connaissances éthiques.
\cite{correa2023worldwide} propose une synthèse autour de la gouvernance de lIA. Avant de fournir leurs résultats, les auteurs précisent le contexte de leur analyse en citant une travail préalable publié en 2019 qui a le mérite d'avoir identifié les principes éthiques les plus récurrents dans 84 documents évalués : la transparence (86 \%), la justice (81 \%), la non-malfaisance (71 \%), la responsabilité (71 \%) et la confidentialité (56 \%). Une autre synthèse issue d'un échantillon plus réduit de documents et apparue un an plus tard (2020) présente des résultats similaires, citant la responsabilité (77 \%), la confidentialité (77 \%), la justice (77 \%) et la transparence (68 \%) comme les éléments clé pour une éthique de l'IA. Cet dernier étude mentionne également la sous-représentation des institutions en Amérique du Sud, en Afrique et au Moyen-Orient dans l'analyse ainsi que des potentiels manquements comme:
\begin{itemize}
\item Le manque d'attention accordé aux questions relatives aux droits du travail, au chômage technologique, à la militarisation de l'IA, à la diffusion de la désinformation et à l'utilisation abusive de la technologie IA.
\item Le manque de diversité de genre dans l'industrie technologique et l'éthique de l'IA.
\item Les traitements succinctes que certains documents accordent aux principes normatifs.
\item Le manque de discussion concernant les risques à long terme comme les risques existentiels.
\end{itemize}
\cite{brooks2001relationship}
Appelons cela l'hypothèse du nouveau truc l'hypothèse selon laquelle il pourrait y avoir une sorte de truc supplémentaire dans les systèmes vivants qui échappe à notre compréhension scientifique actuelle. Roger Penrose, par exemple, a déjà émis l'hypothèse d'une forme faible de nouveau truc comme explication de la conscience. Il suggère que les effets quantiques dans les microtubules des cellules nerveuses pourraient être le lieu de la conscience au niveau de la cellule individuelle, qui se combine en fonctions d'onde plus grandes au niveau de l'organisme. Penrose n'a pas élaboré une théorie réelle de la manière dont cela pourrait fonctionner. Il a plutôt suggéré que cela pourrait être un élément critique qui devra être intégré dans une compréhension finale. C'est une forme faible de nouveau truc car elle ne repose sur rien en dehors du domaine de la physique actuelle. Pour certains, cela peut avoir un certain attrait en ce qu'il unifie une grande découverte en physique avec une grande question en biologie — la nature de la conscience. David Chalmers a hypothéqué une forme plus forte de nouveau truc comme explication alternative pour la conscience. Il suggère qu'un type fondamentalement nouveau, de l'ordre d'importance du spin ou du charme en physique des particules, pourrait être nécessaire pour expliquer la conscience. Ce serait une nouvelle sorte de propriété physique des choses dans l'Univers, soumise à des lois physiques que nous ne comprenons pas encore. D'autres philosophes, tant naturels que religieux, pourraient hypothéquer une entité plus ineffable comme une âme ou un élan vital — la force vitale. Une autre façon dont cette découverte inimaginable pourrait se produire est par le biais des nouvelles mathématiques. Cela ne nécessiterait pas la présence de nouvelles physiques dans les systèmes vivants.
Pour palier ces omissions, les auteurs proposent en 2023 un panel de 200 documents, représentatif de toutes les continents et issus de 37 pays. Les critères identifiés corroborent avec les synthèses réalisés 3 ans plus tôt, alors que l'importance de ces valeurs diffère parfois entre les pays occidentaux et l'Asie.
\begin{figure}
\centering
\includegraphics[width=0.7\linewidth]{images/2023_synthesis}
\caption{Source: \cite{correa2023worldwide}}
\label{fig:2023synthesis}
\end{figure}
Le Touring passé en 2014 par un chatbot qui se faisait passer par un garçon de 13 ans d'Ukraine. Hilary W. Putnam, lhypothèse du cerveau dans la cuve (1981). Supposons quun cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il na pas dexpérience sensorielle du monde et il na jamais interagi avec les choses. Pour celui qui na pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
La version intégrale de leur analyse est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}.
Les caractéristiques inhérentes à lIA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie privilégie une approche interdisciplinaire. \cite{anderson2022future} réfléchit à cette question de l'interdisciplinarité, compte tenu de lhistoire defforts similaires dans dautres disciplines technologiques comme la robotique.
Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones (type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire). Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer cette hypothèse\footnote{https://consciousnesscenter.arizona.edu/}.
En 2014 un ordinateur passe le fameux test Touring, lorsquun chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}.
Le philosophe américain Hilary W. Putnam partage cet avis. lhypothèse du cerveau dans la cuve (1981). Supposons quun cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il na pas dexpérience sensorielle du monde et il na jamais interagi avec les choses. Pour celui qui na pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
\cite{dumouchel2016vivre} les enjeux de la robotique sociale, la question de l'autonomie et des manifestations affectives trompeuses des agents artificiels
la dynamique des échanges affectifs résultat de nos intentions d'action les émotions deviennent des moments saillants des mécanismes de coordination