updates on penrose and synthesis on AI gouvernance
This commit is contained in:
parent
0d0faf4799
commit
ed77ab5c2a
Binary file not shown.
After Width: | Height: | Size: 346 KiB |
|
@ -234,20 +234,15 @@ Un autre exemple pertinent cité par Ganascia est l'article intitulé : \textit{
|
|||
|
||||
Ce qui choque le plus dans l'analyse pragmatique de l'informaticien américain est la référence explicite à un futur qui n’aurait plus besoin des humains. Ganascia évoque à son tour la lettre ouverte de l'\textit{Institut pour l'avenir de la vie}, signée début 2015 par une poignée des spécialistes d’intelligence artificielle inquiets des conséquences du développement de leur discipline.
|
||||
|
||||
|
||||
Entre autre, Ganascia attribue l'apparition du terme \gls{Singularité} à l'écrivain de science-fiction Vernor Vinge qui mentionne ce terme dans son essai \textit{La singularité technologique à venir} en 1993, en s'inspirant à son tour des propos de John von Neumann concernant ses équations mathématiques. Il évoque également Isaac Asimov qui dans sa nouvelle \textit{La dernière question} (1956) prédit le progrès exponentiel de la puissance de calcul des ordinateurs. Ainsi les chercheurs de Asimov posent sans cesse la question \textit{Comment peut-on inverser l'entropie ?} au super-ordinateur Multivac.
|
||||
|
||||
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia s’attache à démontrer comment la perspective de la \gls{Singularité} recycle de vieilles idéologies gnostiques et millénaristes, dans une perspective techno-futuriste marquée par les stratégies de communication mercantiles des multinationales de l’informatique.
|
||||
Sensible aux questions de techno-solutionnisme, Jean-Gabriel Ganascia s’attache à démontrer comment la perspective de la \gls{Singularité} réutilise des croyances gnostiques ancestrales dans une perspective techno-futuriste. Pour Ganascia cette doctrine imprégnée par les stratégies de profit des multinationales de l’informatique repose en réalité sur une extrapolation peu étayée de la loi de Moore, mélangé avec un récit eschatologique bien éloigné la rigueur scientifique.
|
||||
Quant à la question de l’éthique des machines, il cite \cite{anderson2007machine} dont les observations sont partagés dés 2006.
|
||||
|
||||
Ainsi les prophéties à propos de la singularité reposent sur une extrapolation infondée de la loi de Moore, mélangés avec un récit eschatologique qui a très peu à voir avec la sobre rigueur de l'esprit scientifique.
|
||||
Une contribution intéressante dans ce sens est celle de\cite{nath2020problem} qui discrimine l’éthique des machines en trois catégories: le comportement des machines envers les utilisateurs humains, le comportement des machines envers d’autres machines, ainsi qu’à l’éthique de ces interactions combinés. Le fondements de cette éthique reposerait selon les auteurs sur des décisions et des actions volontaires. Ainsi la notion d’esprit est au cœur de leur pensée éthique, puisque l’esprit humain est conscient de lui-même, et c’est une propriété qui manque encore aux machines.
|
||||
|
||||
Un autre étude plus récent envisage une nouvelle branche de l'AI, intitulé \textit{AI for Humanity} où la priorité est accordé à une symbiose avec les humains dans la manière dont l'IA est gouvernée, développée et commercialisée:
|
||||
|
||||
|
||||
Il note également que la question de l’éthique des machines est abordée pour lui, dés 2006\cite{anderson2007machine}.
|
||||
\cite{nath2020problem}
|
||||
L’IA ou l’éthique des machines s’intéresse au comportement des machines envers les utilisateurs humains et peut-être aussi à d’autres machines, ainsi qu’à l’éthique de ces interactions. Le but ultime de l’éthique des machines, selon les scientifiques de l’IA, est de créer une machine qui elle-même suit un principe éthique idéal ou un ensemble de principes ; c'est-à-dire qu'il est guidé par ce ou ces principes dans les décisions qu'il prend sur les lignes d'action possibles qu'il pourrait prendre.
|
||||
Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisions et des actions volontaires. La notion d’esprit est au cœur de notre pensée éthique, et cela est dû au fait que l’esprit humain est conscient de lui-même, et c’est une propriété qui manque encore aux machines.
|
||||
|
||||
|
||||
\begin{figure}
|
||||
\centering
|
||||
\includegraphics[width=0.7\linewidth]{images/AIforhumanity}
|
||||
|
@ -255,20 +250,38 @@ Avoir un esprit, c'est, entre autres, avoir la capacité de prendre des décisio
|
|||
\label{fig:aiforhumanity}
|
||||
\end{figure}
|
||||
|
||||
L'éthique des machines trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont les technologies modifient notre conception de l'humain et de la société. \cite{hunyadi2019artificial} cite son travail pour appuyer l’hypothèse que le terme d’agent moral artificiel est philosophiquement illégitime. Afin d’éviter toute spéculation ou d’idéologie en lien avec l'éthique des machines, son auteur cherche à fournir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains.
|
||||
|
||||
\cite{hunyadi2019artificial}
|
||||
Comment pouvons-nous de manière plausible qualifier les robots d’agents moraux artificiels ? Compte tenu de la classification utile du philosophe du domaine de l’intelligence artificielle James H. Moor, qui a identifié quatre types différents d’éthique, je soutiendrai que le terme d’agent moral artificiel est philosophiquement illégitime. Mon argumentation se développe en trois étapes : la première étape porte sur le choix même des principes éthiques à programmer dans la machine ; la deuxième étape explore les difficultés inhérentes à donner à ces principes une forme algorithmique ; et la troisième se concentre sur la difficulté suprême découlant de la nature même du raisonnement moral. Cette analyse vise à encourager la recherche sur les concepts de raisonnement et de jugement moral. En effet, une compréhension fine de ces notions devrait révéler toute l’étendue du problème des agents moraux artificiels ; Avant de pouvoir discuter de l'éthique des machines ou de l'éthique artificielle, nous devons, si nous voulons éviter la spéculation et l'idéologie, avoir une compréhension claire de ce qu'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. .
|
||||
Si à la fin des années 80, la recherche sur l’IA a connu une croissance remarquable, quarante ans après, de nombreux travaux cherchent à définir les valeurs qui devraient guider une éthique dans ce domaine. En absence d'un discours normatif, les chercheurs, les industriels et les décideurs politiques cherchent des moyens pour identifier les points de convergence afin de décider l’implémentation future de ces stratégies.
|
||||
|
||||
\cite{correa2023worldwide} propose une synthèse de 200 études autour de la gouvernance de l’IA
|
||||
La version synthétique de leur étude est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}
|
||||
Après l’hiver de l’IA à la fin des années 80, la recherche sur l’IA a connu une croissance remarquable. Actuellement, de nombreux travaux sont en cours pour définir les valeurs et les idées qui devraient guider les avancées de l’IA. Un défi majeur réside toutefois dans l’établissement d’un consensus sur ces valeurs, compte tenu des perspectives diverses des différentes parties prenantes à travers le monde et de l’abstraction du discours normatif. Les chercheurs et les décideurs politiques ont besoin de meilleurs outils pour cataloguer et comparer les documents sur la gouvernance de l’IA du monde entier et pour identifier les points de divergence et de points communs.
|
||||
|
||||
\cite{anderson2022future} réfléchit à la question de l'interdisciplinarité : si l’éthique de l’IA devait devenir interdisciplinaire, le deviendra-t-elle compte tenu de l’histoire d’efforts similaires dans d’autres disciplines technologiques, et quelles tensions ou caractéristiques inhérentes à l’IA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie, pourrait-elle empêcher l'interdisciplinarité ? Je me concentrerai principalement sur la relation interdisciplinaire potentielle entre le développement de l’IA et l’éthique en tant que philosophie, mais je m’égarerai également quelque peu dans d’autres disciplines. Je conclurai en proposant quelques réflexions sur ce qu'il faut peut-être pour intégrer l'éthique dans l'engagement interdisciplinaire avec le développement technologique, par ex. le philosophe devra acquérir des connaissances techniques proportionnellement au développeur technologique qui apprendra des connaissances éthiques.
|
||||
\cite{correa2023worldwide} propose une synthèse autour de la gouvernance de l’IA. Avant de fournir leurs résultats, les auteurs précisent le contexte de leur analyse en citant une travail préalable publié en 2019 qui a le mérite d'avoir identifié les principes éthiques les plus récurrents dans 84 documents évalués : la transparence (86 \%), la justice (81 \%), la non-malfaisance (71 \%), la responsabilité (71 \%) et la confidentialité (56 \%). Une autre synthèse issue d'un échantillon plus réduit de documents et apparue un an plus tard (2020) présente des résultats similaires, citant la responsabilité (77 \%), la confidentialité (77 \%), la justice (77 \%) et la transparence (68 \%) comme les éléments clé pour une éthique de l'IA. Cet dernier étude mentionne également la sous-représentation des institutions en Amérique du Sud, en Afrique et au Moyen-Orient dans l'analyse ainsi que des potentiels manquements comme:
|
||||
\begin{itemize}
|
||||
\item Le manque d'attention accordé aux questions relatives aux droits du travail, au chômage technologique, à la militarisation de l'IA, à la diffusion de la désinformation et à l'utilisation abusive de la technologie IA.
|
||||
\item Le manque de diversité de genre dans l'industrie technologique et l'éthique de l'IA.
|
||||
\item Les traitements succinctes que certains documents accordent aux principes normatifs.
|
||||
\item Le manque de discussion concernant les risques à long terme comme les risques existentiels.
|
||||
\end{itemize}
|
||||
|
||||
\cite{brooks2001relationship}
|
||||
Appelons cela l'hypothèse du nouveau truc l'hypothèse selon laquelle il pourrait y avoir une sorte de truc supplémentaire dans les systèmes vivants qui échappe à notre compréhension scientifique actuelle. Roger Penrose, par exemple, a déjà émis l'hypothèse d'une forme faible de nouveau truc comme explication de la conscience. Il suggère que les effets quantiques dans les microtubules des cellules nerveuses pourraient être le lieu de la conscience au niveau de la cellule individuelle, qui se combine en fonctions d'onde plus grandes au niveau de l'organisme. Penrose n'a pas élaboré une théorie réelle de la manière dont cela pourrait fonctionner. Il a plutôt suggéré que cela pourrait être un élément critique qui devra être intégré dans une compréhension finale. C'est une forme faible de nouveau truc car elle ne repose sur rien en dehors du domaine de la physique actuelle. Pour certains, cela peut avoir un certain attrait en ce qu'il unifie une grande découverte en physique avec une grande question en biologie — la nature de la conscience. David Chalmers a hypothéqué une forme plus forte de nouveau truc comme explication alternative pour la conscience. Il suggère qu'un type fondamentalement nouveau, de l'ordre d'importance du spin ou du charme en physique des particules, pourrait être nécessaire pour expliquer la conscience. Ce serait une nouvelle sorte de propriété physique des choses dans l'Univers, soumise à des lois physiques que nous ne comprenons pas encore. D'autres philosophes, tant naturels que religieux, pourraient hypothéquer une entité plus ineffable comme une âme ou un élan vital — la force vitale. Une autre façon dont cette découverte inimaginable pourrait se produire est par le biais des nouvelles mathématiques. Cela ne nécessiterait pas la présence de nouvelles physiques dans les systèmes vivants.
|
||||
Pour palier ces omissions, les auteurs proposent en 2023 un panel de 200 documents, représentatif de toutes les continents et issus de 37 pays. Les critères identifiés corroborent avec les synthèses réalisés 3 ans plus tôt, alors que l'importance de ces valeurs diffère parfois entre les pays occidentaux et l'Asie.
|
||||
\begin{figure}
|
||||
\centering
|
||||
\includegraphics[width=0.7\linewidth]{images/2023_synthesis}
|
||||
\caption{Source: \cite{correa2023worldwide}}
|
||||
\label{fig:2023synthesis}
|
||||
\end{figure}
|
||||
|
||||
Le Touring passé en 2014 par un chatbot qui se faisait passer par un garçon de 13 ans d'Ukraine. Hilary W. Putnam, l’hypothèse du cerveau dans la cuve (1981). Supposons qu’un cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il n’a pas d’expérience sensorielle du monde et il n’a jamais interagi avec les choses. Pour celui qui n’a pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
|
||||
La version intégrale de leur analyse est disponible ici\footnote{https://nkluge-correa.github.io/worldwide\_AI-ethics/dashboard.html}.
|
||||
|
||||
Les caractéristiques inhérentes à l’IA en tant que branche du développement technologique et de l'éthique en tant que branche de la philosophie privilégie une approche interdisciplinaire. \cite{anderson2022future} réfléchit à cette question de l'interdisciplinarité, compte tenu de l’histoire d’efforts similaires dans d’autres disciplines technologiques comme la robotique.
|
||||
|
||||
|
||||
Dans \cite{brooks2001relationship} Brooks évoque les observations de Roger Penrose qui est critique de la théorie computationnelle de la conscience selon laquelle la conscience peut être expliquée par des processus algorithmiques ou des systèmes informatiques. Sa théorie \textit{Orch-OR} (Orchestrated Objective Reduction), développée en collaboration avec le neurochirurgien Stuart Hameroff dans les années 1990, définit la conscience comme résultat des processus quantiques se produisant dans les microtubules des neurones (type des structures cytosquelettiques présentes dans les cellules nerveuses, même pendant une anesthésie, bien qu'en général une anesthésie affecte l'activité neuronale et la dynamique cellulaire). Hameroff et Penrose suggèrent que ces structures jouent un rôle clé dans la génération de la conscience en raison de leur capacité à soutenir des effets quantiques à l'échelle des neurones. Bien que leur théorie est à ce jour controversée, des études empiriques en 2022 et 2024 semblent confirmer cette hypothèse\footnote{https://consciousnesscenter.arizona.edu/}.
|
||||
|
||||
En 2014 un ordinateur passe le fameux test Touring, lorsqu’un chatbot prétend être un garçon de 13 ans d'Ukraine\footnote{https://chatgpt.com/c/28047e5b-617f-44d9-b42a-f59938177c18}.
|
||||
|
||||
|
||||
Le philosophe américain Hilary W. Putnam partage cet avis. l’hypothèse du cerveau dans la cuve (1981). Supposons qu’un cerveau baigne dans une cuve, sans corps. Ce cerveau peut penser, mais il lui manque une dimension essentielle: il ne sait pas à quoi les mots pomme ou arbre se réfèrent, car il n’a pas d’expérience sensorielle du monde et il n’a jamais interagi avec les choses. Pour celui qui n’a pas de corps, les mots restent vides. Eugene Goostman peut bien employer le mot cerise, cela ne lui fait venir aucune saveur dans la bouche. vs l'argument de la chambre chinoise.
|
||||
|
||||
\cite{dumouchel2016vivre} les enjeux de la robotique sociale, la question de l'autonomie et des manifestations affectives trompeuses des agents artificiels
|
||||
la dynamique des échanges affectifs résultat de nos intentions d'action les émotions deviennent des moments saillants des mécanismes de coordination
|
||||
|
|
Loading…
Reference in New Issue