modif conclusions
This commit is contained in:
parent
35898baf09
commit
534bd4841a
|
@ -35,7 +35,7 @@ Le développement futur de la technologie robotique ne pourra dons pas se faire
|
|||
|
||||
Dans la sphère du privé, ces questions sont traités par des organismes dont l'intitulé illustre bien les enjeux: le \textit{Future of Humanity Institute}, le \textit{Machine Intelligence Research Institute}, le \textit{Center for Human-Compatible Artificial Intelligence}, etc. Parmi eux, le\textit{Humanity Plus}, anciennement connu sous le nom de \textit{World Transhumanist Association}, a été fondé en 1998 par les chercheurs Nick Bostrom et David Pearce. Aujourd'hui \textit{Humanity Plus} se décrit comme une organisation internationale à but non lucratif dédiée à l'éducation, qui veut utiliser la technologie pour améliorer la condition humaine. En parallèle, l'\textit{Institut pour l'éthique et les technologies émergentes} est un groupe de réflexion à but non lucratif qui promeut des idées sur la manière dont le progrès technologique veut accroître la liberté, le bonheur et l'épanouissement humain dans les sociétés démocratiques. Ses membres considèrent le progrès technologique comme un catalyseur pour un développement humain positif, à condition de veiller à ce que les technologies soient sûres. Je rajoute à cette liste l'organisme \textit{Future of Life Institute} (FLI) ou \textit{Institut pour l'avenir de la vie} - une association à but non lucratif fondée en 2014 par des chercheurs de l'institut MIT et DeepMind. Son objectif est d'aborder les potentiels dangers et avantages des technologies provenant de l’intelligence artificielle, de la biotechnologie et des armes nucléaires. Parmi les parrains de l'institut, Wikipedia cite l'informaticien Stuart Russell, le biologiste George Church, les cosmologistes Stephen Hawking et Saul Perlmutter, le physicien Frank Wilczek et paradoxalement Elon Musk. Dés mars 2023, le Future of Life Institute appelle à un moratoire sur l'entrainement de systèmes d'IA type GPT-4. Cette lettre écrite en consultation avec des experts en IA tels que Yoshua Bengio et Stuart Russell, est actuellement signée par plus de 33000 chercheurs en IA et décideurs politiques. Sa version intégrale est disponible plus bas\footnote{https://futureoflife.org/open-letter/pause-giant-ai-experiments/}. Au défaut d'une instance globale neutre capable de régulariser ces initiatives, c'est intéressant de remarquer comment elles peut relever d'une pratique proche de \textit{greenwashing}. En effet des entreprises ou des personnalités publiques peuvent prétendre être plus préoccupées par ces questions qu'elles ne le sont réellement, pour gagner en popularité. L'exemple de Musk et les controverses de son entreprise Neuralink\footnote{https://www.scientificamerican.com/article/elon-musks-neuralink-has-implanted-its-first-chip-in-a-human-brain-whats-next/} quant aux implants BCI (Brain-Computer Interface) suscitent l'attention de la communauté scientifique.
|
||||
|
||||
Ce qui est sur c'est que la quantité dé-mesurable des donnés ne peut pas être traités à une échelle humaine. Le Big Data devient un systeme récursif anonyme qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations - disponible à tout moment aux impératifs économiques. Pour des chercheurs comme Zuboff le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. En contrepoids certains sceptiques affirment que les craintes concernant l'IA reviennent sans cesse depuis sa création il y a plus de 60 années. À mi-chemin, l'éthique des machines\cite{anderson2007machine} trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont ces technologies modifient notre conception de l'humain et de la société. Le philosophe Mark Hunyadi cite le travail de Moor\cite{hunyadi2019artificial} pour appuyer l’hypothèse que le terme d’\textit{agent moral artificiel} est philosophiquement illégitime. Afin d’éviter toute spéculation ou d’idéologie en lien avec l'éthique des machines, Hunyadi cherche à fournir une compréhension claire de ce que c'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains. Cette approche est innovante, bien que les développements technologiques et leur rythme effréné suscitent des nouveaux défis.
|
||||
Ce qui est sur c'est que la quantité dé-mesurable des donnés ne peut pas être traités à une échelle humaine. Le \gls{big data} devient un systeme récursif anonyme qui se renouvèle en grandissant. Nous ne comprenons pas l'utilité de ces données électroniques abstraits. Leur contenu double toutes les 3 ans, sorte de radiographie infinie de nos préoccupations - disponible à tout moment aux impératifs économiques. Pour des chercheurs comme Zuboff le capitalisme de surveillance s'est emparé de notre liberté et de notre savoir sans que nous nous rendons compte. En contrepoids certains sceptiques affirment que les craintes concernant l'IA reviennent sans cesse depuis sa création il y a plus de 60 années. À mi-chemin, l'éthique des machines\cite{anderson2007machine} trouve ses origines dans le travail du philosophe américain James H. Moor, connu pour ses réflexions sur l'éthique de l'intelligence artificielle et la philosophie de la technologie. Son contribution concernant les implications sociales, morales et éthiques des technologies émergentes est synthétisé dans l'article \textit{What is Computer Ethics?} (1985). Moor aborde des questions comme la confidentialité, la sécurité des données et la responsabilité des concepteurs de technologies tout en analysant la manière dont ces technologies modifient notre conception de l'humain et de la société. Le philosophe Mark Hunyadi cite le travail de Moor\cite{hunyadi2019artificial} pour appuyer l’hypothèse que le terme d’\textit{agent moral artificiel} est philosophiquement illégitime. Afin d’éviter toute spéculation ou d’idéologie en lien avec l'éthique des machines, Hunyadi cherche à fournir une compréhension claire de ce que c'est l'éthique, du type de rationalité qu'elle met en œuvre et de la nature de l'éthique et de la conduite éthique en général. Son argumentation se développe autour de plusieurs arguments : le premier argument concerne le choix des principes éthiques à programmer dans la machine ; le deuxième illustre les incompatibilité entre ces principes et leur forme algorithmique ; alors que le troisième et dernier argument met en avant les difficultés en lien avec la nature même du raisonnement moral spécifique aux humains. Cette approche est innovante, bien que les développements technologiques et leur rythme effréné suscitent des nouveaux défis.
|
||||
|
||||
Il y a vingt ans la communauté scientifique abordait directement le problème de la moralité, pointant une différence entre les nuances de ce qui peut signifier une moralité opérationnelle, par rapport à une moralité fonctionnelle. Pareil aux humains capables d'évaluer certains aspects moralement significatifs de leurs propres actions, les robots peuvent être définis en relation avec deux critères: l'autonomie et la sensibilité éthique. Cette relation est illustrée plus bas, avec des systèmes dotés d'une autonomie signifiante mais un niveau faible de sensibilité éthique, en parallèle avec des systèmes qui ont une faible autonomie mais une grande sensibilité éthique:
|
||||
|
||||
|
@ -176,7 +176,7 @@ Une alternative à la rhétorique du transhumanisme et de la \gls{Singularité}
|
|||
\cite{barrat2023our}
|
||||
\end{quote}
|
||||
|
||||
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique d’envergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le XXIème siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de l’état actuel de l’IA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter l’allocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de prendre en compte les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA:
|
||||
Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir, l'Université de Stanford à initié récemment le projet scientifique d’envergure \textit{One Hundred Year Study on Artificial Intelligence}. Ainsi il est prévu que chaque cinq ans, un comité indépendant des chercheurs publie un rapport sur l'état de lieux de l'IA, cela durant le 21e siècle. Le premier étude a eu lieu en 2016 et le suivant en 2021. Pour le grand public, ce type d'étude cherche une représentation accessible, scientifiquement et technologiquement précise de l’état actuel de l’IA et de son potentiel. Tandis que pour l'industrie, le rapport pourra aider à orienter l’allocation des ressources et anticiper l'évolution du marché dans les années à venir. Il s'adresse également aux gouvernements locaux, nationaux et internationaux pour une meilleure gouvernance de l'IA dans la société. Tout comme aux chercheurs en IA et à la communauté scientifique, afin de prendre en compte les aspects éthiques et enjeux juridiques soulevés par les analyses de terrain. Parmi les domaines analysés, nous retrouvons le transport, les robots de service, les soins de santé, l'éducation, la sûreté et la sécurité publiques, l'emploi ainsi que le divertissement. Dans chacun de ces domaines, les chercheurs ont relevé certains défis et réserves associées aux applications de l'IA:
|
||||
\begin{itemize}
|
||||
\item la difficulté de créer du matériel sûr et fiable dans le transport et les robots de service,
|
||||
\item la difficulté d’interagir en douceur avec des experts humains dans les soins de santé et
|
||||
|
|
Loading…
Reference in New Issue