etude 2021 de stanford

This commit is contained in:
silviaC 2024-07-19 00:29:57 +02:00
parent 725a7bc04d
commit 5b1c32f9be
1 changed files with 6 additions and 19 deletions

View File

@ -169,8 +169,8 @@ Dans une tentative de clarifier les enjeux de l'IA dans les décennies à venir,
\item le risque social et sociétal de diminution des relations interpersonnelles dans les interactions liés au divertissement.
etc.
\end{itemize}
Le premier rapport, publié le 1er septembre 2016, a été largement couvert dans la presse populaire et est aujourd'hui connu pour avoir influencé les discussions au sein des conseils consultatifs gouvernementaux et des ateliers dans plusieurs pays. Il commence sur une note constructive. Le panel d'étude trouve peu des raisons de s'inquiéter quant aux prédictions de la presse populaire concernant l'IA. Selon les chercheurs, il est peu probable qu'une machine dotée d'objectifs et d'intentions propres sera développée dans un avenir proche. En contrepoids, ils soulignent les applications de plus en plus pratiques de l'IA, dont l'impact sur notre société et notre économie se ressentira plus profondément à partir de 2030 quand les humains pourront \textit{enseigner} directement aux robots leurs principes et valeurs:
Par l'évaluation périodique à long terme de l'intelligence artificielle (IA), ce projet cherche à mieux saisir son impact sur la société.
Le premier rapport, rédigé par un panel de 17 auteurs et publié le 1er septembre 2016, a été largement couvert dans la presse populaire est aujourd'hui connu pour avoir influencé les discussions au sein des conseils consultatifs gouvernementaux et des ateliers dans plusieurs pays. Il commence sur une note constructive. Le panel d'étude trouve peu des raisons de s'inquiéter quant aux prédictions de la presse populaire concernant l'IA. Selon les chercheurs, il est peu probable qu'une machine dotée d'objectifs et d'intentions propres sera développée dans un avenir proche. En contrepoids, ils soulignent les applications de plus en plus pratiques de l'IA, dont l'impact sur notre société et notre économie se ressentira plus profondément à partir de 2030 quand les humains pourront \textit{enseigner} directement aux robots leurs principes et valeurs:
\begin{quote}
``La société se trouve maintenant à un moment crucial pour déterminer comment déployer les technologies basées sur l'IA de manière à promouvoir plutôt qu'à entraver les valeurs démocratiques telles que la liberté, l'égalité et la transparence. (...) Le domaine de l'IA évolue vers la construction de systèmes intelligents capables de collaborer efficacement avec les humains, y compris par des moyens créatifs pour développer des méthodes interactives et évolutives permettant aux personnes d'enseigner directement aux robots.\footnote{``Society is now at a crucial juncture in determining how to deploy AI-based technologies in ways that promote rather than hinder democratic values such as freedom, equality, and transparency.(...)The field of AI is shifting toward building intelligent systems that can collaborate effectively with people, including creative ways to develop interactive and scalable ways for people to teach robots.”}.”
@ -181,29 +181,16 @@ Le premier rapport, publié le 1er septembre 2016, a été largement couvert dan
En 2016 les avancées en robotique visaient améliorer les formes de perception d'une machine, comme la fiabilité de la vision par ordinateur. Cette forme de perception artificielle la plus répandue à cette époque a prouvé depuis son impact dans le secteur médical. Quant aux transports autonomes, le rapport décrit une ville nord-américaine typique en 2030 où des camions, des véhicules volants et des véhicules personnels sont pilotés grâce aux robots ou à l'IA. De plus, des robots livreront les colis, nettoieront les bureaux et amélioreront la sécurité. Le rapport anticipe également le progrès dans les LLM (modèles de langage de grande taille), la traduction et la reconnaissance vocale automatique. A la place des robots conscients, le rapport souligne les efforts concernant le développement du apprentissage automatique à grande échelle. Cela implique la conception dalgorithmes dapprentissage, ainsi que la mise à l'échelle des algorithmes existants, pour fonctionner avec des ensembles de données extrêmement volumineux. Quant à l'apprentissage profond et à l'apprentissage par renforcement, le monde universitaire s'efforce toujours à partager des réussites pratiques et concrètes qui en réalité séduisent moins les Gafa. Presque 10 ans après ces observations, les \textit{travailleurs du clic}\cite{casilli2019attendant} fournissent un travail important de classification de procédures d'apprentissage, par létiquetage d'objets, lieux et visages ou par la reconnaissance d'activités dans les images et les vidéo. Aujourd'hui, travailler pour AmazonMechanical Turk\footnote{https://www.mturk.com/worker} pour des renumérotions dérisoires, permet en réalité d'entrainer des réseaux neuronales sophistiques avec des data set sur mesure.
Le deuxieme rapport, datant de 2021, amende les prévisions annoncés dans le premier et décrit quelques préoccupations susceptibles de changer nos perspectives pour les années à venir. Le ton est cette fois plus inquiet.
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent en particulier l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque comme celui des \textit{Système d'armes létales autonomes} dont ils publient un étude de cas.
Concernant le cadre éthique et les efforts de régularisation de l'IA, les chercheurs notent d'abord l'effort de l'UE qui vote en 2016 le \textit{Règlement Général sur la Protection des Données Règlement} (RGPD). Ils analysent certains aspects concernant la création d'organismes nationaux de contrôle des technologies à haut risque, comme celui des \textit{Système d'armes létales autonomes} dont ils publient un étude de cas concernant louverture du feu qui devra rester conditionnée à une décision humaine. Ils évoquent également l'augmentation de l'influence des lobbies privés sur la recherche fondamentale, par la mise en place de plus en plus des études et des projets de recherche en partenariat avec les industriels. Cette mixité accrue entre la recherche académique et la recherche industrielle suscite des préoccupations éthiques. Les acteurs clé de ces transformations, les Gafa, ne font rien pour clarifier le contexte.
Tandis qu'une autre partie de ce rapport traite de la conscience humaine et son équivalent artificiel, avec les parti-pris des acteurs concernés. D'une manière pragmatique, l'étude reconnait les limites du traitement de l'information consciente dans la cognition humaine. Cela donne suite é des modèles de plus en plus basés sur des solutions émergents plutôt que sur une conception centrale de \textit{conscience}. Les humains intègrent des informations provenant de multiples sources : notre cerveau, notre corps physique, les objets physiques et les entités sociales (comme par exemple l'internet). D'une manière analogique, une machine intelligence devrait s'adapter à cette complexité, bien que nous ne comprenons toujours pas comment cela fonctionne:
\begin{quote}
La nature de la conscience reste une question ouverte. Certains voient des progrès ; d'autres croient que nous n'avons pas avancé dans la compréhension de la manière de créer un agent conscient depuis 46 ans, lorsque le philosophe Thomas Nagel a posé la fameuse question : Quelle est la sensation d'être une chauve-souris ?. Il n'est même pas clair que comprendre la conscience soit nécessaire pour comprendre l'intelligence humaine. La question est devenue moins pressante à cette fin alors que nous commençons à reconnaître les limites du traitement de l'information consciente dans la cognition humaine, et que nos modèles sont de plus en plus basés sur des processus émergents plutôt que sur une conception centrale. Les modèles cognitifs motivent une analyse de la manière dont les gens intègrent des informations provenant de multiples modalités, de multiples sens et de multiples sources : notre cerveau, notre corps physique, les objets physiques (stylo, papier, ordinateurs) et les entités sociales (d'autres personnes, Wikipédia). Bien qu'il y ait maintenant beaucoup de preuves que c'est la capacité à réaliser cette intégration qui soutient les réalisations les plus remarquables de l'humanité, comment nous y parvenons reste en grande partie mystérieux. De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{The nature of consciousness remains an open question. Some see progress; others believe we are no further along in understanding how to build a conscious agent than we were 46 years ago, when the philosopher Thomas Nagel famously posed the question, “What is it like to be a bat?” It is not even clear that understanding consciousness is necessary for understanding human intelligence. The question has become less pressing for this purpose as we have begun to recognize the limits of conscious information processing in human cognition, and as our models become increasingly based on emergent processes instead of central design. Cognitive models motivate an analysis of how people integrate information from multiple modalities, multiple senses, and multiple sources: our brains, our physical bodies, physical objects (pen, paper, computers), and social entities (other people, Wikipedia). Although there
is now a lot of evidence that it is the ability to do this integration that supports humanitys more remarkable
achievements, how we do so remains largely mysterious. Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly
judge as intelligent}.
Technological determinism is the false claim that new technologies such as AI shape society independently of human
choices and values, in a manner that humans are helpless to control, alter or steer
As with any emerging technology—and especially one so diverse in its applications as AI—effective experimentation
and testing can meaningfully support more effective governance and policy design
``De manière connexe, il y a une reconnaissance accrue de l'importance des processus qui soutiennent l'action intentionnelle, l'intentionnalité partagée, le libre arbitre et l'agence. Mais il y a eu peu de progrès fondamentaux dans la construction de modèles rigoureux de ces processus. Les sciences cognitives continuent de chercher un paradigme pour étudier l'intelligence humaine qui perdurera. Cependant, la recherche dévoile des perspectives critiques—comme la cognition collective—et des méthodologies qui façonneront les progrès futurs, comme les neurosciences cognitives et les dernières tendances en modélisation computationnelle. Ces perspectives semblent essentielles dans notre quête pour construire des machines que nous jugerions véritablement intelligentes\footnote{``Relatedly, there is increased recognition of the importance of processes that support intentional action, shared intentionality, free will, and agency. But there has been little fundamental progress on building rigorous models of these processes. The cognitive sciences continue to search for a paradigm for studying human intelligence that will endure. Still, the search is uncovering critical perspectives—like collective cognition—and methodologies that will shape future progress, like cognitive neuroscience and the latest trends in computational modeling. These insights seem essential in our quest for building machines that we would truly judge as intelligent.” }.”
\cite{littman2022gathering}
\end{quote}
This increased mixing of academic and industrial
research has raised concerns about the impact of
Cette mixité accrue entre la recherche académique et industrielle a suscité des préoccupations concernant l'impact de
En septembre 2016, le projet One Hundred Year Study on Artificial Intelligence (AI100) de Stanford a publié le premier rapport de son évaluation périodique à long terme de l'intelligence artificielle (IA) et de son impact sur la société. Il a été rédigé par un panel de 17 auteurs, chacun étant profondément enraciné dans la recherche en IA, présidé par Peter Stone de l'Université du Texas à Austin. Le rapport, intitulé Artificial Intelligence and Life in 2030, examine huit domaines des environnements urbains typiques sur lesquels l'IA est susceptible d'avoir un impact dans les années à venir : les transports, les robots domestiques et de service, les soins de santé, l'éducation, la sécurité publique, les communautés à faibles ressources, l'emploi et le lieu de travail, ainsi que le divertissement. Il vise à fournir au grand public une représentation scientifiquement et technologiquement précise de l'état actuel de l'IA et de son potentiel, à aider à orienter les décisions dans l'industrie et les gouvernements, ainsi qu'à informer la recherche et le développement dans ce domaine. La mission de ce rapport a été confiée au panel par le Comité Permanent de l'AI100, présidé par Barbara Grosz de l'Université Harvard.
La critique du récit de la singularité a été soulevée sous divers angles. Kurzweil et Bostrom semblent supposer que l'intelligence est une propriété unidimensionnelle et que l'ensemble des agents intelligents est totalement ordonné au sens mathématique, mais aucun des deux ne discute de l'intelligence en profondeur dans leurs livres. En général, il est juste de dire que, malgré quelques efforts, les hypothèses faites dans le puissant récit de la superintelligence et de la singularité n'ont pas été examinées en détail. Une question est de savoir si une telle singularité se produira jamais — elle peut être conceptuellement impossible, pratiquement impossible ou ne peut simplement pas se produire en raison d'événements contingents, y compris des personnes qui l'empêchent activement. Philosophiquement, la question intéressante est de savoir si la singularité n'est qu'un mythe Ganascia 2017, et non sur la trajectoire de la recherche en IA actuelle. C'est une hypothèse souvent faite par les praticiens (par exemple, Brooks 2017). Ils peuvent le faire parce qu'ils craignent les répercussions en termes de relations publiques, parce qu'ils surestiment les problèmes pratiques, ou parce qu'ils ont de bonnes raisons de penser que la superintelligence est un résultat improbable de la recherche actuelle en IA (Müller à paraître-a). Cette discussion soulève la question de savoir si la préoccupation concernant la singularité n'est qu'un récit sur une IA fictive basée sur les peurs humaines.
C'est la frontière entre la recherche universitaire et industrielle en IA