Search

ChatGPT, gadget ou révolution technologique ? - L'Humanité

Numérique Depuis son lancement fin novembre 2022, le système d’intelligence artificielle, conçu par une start-up californienne, ne cesse de faire parler de lui, suscitant admiration et méfiance, fascination et inquiétude. Il produit, à la demande, des textes divers, quel que soit le sujet, mais ouvre-t-il pour autant un nouveau chapitre ?

Son nom vient de la combinaison des termes « chat » (conversation) et « GPT » (modèle de transduction de langage prédictif). Dès sa mise en ligne, fin novembre 2022, le robot numérique et conversationnel ChatGPT a été testé, en moins d’une semaine, par plus d’un million de personnes, ouvrant une compétition mondiale dans ce domaine.

Conçu et développé par la start-up californienne Open AI, le système d’intelligence artificielle utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3). Il produit, à la demande, des textes divers, quel que soit le sujet. Il a été entraîné et nourri par des humains avec une base de données s’arrêtant à l’année 2021 : plus de 500 milliards de textes issus de livres, d’encyclopédies et d’informations provenant du Web. Pourquoi fascine-t-il autant qu’il inquiète ?

Peut-on dire que ChatGPT est une innovation similaire à celle du smartphone, voire à celle d’Internet ?

Stefano Palminteri Ce robot conversationnel donne l’impression d’être révolutionnaire, parce qu’il surprend. Mais il s’inscrit dans une tendance générale des innovations en intelligence artificielle (IA). Ce qui interpelle, c’est sa fonction généraliste. Souvent, des systèmes d’IA, même très sophistiqués, comme les jeux d’échecs par exemple, ont un usage pour une seule tâche. ChatGPT, lui, peut ­réaliser plusieurs tâches : rédaction de texte, traduction, génération du code informatique. Il a une telle souplesse qu’il serait un peu le couteau suisse de l’IA. Personnellement, je l’utilise dans mon travail, notamment dans l’aide à la rédaction et à la correction. Il est beaucoup plus performant que les outils Windows.

Imane Bello Cet outil s’inscrit dans une continuité de l’innovation technologique. Ce qui est nouveau et qui peut nourrir l’impression de « révolution » est son accessibilité au grand public qui découvre un outil qui génère du contenu et qu’il ne maîtrise pas. L’ensemble des outils qui existent, comme le LaMDA de Google, et qui peuvent être comparés à ChatGPT ne sont pas accessibles au public. D’ailleurs, on observe que les réactions du public et celles des experts ne sont pas les mêmes.

Jean-Gabriel Ganascia Oui, c’est l’accessibilité au public qui fait l’événement, car il existe des outils similaires de génération du langage depuis un certain nombre de mois, voire d’années. La mise à disposition de tous et le caractère ludique surprennent. Les réponses ont l’air d’émaner d’une personne, les phrases sont bien construites et les mots s’enchaînent, alors qu’on a affaire, pour reprendre l’expression d’une chercheuse américaine, Timnit Gebru, à une sorte de perroquet qui répète ce qu’il a ingéré.

Stefano Palminteri La surprise concerne aussi le monde de la recherche. Personnellement, je m’intéresse à l’intelligence naturelle, je travaille sur les apprentissages et la prise de décision chez l’humain. Ce n’est qu’avec l’apparition de ce type de modèle que j’ai commencé à m’intéresser à l’IA. Certes, nous avons affaire à une machine essentiellement statistique. Mais je suis impressionné par la richesse du corpus emmagasiné. La taille et les algorithmes utilisés font que ces systèmes de langage automatique produisent des compositions nouvelles qu’on ne peut pas prévoir. Ils sont d’une complexité vertigineuse, avec quelque chose comme 300 milliards de paramètres.

Laurence Devillers Il faut saluer l’avancée techno­logique et la performance remarquable de ChatGPT et de ces outils d’IA générative, mais il faut aussi en comprendre les capacités et les limites. C’est difficile de dire que ce sont juste des algorithmes. Ce qui est intéressant, c’est la façon dont les algorithmes apprennent et auto-­apprennent. On a dans ChatGPT la richesse de presque tous les apprentissages que l’on utilise actuellement. Mais, je ne suis pas très surprise par les performances et les erreurs de ces machines. L’avoir rendu accessible au grand public dans l’état où il se trouve nous permet de nous rendre compte des réactions extrêmes de peur ou de fascination, et de l’urgence d’expliquer les concepts et capacités de ces outils sociotechniques. ChatGPT peut imaginer des histoires inoffensives ou hallucinatoires, des histoires de lapins ou de conception d’armes. Si on sait bien l’utiliser, c’est une force. Il faut apprendre à maîtriser ces systèmes avant qu’ils ne soient encore plus complexes.

Suffit-il de savoir en maîtriser l’usage pour contourner les dangers potentiels que porte ce type d’innovation technologique ?

Jean-Gabriel Ganascia On craint les mésusages et la tromperie qui en résultera. Des élèves commencent déjà à l’employer pour faire croire qu’ils ont réalisé un devoir. Des officines de désinformation et de propagande s’en servent pour diffuser des infox. Cela renvoie en miroir une image bien négative de notre société. Que tant d’élèves éprouvent à ce point ce besoin de tricher révèle l’état des institutions éducatives, qui se présentent comme des machines à diplômes et non comme des opportunités d’apprendre. Quant aux faux articles scientifiques générés automatiquement, cela montre que bien des chercheurs se soucient plus de leur facteur d’impact que de la production de connaissances nouvelles.

Imane Bello La maîtrise des outils par les citoyens est primordiale, mais elle ne peut pas suffire pour contourner les dangers potentiels. Par exemple, la prolifération des fake news du fait de l’utilisation exponentielle de ces systèmes fait courir le risque que nous soyons saturés par des contenus pas forcément vérifiés ou vérifiables. La maîtrise de l’usage de ces systèmes est importante, puisqu’elle permet des applications intéressantes, par exemple dans le domaine de l’éducation. Toutefois, elle ne peut pas endiguer les éventuelles conséquences négatives. On assiste à un changement conséquent dans beaucoup d’écosystèmes sur lesquels chacun doit apprendre à naviguer.

Laurence Devillers Le grand danger de ChatGPT est dans l’abondance de fake news qui circulent sur le Web et alimentent en partie le système. Celui-ci pèse sur un grand nombre de valeurs éthiques. Nous devons être conscients des dangers potentiels et trouver des solutions dans la recherche et dans la normalisation pour les atténuer. Interdire ChatGPT à l’école n’est pas la meilleure solution. Apprendre à l’utiliser est sûrement une clé pour en accélérer notre compréhension et garder notre libre arbitre.

De quelle façon agir pour éviter les dérives ?

Stefano Palminteri Ces systèmes sont trop complexes. Il faut les étudier quasiment de façon expérimentale. Avec notre équipe, nous essayons de voir comment ChatGPT interagit avec des tests qui ont été initialement conçus pour le raisonnement et l’intelligence des êtres humains. Et parfois nous sommes surpris tant par les similarités que par les différences. Nous ne pouvons pas nous affranchir de les étudier, mais, en l’état, les chercheurs comme nous, travaillant pour la fonction publique, n’ont qu’un accès partiel à ces modèles, ce qui limite notre capacité de comprendre comment marche leur cerveau artificiel.

Laurence Devillers La recherche s’est emparée de ce sujet avec le projet public-privé Bloom (BigScience Large Open-science Open-access Multilingual Language Model), qui a précisément pour but d’explorer les limites de ces grands modèles génératifs. Ce projet de science ouverte a rallié un millier de chercheurs et chercheuses grâce aux moyens du ministère français de l’Enseignement supérieur et de la Recherche, du grand équipement national de calcul intensif du CNRS, et au supercalculateur Jean-Zay d’Orsay, l’équipement le plus puissant de France. Le projet Bloom a été monté en Europe. De l’argent a été dépensé. Mais qu’attendent donc l’Europe, la France, l’Allemagne pour parler d’une seule voix pour produire leur chat, pour que les chercheurs entrent dans la boucle et essaient d’avancer ? Je m’occupe de normalisation pour le projet de régulation de l’intelligence artificielle de l’Union européenne (AI Act) dans un groupe chargé de ses conséquences sociétales. Nous nous rendons compte à quel point nous avons besoin de faire de la recherche, besoin d’un cadre global de normalisation et de comités d’éthique.

Outre le domaine de la recherche scientifique, comment les dimensions éthique et juridique peuvent-elles intervenir pour réglementer, encadrer et maîtriser ces nouveaux outils ?

Imane Bello Étant donné l’écart entre la compréhension du public et celle des experts, il y a un travail à faire en matière d’enseignement et de démocratisation. L’éthique doit être l’affaire de tous : il faut que l’ensemble de la société puisse s’exprimer au sujet de l’orientation que prend l’innovation. C’est essentiel au regard des conséquences sur nos écosystèmes. Ensuite, cela passe aussi par la réglementation et une régulation européenne, actuellement en débat à Bruxelles.

Avec ChatGPT, des métiers vont-ils disparaître ? D’autres vont-ils émerger ?

Laurence Devillers Il y a des humains derrière tout ça. ChatGPT utilise un apprentissage grâce à des formateurs humains. Le modèle est optimisé à partir d’interventions humaines. Parmi les nouveaux métiers à développer en urgence, on peut citer les éthiciens de l’IA ou « médecin éthicien », l’éducateur de robot, le vérificateur de données.

Jean-Gabriel Ganascia Il est difficile de dire dès à présent quels métiers vont disparaître. Oui, des tâches seront automatisées. Mais ChatGPT ne peut pas remplacer, par exemple, le métier de journaliste.

Stefano Palminteri Il faut parler d’une évolution des tâches. Ce système ne peut pas écrire l’article d’un journaliste ou une publication d’un scientifique, mais il peut aider à la rédaction et la traduction. Seules, ces machines ne marchent pas si bien que cela, il faut une interaction avec du personnel humain pour en tirer le maximum. Cela demandera des ajustements, comme pour l’Internet ou le smartphone.

Poutine avait déclaré en 2017 devant des étudiants : « Celui qui contrôle l’IA domine le monde. » Qu’en pensez-vous ?

Jean-Gabriel Ganascia Il y a des enjeux politiques vraiment majeurs. Contrôler l’IA, ce sont des enjeux de pouvoir. Derrière les aspects éthiques et juridiques, il y a des nouvelles formes de domination, un féodalisme en train de s’imposer particulièrement sur le cyberespace. Il est temps pour l’Europe et pour son indépendance de se réveiller, de prendre conscience de tels enjeux. Les grands acteurs de l’Internet se livrent à une compétition féroce pour conquérir et dominer ces nouveaux marchés.

Laurence Devillers Ce réveil, nous devons absolument l’avoir : journalistes, professeurs, chercheurs. C’est l’ensemble de la société qui doit se réveiller.

Stefano Palminteri Nous devons donner des moyens plus importants à la recherche fondamentale publique. Les études sur ces systèmes sont très coûteuses. Seules des entreprises privées sont en mesure de mobiliser les capitaux nécessaires à leur création. Outre le manque de financement, on risque de manquer de talents, car un chercheur chez Google est payé quatre fois plus qu’un chercheur au CNRS. Il faut une vision, une vraie politique sur le sujet, tant au niveau national, qu’européen et au-delà pour empêcher la monopolisation de l’étude et du développement de ces systèmes.

Imane Bello La réglementation européenne et son influence extraterritoriale sont des éléments importants. Le règlement général sur la protection des données, par exemple, a influencé de nombreuses réglementations internationales. À quel point l’Europe peut-elle influencer la façon dont ces systèmes peuvent être utilisés, notamment à l’extérieur des frontières ? Le sujet est en discussion au niveau de l’UE.

Jean-Gabriel Ganascia Il n’est pas évident que la réglementation européenne suffise face à des enjeux de pouvoir. Ce ne sont pas les quelques amendes infligées aux grands acteurs parmi les Gafam qui vont impacter leurs chiffres d’affaires.

Laurence Devillers On manque de scientifiques dans nos gouvernements successifs et de sciences mathématiques et informatiques dans les cursus à l’école. Il faut également débattre à l’école dès maintenant sur les usages du numérique et de l’IA. Nous ne pouvons pas nous permettre de manquer un tournant majeur aussi décisif. Tout va se jouer dans dix ans. Si nous ne faisons rien, nous n’aurons pas les ingénieurs dont nous aurons besoin pour une économie numérique forte respectant nos valeurs éthiques. Peut-être le gouvernement va-t-il se décider à prendre sérieusement à cœur ce sujet.

Stefano Palminteri Pour être positif, avoir réussi à créer des choses si complexes, c’est un résultat dont l’humanité peut être fière, comme aller sur la Lune ou éradiquer une maladie. Pour tirer le mieux de cette technologie, nous avons cependant besoin de formation, de pluridisciplinarité plus que jamais : ingénierie, psychologie, éthique, droit, etc. J’en parle à mes enfants afin qu’ils soient préparés et responsabilisés, mais les parents seuls ne peuvent pas tout.

Adblock test (Why?)

En savoir plus et une source d'actualités ( ChatGPT, gadget ou révolution technologique ? - L'Humanité )
https://ift.tt/qf7RYNm
gadget

Bagikan Berita Ini

0 Response to "ChatGPT, gadget ou révolution technologique ? - L'Humanité"

Post a Comment

Powered by Blogger.