Une inquiétude croissante - France Catholique
Edit Template
L'Église dans l'attente
Edit Template

Une inquiétude croissante

L’intelligence artificielle (IA) vient de faire une percée spectaculaire avec l’arrivée de ChatGPT, un outil disponible sur Internet, capable de rédiger automatiquement des textes précis sur tous les sujets ou presque. Cette révolution technologique soulève de nombreuses questions.
Copier le lien
ChatGPT inquiète aussi (surtout) pour ses conséquences politiques et anthropologiques.

ChatGPT inquiète aussi (surtout) pour ses conséquences politiques et anthropologiques.

© Gerd Altmann / Pixabay

«France Catholique est un hebdomadaire catholique français créé en 1945. Il traite de sujets variés tels que la religion, la politique, la culture, l’actualité nationale et internationale, tout en proposant des réflexions sur l’éthique et les valeurs chrétiennes. Il se veut indépendant et ouvert au dialogue avec toutes les sensibilités. »

Ce petit texte n’a pas été rédigé par un être humain, mais par une intelligence artificielle, le fameux « agent conversationnel » ChatGPT, à qui l’on a demandé d’expliquer ce qu’est France Catholique. Le résultat, on le voit, est plus qu’ambivalent.

Casse sociale

De prime abord, le texte est correctement rédigé, dépourvu de fautes, assez complet tout en étant synthétique. Mais, à y regarder de plus près, il comporte non seulement une erreur factuelle (l’année de la fondation de France Catholique est 1924), mais sur le fond, il ne propose aucune information singulière, distinctive : la définition proposée pourrait correspondre à l’ensemble des titres de la presse chrétienne… La réponse est d’une « banalité affligeante » pour reprendre l’expression utilisée dans Le Monde (03/05) par l’historien Jean-Baptiste Fressoz, à l’issue d’une tentative d’utilisation de ChatGPT pour ses propres travaux. C’est pourtant cet outil qui, en quelques mois, s’est imposé dans les entreprises, les universités, les agences de marketing ou de programmation informatique, non sans soulever de nombreuses interrogations.

Les partisans de ChatGPT utilisent des arguments déjà connus pour défendre et promouvoir cette technologie. En libérant du « temps de cerveau », elle permettrait à ses utilisateurs de consacrer leurs disponibilités nouvelles à des activités créatrices, aux loisirs ou à leur vie familiale. Vieille antienne déjà servie pour valoriser la robotisation industrielle ou la généralisation des outils digitaux mobiles.

Dans les faits, la presse révèle les effets concrets de l’arrivée de ChatGPT qui compte déjà près de 200 millions d’utilisateurs sur la planète. Interrogé par Bloomberg (01/05), le patron d’IBM Arvind Krishna a ainsi annoncé envisager de remplacer 30 % de ses effectifs par l’IA. « 7 % des emplois actuels pourraient disparaître. Des emplois de cols blancs, qui vont subir exactement le même sort que les cols bleus à partir du début des années 1980 », observait François Lenglet sur RTL (11/04), sur la base d’une étude réalisée par Goldman Sachs.

Manipulation de l’opinion

Au-delà de son impact social, ChatGPT inquiète aussi (surtout) pour ses conséquences politiques et anthropologiques. Détournements malveillants, exploitation de données personnelles, programmation de logiciels pirates : les dérives se sont multipliées en un clin d’œil et les alertes se multiplient…

Au chapitre politique, Dominique Albertini, dans un dossier publié dans Libération (03/05), met le doigt sur les utilisations possibles de cette technologie pour manipuler l’opinion : « Fausse vidéo d’un Macron décrétant la loi martiale, fausse image d’un ministre agressant un quidam, faux sons d’un opposant réclamant des fonds à un agent étranger : la limite n’est plus la technique, mais l’imagination des faussaires. » Au chapitre anthropologique, le site Genéthique (03/05) se fait l’écho d’une nouvelle annoncée par des chercheurs du Texas, lesquels estiment envisageable de lire dans la pensée d’un individu au moyen d’une technologie associée à ChatGPT. Les exploitations malveillantes d’un tel outil sont potentiellement affolantes.

Les mea culpa se multiplient. Dans le New York Times (01/05), Geoffrey Hinton, l’un des pères de l’intelligence artificielle contemporaine sur laquelle il travaille depuis près de cinquante ans, a annoncé avoir quitté Google, pour pouvoir alerter sur les dangers de cette technologie.

Compte tenu de ces menaces et de ces alertes, faut-il opter pour une approche régulatrice, sinon coercitive, de cette technologie ? Sans doute. C’est la raison pour laquelle Joe Biden recevait le 4 mai les dirigeants des principaux acteurs de l’IA. Mais sans doute ne faut-il pas se faire d’illusion non plus, tant la loi de Gabor – « tout ce qui est techniquement faisable sera fait tôt ou tard » – ne semble plus connaître la moindre exception…