Search & Find
DiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporama
Accueil
ICube   >   Actualités : [Savoir(s) 47] Nous risquons de voir des troubles de l’adaptation - J. Foucher (ICube-CEMNIS)

[Savoir(s) 47] Nous risquons de voir des troubles de l’adaptation - J. Foucher (ICube-CEMNIS)

janv. 9 2024

Le dernier numéro N° 47 de décembre de Savoir(s), le magazine d'information de l'Université de Strasbourg, est consacré à l'IA : aux frontières de l’intelligence ?

Ce dernier est consultable en ligne via ce LIEN et en téléchargement ICI. De nombreux chercheurs du laboratoire y sont mis en avant.
Jack Foucher, neurologue, membre du laboratoire ICube et du Centre de neuro-modulation non-invasive de Strasbourg (Cemnis) donne des éléments de réponse aux questions rélatives aux IA, sont-elles dangereuses pour notre santé ? (p37 - article rédigé par Julie Giorgi).

« Nous risquons de voir des troubles de l’adaptation »

Influentes aujourd’hui, omniprésentes demain, les intelligences artificielles seraient-elles dangereuses pour notre santé mentale ? Éléments de réponse avec Jack Foucher, neurologue et psychiatre, membre du Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (ICube) et du Centre de neuro-modulation non-invasive de Strasbourg (Cemnis).

Est-ce que les intelligences artificielles peuvent provoquer des pathologies psychiatriques ?
Je n’emploierai pas le terme de pathologie. Dans une pathologie, on sous-entend habituellement qu’un processus cérébral serait dysfonctionnel. Rien de tel dans ce cas. En revanche, les différentes formes d’IA entraînent et vont entraîner des changements dans notre environnement social et professionnel qui ont toute chance de générer des troubles de l’adaptation.Ces derniers seront d'autant plus importants que ces changements seront brutaux, sans possibilité d'anticipation "stratégique" et encore moins d'adaptation biologique.

Un bel exemple nous est donné par les effets de la virtualisation des interactions sociales qui a connu un boom durant la période de confinement. On commence tout juste à en voir certains effets pervers. Ce n’est rien de nouveau, toutes les transformations sociales se sont accompagnées d’une phase d’adaptation. La nouveauté néanmoins est peut être la rapidité avec laquelle s’enchaînent ces changements et leur caractère parfois radical. Mais encore une fois, il ne s’agit pas de maladies à proprement parler et je parle là de choses qui sortent donc de mon champ d’expertise.

À partir de quand cela peut être considéré comme dangereux ?
C’est déjà dangereux aujourd’hui… Enfin plus à l’échelle sociale qu’à celle de l’individu. Les IA qui mettent les gens en rapport sur la base d’idées communes, ou qui suggèrent telle vidéo plutôt qu’une autre en rapport avec ses goûts ou ses croyances, enferment les personnes dans des sous-cultures où elles ne sont exposées qu’à des pensées analogues à la leur et ne les confronte plus à des pensées alternatives – c’est particulièrement frappant sur YouTube comme sur TikTok pour des actualités clivantes comme la guerre en Ukraine.

Dans le meilleur des cas, ça ne fait que renforcer notre tendance naturelle au biais de confirmation. Au pire, ces sous-cultures banalisent la radicalité et la violence et développent carrément de fausses informations – les fameuses « vérités alternatives » qui sont pour le scientifique que je tente d’être un sujet de perplexité mais aussi de véritable inquiétude pour l’avenir.

Comment se protéger sauf à ne plus utiliser ces réseaux sociaux ?
À l’échelle individuelle, comprendre comment ces IA amplifient nos biais cognitifs et apprendre quelques stratégies d’hygiène intellectuelle serait déjà un premier pas. Mais il me semble impossible de demander à chaque citoyen de vérifier les faits qu’il énonce ou de s’assurer de la fiabilité de ses sources. En plus la majorité des individus ne s’y intéressent pas. Quand on est capable de gober les vérités alternatives comme celles avancées par Donald Trump, on se moque de savoir ce qui est vrai ou faux.

On pourrait demander une meilleure modération ; l’IA pourrait aussi servir à cela. Mais cela suppose d’imposer une norme, une éthique ou un sens moral qui ne semble pas pouvoir s’apprendre sur la base de nos échanges comme en témoigne les dérapages des IA génératives type « transformer » comme ChatGPT. Nos relations avec l’IA seront ce que nous en ferons ; l’IA sera comme l’atome, il faudra nous y adapter et peut-être l’encadrer.

Julie Giorgi

© C. Schröder, photothèque de l'unistra

À la une

Le dépôt des candidatures pour les postes d’enseignants-chercheur est ouvert. Les offres sont...

Flux RSS

Flux RSS