
On s’émerveille de leur intelligence, on rit de leur bêtise. Le succès des agents conversationnels comme ChatGPT ou Perplexity ne se dément pas : ces systèmes appuyés sur l’intelligence artificielle (IA) générative comptent des millions d’utilisateurs fidèles. Mais que fait-on, exactement, lorsqu’on sollicite quotidiennement ces grands modèles de langage ? Et peut-on penser avec eux ? La philosophe Anne Alombert, maîtresse de conférences à l’université Paris-VIII et autrice de De la bêtise artificielle (Allia, 144 pages, 8,50 euros) en débat avec Jonathan Bourguignon, auteur d’Internet, année zéro (Divergences, 2021) et cofondateur de Squadra, un studio de création d’agents intelligents.
Par rapport aux précédentes innovations comme l’écriture, l’imprimerie ou, plus récemment, les moteurs de recherche, l’IA est-elle d’une nature extraordinairement différente ?
Jonathan Bourguignon : Chaque découverte qui a un lien avec nos capacités cognitives soulève des inquiétudes, c’est vrai depuis l’invention de l’écriture. Lorsque le livre de poche est arrivé en France, en 1953, il se trouvait des gens pour prédire que la production de masse d’une littérature bas de gamme allait ravager les esprits – et le même argument était déjà utilisé contre l’imprimerie à la fin du XVe siècle, ou contre Internet dans les années 1990. Dans les trois cas, le public avait soudainement accès à une masse de connaissances inédites, là où les critiques considéraient qu’il valait mieux privilégier l’accès de tous à un nombre restreint de textes importants.
Les algorithmes et l’IA générative n’échappent pas à ce schéma, mais ils génèrent aussi une nouvelle inquiétude, celle d’une dépossession.
Il vous reste 92.75% de cet article à lire. La suite est réservée aux abonnés.