Imaginez : comme chaque jour, vous vous rendez chez votre kiosquier pour acheter Le Monde. Plein d’enthousiasme, il vous annonce ce matin : « Je vais vous simplifier les choses, j’ai lu Le Monde, d’ailleurs j’ai lu toute la presse dans la nuit, j’ai même avalé toute l’actualité internationale ! Je vais vous faire un résumé de ce que j’ai retenu en quelques minutes. » Et ce kiosquier vous égrène une somme d’actualités dont il imagine qu’elles peuvent vous intéresser. Comment a-t-il choisi ces informations parmi tout ce qu’il a lu ? Sait-il reconnaître des fausses informations ? Quels sont ses biais idéologiques ? Et, finalement, quelle confiance pouvez-vous accorder à ce résumé ? Cette situation n’est pas de la science-fiction : c’est justement ce que font les intelligences artificielles (IA) génératives en se positionnant entre nous et l’ensemble des contenus qu’elles ont « digérés ».
Outre les enjeux de respect du droit d’auteur et de lutte contre la désinformation, auxquels il est bien évidemment essentiel d’apporter des réponses, les IA génératives, en devenant de nouveaux intermédiaires et de nouveaux médiateurs de l’information, pourraient devenir la porte d’entrée de notre accès à Internet et aux services numériques. Selon certains, elles pourraient même remplacer les traditionnels moteurs de recherche.
En contrôlant directement l’accès au savoir et son partage au cœur du modèle d’Internet, les IA génératives menacent donc notre liberté de choix dans l’accès aux contenus en ligne ainsi que notre liberté d’expression. Il s’agit d’une remise en cause fondamentale du principe d’ouverture d’Internet : tous les fournisseurs d’accès à Internet ont l’interdiction de discriminer l’accès aux contenus qui circulent dans leurs réseaux.
Pour un « droit au paramétrage »
En France, l’Arcep veille à ce que ce principe d’un Internet ouvert soit respecté. C’est pourquoi elle alerte aujourd’hui sur l’impact des IA génératives sur ces enjeux, à travers la réponse qu’elle a apportée à la consultation publique de la Commission européenne.
Comment agir ?
Mobilisons d’abord les pistes du rapport de la commission sur l’IA missionnée en 2023 par le gouvernement : formons les citoyens et les entreprises à ces nouveaux outils, soutenons le développement des IA ouvertes et évaluables par des tiers, exigeons plus de transparence sur les données utilisées pour l’apprentissage et sur les résultats des évaluations, sans quoi la confiance ne sera pas au rendez-vous. Ayons également un regard lucide sur les partenariats qui se nouent en ce moment. Et ne soyons pas naïfs : les mêmes géants qui occupent une place prépondérante dans nos vies numériques ont la capacité de déterminer demain les conditions de circulation de l’information ; soyons sûrs que les mêmes causes produiront les mêmes effets.
Si nous voulons profiter du formidable potentiel de l’IA pour la santé, la compréhension du climat, l’éducation, l’économie et la société en général, assurons-nous qu’Internet demeure un espace ouvert d’innovations et de libertés. Réclamons un « droit au paramétrage » pour que chacun puisse contrôler les services d’IA qu’il utilise, comme le propose la Commission nationale consultative des droits de l’homme. C’est ainsi que nous (re)prendrons le contrôle au bénéfice d’un avenir numérique désirable, tout en conservant notre capacité à acheter chaque jour Le Monde ou un autre journal, et à faire la causette avec notre kiosquier préféré.