Accueil Economie Supplément Economique Intégration de l’IA dans le monde du travail | Sadok Hammami, professeur à l’Institut de Presse et des Sciences de l’Information et chercheur : «Le débat sur l’IA ne doit pas être monopolisé par les ingénieurs»

Intégration de l’IA dans le monde du travail | Sadok Hammami, professeur à l’Institut de Presse et des Sciences de l’Information et chercheur : «Le débat sur l’IA ne doit pas être monopolisé par les ingénieurs»

 

Dans un entretien, nous avons eu l’opportunité de discuter avec Sadok Hammami, professeur à l’Institut de presse et des sciences de l’information et chercheur de renom. Spécialiste des enjeux contemporains, M. Hammami nous guide à travers les complexités de ce domaine en pleine expansion, en développant sa propre réflexion, à mi-chemin entre les enjeux technologiques et ceux éthiques.

D’abord, «l’intelligence artificielle» est un terme qui devient à la mode, générique, parfois galvaudé, si nous pouvons définir ce terme-là, que peut-on dire ?

Définir l’intelligence artificielle est complexe, car elle englobe divers domaines, technologies et applications. En tant que discipline enseignée à l’université, elle se présente également sous forme de technologies et de systèmes concrets. En termes généraux, on peut la considérer comme une technologie visant à reproduire des comportements humains. Il est courant de distinguer entre l’intelligence artificielle forte, qui peut rivaliser avec l’intelligence humaine (bien que nous n’ayons pas encore atteint ce stade), et l’intelligence artificielle faible, intégrée dans nos dispositifs technologiques quotidiens, tels que les voitures, les téléviseurs intelligents, les applications intelligentes, la reconnaissance vocale et la traduction instantanée.

L’intelligence artificielle implique souvent des machines apprenantes, où les algorithmes utilisent des données pour imiter le comportement humain et apprendre sur l’utilisateur. En Tunisie, certaines opinions affirment que l’intelligence artificielle ne peut pas remplacer l’intelligence humaine, une idée étayée par des tests philosophiques montrant que l’intelligence artificielle ne peut pas atteindre les standards et la qualité de la pensée humaine complexe.

Dans le domaine du journalisme, l’intelligence artificielle peut être un soutien précieux en offrant des avantages, tels que la reconnaissance vocale, la traduction instantanée, la recommandation d’articles et la synthèse de statistiques. Cependant, les chartes d’éthique en matière d’intelligence artificielle soulignent toujours la nécessité d’un contrôle, d’une modération et d’une surveillance humains, même lorsque ces technologies sont utilisées pour faciliter le travail des journalistes. Il est important de noter que les contenus entièrement générés par l’intelligence artificielle sont strictement interdits par les chartes régulant la pratique journalistique.

Faut-il, selon vous, percevoir l’IA comme une menace ou une opportunité, surtout pour les pays non développés, comme le nôtre. Les inégalités mondiales ne risquent-elles pas de se creuser davantage ?

Dans la présentation que j’ai effectuée lors du congrès de l’ASBU sur l’intelligence artificielle et les médias, j’ai abordé la question cruciale de savoir si l’IA doit être perçue comme une menace ou une opportunité, en particulier pour les pays en développement, tels que le nôtre, et si elle risque d’accentuer les inégalités mondiales.

Le débat sur la régulation de l’intelligence artificielle s’inscrit dans une discussion plus vaste sur la régulation des technologies numériques, amorcée dès 2010 aux États-Unis. Certains chercheurs ont suggéré que les réseaux sociaux pourraient être considérés comme des services d’utilité sociale, comparables à l’eau ou à l’électricité, en raison de leur rôle croissant dans les interactions sociales. Cette perspective, défendue par des chercheurs, tels que Danah Boyd, souligne la nécessité de réguler ces plateformes devenues indispensables à la vie sociale.

Des ouvrages, tels que «The Filter Bubble» de Eli Pariser, mettent en lumière l’impact significatif des algorithmes des réseaux sociaux sur la façon dont nous accédons à l’information, soulignant le risque de nous isoler socialement en restreignant notre vision du monde. L’affaire Cambridge Analytica en 2018 a également attiré l’attention sur l’utilisation des données personnelles à des fins politiques, suscitant des préoccupations quant à l’influence sur les processus électoraux.

L’année 2023 a été marquée par plusieurs initiatives internationales visant à encadrer l’intelligence, artificielle de manière éthique et sécurisée. Des sommets, tels que l’AI Safety Summit, ont exploré des moyens de garantir que l’IA respecte les valeurs humaines et ne menace pas les droits fondamentaux. Des rapports, tels que « l’Artificial Intelligence Index Report » de l’université Stanford, soulignent l’importance de réguler l’IA dans le respect de l’humanité.

Des décrets, tels que celui émis par le président Biden en octobre 2023, organisent l’utilisation de l’intelligence artificielle en protégeant les données personnelles et en diminuant les risques pour la société. Des déclarations du G7 et du secrétaire général des Nations unies en faveur de la gouvernance de l’IA, montrent une prise de conscience mondiale de la nécessité de réguler ces technologies.

Cependant, un rapport récent du forum de Davos souligne les risques potentiels liés à l’utilisation d’IA générative, notamment sous forme de contenus synthétiques (vidéos, audio, photos), pouvant affecter gravement les processus électoraux, alimenter les conflits politiques et représenter une menace pour les libertés publiques. Il met en garde contre la désinformation et la mésinformation orchestrées par l’IA, tant par les Etats et les partis politiques que par les citoyens eux-mêmes, soulignant ainsi la nécessité urgente d’une régulation et d’une gouvernance appropriées pour prévenir ces risques.

L’intelligence artificielle se trouve clairement à la convergence de divers risques. Ces risques englobent des préoccupations liées à la sécurité, des menaces liées à l’utilisation abusive de données personnelles, ainsi que des enjeux relatifs à la désinformation, entre autres.

Malgré les initiatives à l’échelle mondiale pour «tenter» de réguler l’expansion de l’IA, croyez-vous qu’elle soit vraiment possible cette régulation, le législateur peut-il aller contre le sens de l’histoire ?

La possibilité de réguler l’expansion de l’intelligence artificielle est indéniable, comme le démontrent les initiatives à l’échelle mondiale. Des efforts significatifs sont déployés, notamment aux Etats-Unis et en Europe, où une nouvelle loi sur l’intelligence artificielle est sur le point d’entrer en vigueur. Les autorités européennes, fières d’être les pionnières dans la régulation mondiale de l’IA par le biais d’une loi, montrent que le législateur peut, en effet, prendre des mesures pour encadrer ces technologies émergentes.

Parallèlement à la législation formelle, l’autorégulation joue également un rôle crucial dans la régulation de l’IA. De nombreux médias mettent en place des chartes éditoriales et éthiques pour guider l’utilisation de l’intelligence artificielle. Un exemple notable est la charte récemment publiée par le conseil de déontologie journalistique français, un document exhaustif de 12 pages définissant les précautions d’usage et les lignes rouges pour l’utilisation de l’IA dans le journalisme.

Cette régulation interdit, par exemple, la production de contenus entièrement générés par l’IA, tels que des vidéos ou des photos, car ils contournent la médiation journalistique essentielle à la profession.

Le rapport établit des distinctions entre les risques faibles, les usages à risque modéré et les usages non acceptables, illustrant ainsi la complexité de la régulation. Certes, ce processus n’est pas sans difficulté, notamment en raison de la nature mondiale de nombreuses applications d’IA. Les défis rencontrés dans la régulation de l’IA reflètent également ceux observés dans la régulation des réseaux sociaux, tous deux étant confrontés à des applications mondialisées qui transcendent les frontières nationales.

En dépit des obstacles, la mise en place de régulations formelles et informelles montre que le législateur peut, et doit, jouer un rôle clé pour encadrer le développement de l’intelligence artificielle, assurant ainsi son utilisation éthique et responsable au service de l’humanité.

L’IA va-t-elle profondément changer la nature de notre monde? changer notre perception de la démocratie, de la pluralité, de la liberté d’expression, et même notre perception de ce que peut être la vérité ?

Répondre à cette question est toujours délicat, et je vais prendre l’exemple des réseaux sociaux pour illustrer cette complexité. Initialement présentés comme des outils révolutionnaires susceptibles d’améliorer la communication, la compréhension mutuelle, et de favoriser l’émancipation politique des citoyens, les réseaux sociaux ont également révélé leur face sombre. Bien qu’ils aient été des vecteurs d’émancipation politique, ils ont également contribué au terrorisme, à la désinformation et à la polarisation idéologique.

Cette dualité de la technologie, décrite par le philosophe français Bernard Stiegler comme ayant une nature « pharmacologique » — potentiellement bénéfique ou toxique — souligne l’importance cruciale de la régulation. La nécessité de réguler découle du fait que la technologie, y compris l’intelligence artificielle, est intrinsèquement ambivalente.

En ce qui concerne la perception de la vérité, l’IA pourrait effectivement la transformer. Elle fait partie d’un ensemble de technologies ayant des répercussions sur la polarisation idéologique, contribuant à ce que l’on appelle la « post-vérité ».

Dans cette ère, la vérité devient problématique car les acteurs politiques et les citoyens ont la capacité de générer des interprétations alternatives et même de produire des contenus et des faits alternatifs. Cette capacité conduit à une polarisation idéologique, à la création de chambres d’écho, à l’isolement et à la division au sein de la société.

Le concept de « guerre civile de l’information », que je développerai dans un prochain article que je publierai, met en lumière le rôle des technologies numériques, y compris l’IA, dans la création de mondes parallèles, fermés et alimentés par des vérités alternatives. Ceci favorise la division sociale, la fragmentation de la société, et impacte notre capacité collective à discerner la vérité.

Dans une étude récente sur la désinformation politique, nous avons exploré comment les technologies numériques, dont l’IA, sont exploitées pour propager des mensonges qui influent sur l’opinion publique et contribuent à la désinformation. Ainsi, l’impact de l’IA sur notre perception de la démocratie, de la pluralité, de la liberté d’expression et de la vérité pourrait être significatif et nécessite une approche attentive, régulatrice et éthique pour atténuer ses éventuels effets négatifs.

Dans mon intervention au congrès de l’ASBU, j’ai soulevé un point crucial concernant les normes dans le contexte de la régulation de l’intelligence artificielle. La régulation, par sa nature, s’inscrit dans un cadre normatif, étant donné que le droit lui-même est normatif. Ainsi, la régulation de l’intelligence artificielle est influencée par des impératifs politiques, institutionnels et liés aux valeurs.

Dans lesdites démocraties libérales, elle doit se conformer à des normes internationales, telles que celles promues par des organisations comme les Nations unies, l’Unesco, le Conseil de l’Europe, ainsi que des organismes d’autorégulation dans les médias.

Toutes ces recommandations soulignent l’importance de ne pas compromettre la liberté d’expression, la protection de la pluralité et les droits humains lors de la régulation de l’intelligence artificielle. Comme le rapport de Stanford University le mentionne, l’intelligence artificielle doit être développée « with human in mind » (en ayant l’humain à l’esprit), mettant en avant l’exigence fondamentale du respect de l’humanité.

Par ailleurs, il est impératif d’initier un débat public sur l’intelligence artificielle. Ce débat ne doit pas être confisqué ou monopolisé par les ingénieurs, comme cela a été le cas avec le débat sur Internet. Une telle monopolisation risquerait d’occulter les aspects politiques, sociologiques et culturels essentiels à la régulation de l’intelligence artificielle à travers le monde.

Bien que la Tunisie ne soit pas une puissance majeure en matière d’intelligence artificielle, il est crucial de reconnaître les impacts potentiels de cette technologie sur la vie politique, l’opinion publique et l’espace public. Il est également souligné que, malgré l’importance de la désinformation propagée par les réseaux sociaux dans la vie politique, les débats à ce sujet sont encore insuffisants. Cela souligne l’urgence d’engager une discussion approfondie sur les implications de l’intelligence artificielle dans ces domaines cruciaux.

Vous animez souvent des conférences, vous réfléchissez énormément à des questions contemporaines, ne craignez-vous pas que votre travail soit remplacé par une IA capable d’élaborer une réflexion sur un sujet complexe en seulement quelques secondes?

Non, je ne crains pas d’être remplacé par une intelligence artificielle (IA) dans mes activités de conférences et de réflexion sur des questions contemporaines. Enseigner ne se résume pas à une simple transmission de connaissances puisées dans des sources. Mon expérience démontre que l’enseignant joue un rôle bien plus complexe, impliquant l’explication, l’orientation et surtout la contextualisation.

La contextualisation revêt une importance capitale dans l’enseignement. Est-ce qu’une IA, même générale, pourrait expliquer de manière approfondie des situations spécifiques telles que le journalisme en Tunisie, le fonctionnement de la communication politique dans le contexte tunisien, ou encore le rôle des médias dans les processus électoraux ? Des contextes singuliers exigent des connaissances tout aussi singulières, et l’interaction humaine reste essentielle.

Il ne faut pas aborder la question en termes de substitution, où l’IA prendrait la place de l’humain. Les choses ne se passent pas ainsi. Bien que certains technophiles puissent avancer des thèses optimistes sur les capacités miraculeuses de la technologie, il est crucial de reconnaître que l’Internet et la numérisation n’ont pas résolu tous les problèmes de l’administration, de l’éducation, ou des médias en Tunisie.

Les retards dans la digitalisation de services essentiels ne sont pas dus à des problèmes technologiques, mais plutôt à des enjeux humains, tels que des problèmes politiques, d’organisation et de modèle économique. Ainsi, la technologie, y compris l’intelligence artificielle, peut offrir des possibilités, mais elle ne peut pas remplacer la prise de décision humaine ni résoudre des problèmes institutionnels qui nécessitent des réformes basées sur des choix humains et des politiques publiques bien pensées.

Charger plus d'articles
Charger plus par Karim Ben Said
Charger plus dans Supplément Economique

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *