IL y a quelques semaines une vidéo a circulé sur les réseaux sociaux montrant le premier Président de la République tunisienne, Habib Bourguiba, en train de faire un discours en excellent espagnol comme si c’était sa langue maternelle.
La vidéo visiblement réalisée dans un pays européen explique ensuite de quelle manière l’intelligence artificielle a été utilisée pour saisir la vraie voix de Bourguiba, la « faire parler » en espagnol, puis la remettre sur les lèvres de l’ancien président tunisien. Le mouvement des lèvres était en parfaite harmonie avec le langage corporel. L’effet était saisissant ! La même voix, le même débit, et le même « gestus social ».
Ceux qui ont connu le leader et suivi ses discours auraient avalé la pilule, en croyant que le discours était peut-être prononcé en Espagne. La vidéo explique aussi qu’elle aurait pu le faire parler n’importe quelle langue avec le même succès. C’est dangereux, extrêmement dangereux à notre avis.
Les retombées de cette vidéo ont eu lieu en Tunisie une semaine plus tard. L’affaire a défrayé la chronique, puisqu’il s’agit du premier acte d’injustice commis par l’IA. La semaine dernière, une fonctionnaire dans une municipalité a été renvoyée de son poste, à ses dires.
La fonctionnaire explique dans une vidéo qu’elle n’a jamais prononcé les mots qui ont causé son renvoi et que c’est une citoyenne qui est venue dans son guichet qui aurait enregistré sa voix en appliquant les techniques de l’intelligence artificielle, elle aurait déformé son discours en l’utilisant contre elle. La fonctionnaire en question dit avoir subi une injustice et voudrait porter plainte. Selon quelle loi ou selon quel article ? Notre arsenal juridique est-il bien outillé pour faire face à ce genre de forfaits ?
Avec l’inauguration du premier centre d’innovation en intelligence artificielle, en Afrique et au Moyen-Orient, « Novation city », la Tunisie vient d’entrer dans une nouvelle ère, celle des technologies. Il est donc primordial de réglementer l’usage de l’intelligence artificielle pour protéger les droits des victimes potentielles, car il ne s’agit pas seulement d’une simple technologie, mais d’une innovation qui imite le comportement humain et les dérives pourraient être dangereuses. Chez nous, ça a commencé déjà par l’imitation des voix…