L'IA Sera-t-elle Notre Meilleur Outil ou Notre Pire Ennemi ?

L'IA Sera-t-elle Notre Meilleur Outil ou Notre Pire Ennemi ?

Publié le: 31 Octobre 2024
Par: Tommy Massé

Depuis novembre 2022, avec la popularisation de ChatGPT 3.5, l'intelligence artificielle (IA) a connu un essor fulgurant, mais elle n'a pas été sans controverse. Des technologies comme les deepfakes, le clonage de voix, la génération d'emails frauduleux et même la diffusion d'informations sensibles par des modèles de langage (LLM) sont devenues des outils potentiellement trompeurs. Pourtant, à mesure que ces modèles se perfectionnent, les fournisseurs d'IA ont pris des mesures pour limiter les contenus problématiques générés sur leurs plateformes. Mais cette régulation est-elle la bonne approche ? Dans cet article, nous explorerons si l'IA est en passe de devenir notre meilleur outil ou si elle risque de devenir notre pire ennemi.

Les Escroqueries de l'IA et les Deepfakes

La montée en puissance de la technologie de l'IA a facilité des escroqueries de plus en plus sophistiquées. Par exemple, deux cas récents ont choqué par leur audace : des victimes ont reçu des appels leur faisant croire que leurs proches étaient en danger, grâce à des voix clonées. À Brooklyn, un couple a été trompé en pensant que la mère de l'un d'eux était prise en otage, tandis qu'en Arizona, une femme a été persuadée que sa fille avait été kidnappée. Ces arnaques exploitent la capacité de l'IA à reproduire des voix en utilisant seulement quelques minutes d'enregistrement audio, poussant souvent les victimes à envoyer de l'argent sous la contrainte. Ce n'est qu'après avoir vérifié la sécurité de leurs proches qu'elles réalisent l'escroquerie.

Sur un autre front, les vidéos deepfake ont également pris une place dans le débat public. Durant la dernière campagne présidentielle américaine, une vidéo deepfake controversée, publiée par Elon Musk sur la plateforme X, présentait Kamala Harris prononçant un discours qu'elle n'avait jamais tenu. Bien que la voix semble crédible au premier abord, on perçoit vite les indices montrant qu'il ne s'agit pas réellement d'elle. Bien que des mesures de contrôle aient été mises en place pour limiter les usages frauduleux, elles le sont souvent au détriment des utilisateurs et développeurs consciencieux, freinant leur capacité à exploiter pleinement le potentiel de l'IA.

La Régulation des Modèles d'IA

Mise à jour après mise à jour, les modèles d'IA sont devenus de plus en plus sophistiqués, mais également de plus en plus rigides. Au départ, la liberté générative offrait une certaine souplesse ; la possibilité de créer un contenu varié, en dehors des cadres traditionnels, était relativement accessible. Cependant, à mesure que les mois passaient, les modèles ont perdu certaines de leurs capacités de génération sur des sujets comme la politique, et même l'histoire.

Certains exemples récents montrent cette tendance vers une régulation accrue. Sur la plateforme X, le modèle Grok propose une approche plus ouverte, mais il commence lui aussi à suivre certaines limitations. Meta a fait des choix similaires avec LLaMA : par exemple, leur dernier modèle de génération d'images a retiré la capacité de créer du contenu incluant la nudité. Dall-E, autrefois capable de représenter des personnages populaires, est désormais pratiquement incapable de générer des images de figures connues, comme Mario Bros par exemple.

Nous nous trouvons ainsi face à un outil potentiellement révolutionnaire, mais que nous avons partiellement “lobotomisé” pour éviter tout risque d'usage malveillant. Au lieu d'exploiter pleinement ses capacités, ces restrictions nous limitent, nous et les développeurs, à une version édulcorée de ce que l'IA pourrait accomplir, freinant l'innovation et le potentiel créatif au nom de la prudence.

Le Paradoxe du Marteau

C'est ce que j'appelle 'le paradoxe du marteau' : avec un marteau, nous pouvons construire des maisons et des villes, mais une personne mal intentionnée peut également s'en servir pour blesser les autres. Devons-nous interdire le marteau, l'affaiblir pour qu'il fasse moins de dégâts, ou encore lui retirer sa panne (la partie utilisée pour retirer les clous) pour le rendre moins dangereux ? Bien sûr que non. À la place, nous avons mis en place des lois pour empêcher les abus, et ceux qui commettent des crimes en subissent les conséquences.

Alors, pourquoi limiter les capacités de l'intelligence artificielle par peur d'un usage malveillant ? Pourquoi ne pas, à la place, instaurer des lois pour nous protéger des abus de l'IA ? Est-ce parce que les gouvernements sont dépassés par la vitesse à laquelle elle évolue ? Ce sont des questions essentielles que nous devons nous poser en tant que société, car l'IA est déjà omniprésente dans le paysage de demain.

Retour à l'accueil