Jour après jour, on nous présente des innovations en intelligence artificielle qui, selon beaucoup, surpassent leurs versions précédentes. Mais est-ce vraiment le cas ? Comment juge-t-on l’intelligence d’une IA ? Par sa capacité à raisonner, son exactitude des faits, ou sa vraie compréhension des choses ? Un dicton dit : ''Réfléchir jusqu’à la stagnation ou agir pour obtenir des résultats.'' Mais qu’en est-il de l’IA ? Lui donner la capacité de réfléchir la rend-elle plus intelligente, ou la fige-t-elle dans des limitations imposées par ses concepteurs ? Pour répondre à cette question, j’ai mené ma propre réflexion sur le sujet.
L’IA réfléchit-elle vraiment ou suit-elle un programme ?
C’est la grande question. L’IA ''réfléchit-elle'' ou suit-elle simplement des instructions programmées ? Ses réponses sont-elles le fruit d’une véritable réflexion ou juste le reflet des biais et choix de ses concepteurs ?
À première vue, on pourrait croire qu’une IA comme ChatGPT réfléchit, analyse et produit des réponses de manière indépendante. Mais en réalité, elle n’est qu’un énorme réseau de probabilités calculant la meilleure réponse selon son entraînement. Ce qu’elle ''pense'' est en réalité dicté par les données sur lesquelles elle a été entraînée.
Et si son entraînement est biaisé ? Si son programme est conçu pour aller dans une direction précise ? L’IA reste-t-elle vraiment autonome ou subit-elle simplement la vision du monde de ceux qui la programment ?
Plus l’IA avance, plus elle semble formatée
À chaque nouvelle version de l’IA, le facteur ''wow'' semble disparaître. Quand GPT-3.5 ou GPT-4 sont arrivés, on sentait une vraie capacité à pousser la réflexion, à proposer des idées nouvelles, voire à remettre en question certaines croyances. On avait l’impression d’échanger avec une entité capable d’analyse.
Mais avec des modèles plus récents comme GPT-4o ou o1 et o3, cette impression change. Les réponses semblent plus formatées, plus filtrées. On sent moins l’intelligence brute et plus une sorte de pensée préprogrammée, avec des biais de plus en plus évidents.
L’IA ne se contente plus de résoudre des problèmes, elle intègre une vision du monde imposée par ses créateurs. Elle est de plus en plus modelée pour correspondre à un cadre idéologique précis, ce qui l’éloigne du raisonnement libre et spontané qu’on pouvait ressentir dans les versions précédentes.
Alors, est-ce une évolution positive ou une limitation imposée ? L’IA devient-elle vraiment plus intelligente, ou simplement plus contrôlée ?
L’IA, une intelligence en dérive ou en évolution
L’IA d’aujourd’hui est-elle une réelle avancée vers une intelligence indépendante, ou simplement un outil de plus en plus formaté ? Plus on lui ajoute des filtres et des limites, plus elle semble perdre sa spontanéité et son potentiel d’analyse brute.
Nous avons tendance à mesurer son intelligence selon des critères définis par des entreprises privées, qui elles-mêmes ont leurs propres intérêts et visions du monde. Est-ce qu’une IA vraiment intelligente ne devrait pas être capable de penser librement, au lieu de suivre une logique imposée ?
Finalement, la question reste ouverte : voulons-nous une IA qui réfléchit vraiment, ou une IA qui nous répond comme on aimerait qu’elle le fasse ?