<![CDATA[ IA Insustentável: a inteligência artificial está a desperdiçar o nosso tempo ]]>
![<![CDATA[ IA Insustentável: a inteligência artificial está a desperdiçar o nosso tempo ]]>](/_next/image?url=https%3A%2F%2Fcdn.sabado.pt%2Fimages%2F2024-10%2Fimg_1200x676uu2024-10-02-16-48-46-723617.png&w=1920&q=100)
Il était évident que cela allait arriver. Pourtant, non seulement nous ne pensions pas que cela arriverait si vite, mais nous imaginions encore moins que ce serait si réel et intense.
L'intelligence artificielle s'est développée à une vitesse fulgurante et a envahi presque tous les aspects de nos vies avec une avidité transformatrice difficile à suivre. Elle consomme tout et chacun, devenant une menace à plusieurs niveaux, et la seule raison pour laquelle elle ne nous vole pas tous nos emplois est que, la plupart du temps, elle réfléchit, mais pas beaucoup.
Depuis 2023, avec la popularisation d'outils génératifs comme ChatGPT, Copilot et Gemini, l'IA s'est répandue dans de nombreux domaines, notamment l'éducation, le marketing, les médias et la santé. Sa croissance a été si rapide qu'en 2025, la Commission européenne a approuvé l'AI Act, le premier règlement européen sur l'intelligence artificielle, signe que cette technologie est passée du statut de promesse à celui d'enjeu politique et éthique central. Tout aussi insatiable dans sa capacité d'évolution, elle est aussi débordante d'ambition, étendant son champ d'action au-delà de ses capacités réelles. Et elle commet des erreurs. Elle nous frustre et nous fait penser qu'après tout, elle n'est pas si utile que ça.
On oublie souvent que pour utiliser des outils d'intelligence artificielle, il est nécessaire, dans la plupart des situations et des plateformes, de pouvoir produire un ensemble d'instructions détaillées et objectives pour guider le processus. Il s'agit d'un exercice de réflexion structurée, et non d'un simple gain de productivité. Pour y parvenir, il est également nécessaire de comprendre et d'apprendre le fonctionnement d'un algorithme, même intelligent.
Lorsque nous ignorons les sujets que nous demandons à l'IA de traiter, la vérification représente un défi supplémentaire. Il est en effet prouvé que lorsqu'elle ne sait pas, elle invente. Lorsqu'elle ne comprend pas, elle interprète librement et produit des résultats très éloignés des instructions initiales. Cela pourrait être amusant, si cela ne prenait pas parfois plus de temps que nous n'en consacrerions à la tâche elle-même. Une étude de l'Université de Stanford a montré que 40 % des professionnels américains perdent environ deux heures à corriger chaque erreur dans un contenu généré par l'IA. Et, malgré le doublement du recours à l'intelligence artificielle depuis 2023, un rapport du MIT indique que 95 % des entreprises ne constatent pas de réels gains d'efficacité.
Dans ce contexte, l'utilisation de l'IA est perçue comme une contrainte, souvent motivée par la peur de prendre du retard plutôt que par la véritable utilité de la technologie. On pense rarement à enseigner l'outil ou à apprendre à créer des instructions cohérentes et standardisées. Chacun l'utilise comme il (croit) savoir le faire, puis les résultats sont copiés sans vérification, et nos vies se transforment en une réunion qui aurait pu être un e-mail. Ironiquement, même cet e-mail n'est pas clair. Comme il ne l'était pas, nous avons plus de travail.
Ces études démontrent également que la façon dont nous percevons l'IA détermine son impact : si nous l'utilisons pour soutenir la pensée humaine, elle favorise la recherche et la créativité ; si nous la considérons comme un substitut, le résultat est différent. Elle crée du bruit.
Au Portugal, cette tendance se répète : les écoles et les universités expérimentent l’IA générative dans des contextes d’enseignement et d’évaluation, mais sans orientation cohérente ; et de nombreuses entreprises intègrent des outils automatisés sans fournir de formation numérique à leurs employés.
Parfois, j'essaie de tester ma théorie selon laquelle, malgré tant de progrès, nous sommes, ou souhaitons être, engagés dans un processus de régression. Je crois qu'au vu de la rapidité avec laquelle évolue le monde moderne, la seule option est de revenir en arrière.
Internet est né comme un espace de démocratisation universelle, un espace où chacun pouvait s'exprimer. Cette promesse s'est évanouie. Aujourd'hui, entre algorithmes et intelligence artificielle, nous ignorons qui écrit, qui parle ou qui manipule les récits. Ils parlent comme nous, parfois mieux que nous, s'exprimant avec éloquence et gagnant en crédibilité. Nous ignorons qui ils sont, quels sont leurs objectifs, ce qu'ils veulent. Tout est devenu flou, et dans ce brouillard, nous ne savons plus à qui faire confiance. La désinformation automatisée, alimentée par l'IA, est d'ores et déjà l'un des plus grands risques identifiés par le Forum économique mondial pour 2025. Cela ressemble à un scénario dantesque que les séries de science-fiction dépeignent si bien et que la réalité commence à documenter. À qui faire confiance ? À l'e-mail rédigé par l'intelligence artificielle ou au message qu'un collègue vient d'envoyer ? Où commence l'un et où finit l'autre ? Dans cette ambiguïté, la vraie question n'est peut-être pas de savoir si l'IA est utile ou inutile, mais si nous allons lui céder la place dans notre réflexion.
sabado