Nouvelle méthode pour perdre un débat en ligne : l’assistance de l’IA.

Nouvelle méthode pour perdre un débat en ligne : l'assistance de l'IA.

Au cours de ses vingt années de carrière journalistique, l’auteur aborde la tendance croissante à faire appel à l’intelligence artificielle, illustrée par des exemples concrets d’interactions avec ChatGPT. Cette confiance aveugle en des systèmes non conçus pour répondre à des questions complexes soulève des préoccupations, notamment en matière de santé et de conseils personnels. L’auteur souligne le risque d’accepter des réponses générées par l’IA comme vérités, mettant en évidence l’incertitude et le désespoir qui en découlent.

Au fil de mes deux décennies en tant que journaliste, j’ai été témoin d’événements marquants qui ont profondément influencé ma perception de la condition humaine. Cependant, un phénomène récent m’a particulièrement interpellé.

La Montée de l’Appel à l’IA

Il est probable que vous ayez remarqué la tendance croissante de l’appel à l’intelligence artificielle. Ce terme désigne une erreur logique qui peut être résumée en trois mots : « J’ai demandé à ChatGPT. »

  • J’ai demandé à ChatGPT de m’aider à comprendre ma maladie mystérieuse.
  • J’ai demandé à ChatGPT de me donner des conseils d’amour tough love pour évoluer en tant qu’individu.
  • J’ai utilisé ChatGPT pour élaborer une routine de soins de la peau sur mesure.
  • ChatGPT a avancé un argument selon lequel l’éloignement relationnel de Dieu (la damnation) est logiquement possible, en se basant sur des principes abstraits sans prendre en compte la nature des relations humaines.
  • Il existe tant d’agences gouvernementales que même le gouvernement ne sait pas combien il y en a ! [basé entièrement sur une réponse de Grok, documentée en capture d’écran]

Une Confiance Injustifiée en l’IA

Bien que toutes les formulations ne soient pas identiques, l’idée centrale reste la même : une confiance aveugle dans des systèmes techniques non conçus pour répondre à ces attentes, suivie d’une attente que les autres partagent cette foi. Si je participais encore à des discussions en ligne, c’est ce genre de phénomène que je remettrais en question.

Face à ce recours à l’IA, je ne peux m’empêcher de penser : Est-ce que tu es vraiment sérieux ? Au fil du temps, la phrase « J’ai demandé à ChatGPT » est devenue un signal d’alarme, me faisant perdre tout intérêt pour la conversation. Je l’associe désormais à d’autres erreurs logiques, comme l’homme de paille ou l’argument ad hominem. La fréquence croissante de ces appels à l’IA me pousse pourtant à m’interroger davantage.

Pour illustrer cela, prenons l’exemple de Musk, qui fait la promotion de son produit tout en engageant une forme de propagande. D’autres exemples soulèvent des problématiques plus complexes.

Ce qui me dérange le plus, c’est le désespoir sous-jacent dans ces demandes. Par exemple, lorsqu’une personne se tourne vers ChatGPT pour des réponses à une maladie non diagnostiquée qu’elle n’a pas pu obtenir d’un professionnel de la santé. De même, ceux qui recherchent des conseils de « tough love » semblent souvent surpris par des réponses vagues, qui ne sont rien de plus que des clichés largement disponibles. Pour une routine de soins de la peau, il est évident qu’une simple recherche dans un magazine aurait pu suffire.

Concernant les arguments sur la damnation, ils me laissent perplexe : l’enfer existe et j’y suis déjà.

Les réponses fournies par ChatGPT peuvent sembler convaincantes et bien élaborées, mais cela ne garantit pas leur véracité. Ces systèmes, comme le savent ceux qui ont déjà exploré les modèles de langage, génèrent des phrases basées sur des modèles trouvés dans de vastes bases de données. Bien que certaines réponses soient correctes, comme « la capitale de la Californie est Sacramento », cela ne signifie pas que tout ce qu’ils produisent est fiable.

Le véritable problème réside dans le fait que ChatGPT n’est pas fiable. Bien que ses réponses puissent sembler détaillées, cela ne garantit pas leur exactitude, laissant souvent les utilisateurs dans une zone d’incertitude.