[ad_1]
L’outil d’IA convivial ChatGPT a attiré des centaines de millions d’utilisateurs depuis son lancement en novembre et devrait perturber les industries du monde entier. Ces derniers jours, le contenu de l’IA généré par le bot a été utilisé au Congrès américain, dans les tribunaux colombiens et dans un discours du président israélien. L’adoption à grande échelle est-elle inévitable – et est-elle éthique ?
Dans une salutation enregistrée pour une convention sur la cybersécurité à Tel Aviv mercredi, le président israélien Isaac Herzog a commencé un discours qui devait entrer dans l’histoire : -industrie technologique. Au cours des dernières décennies, Israël a toujours été à la pointe du progrès technologique, et nos réalisations dans les domaines de la cybersécurité, de l’intelligence artificielle (IA) et du big data sont vraiment impressionnantes.
À la surprise des entrepreneurs présents à Cybertech Global, le président a ensuite révélé que ses commentaires avaient été rédigés par le bot AI ChatGPT, faisant de lui le premier leader mondial publiquement connu à utiliser l’intelligence artificielle pour rédiger un discours.
Mais pas le premier politicien à le faire. Une semaine plus tôt, le membre du Congrès américain Jake Auchincloss a lu un discours également généré par ChatGPT sur le parquet de la Chambre des représentants. Une autre première, destinée à attirer l’attention sur le nouvel outil d’IA au succès retentissant au Congrès « afin que nous ayons maintenant un débat sur une politique ciblée pour l’IA », a déclaré Auchincloss à CNN.
L’IA pourrait devenir une technologie à usage général : fondamentale dans tous les secteurs. J’ai prononcé hier le premier discours du Congrès rédigé par l’IA en guise d’appel à l’action. Les décideurs politiques doivent être déterminés et proactifs. pic.twitter.com/8zyxSR02Y6
– Représentant Jake Auchincloss (@RepAuchincloss) 26 janvier 2023
Depuis son lancement en novembre 2022, ChatGPT (créé par la société californienne OpenAI) aurait atteint 100 millions d’utilisateurs actifs par mois, ce qui en fait l’application grand public à la croissance la plus rapide de l’histoire.
L’outil d’IA convivial utilise des données en ligne pour générer des réponses instantanées et humaines aux requêtes des utilisateurs. Sa capacité à parcourir Internet à la recherche d’informations et à fournir des réponses rapides en fait un rival potentiel du moteur de recherche de Google, mais il est également capable de produire du contenu écrit sur n’importe quel sujet, dans n’importe quel format – des essais, des discours et des poèmes au code informatique – dans secondes.
L’outil est actuellement gratuit et comptait environ 13 millions de visiteurs uniques par jour en janvier, selon un rapport du géant bancaire suisse UBS.
Une partie de son attrait de masse est « une ingénierie extrêmement bonne – elle évolue très bien avec des millions de personnes qui l’utilisent », déclare Mirco Musolesi, professeur d’informatique à l’University College London. « Mais il a aussi une très bonne formation en termes de qualité des données utilisées mais aussi de la façon dont les créateurs ont réussi à traiter les aspects problématiques. »
Dans le passé, des technologies similaires ont fait que les bots se sont nourris d’un régime de publications sur les réseaux sociaux prenant un ton agressif et offensant. Ce n’est pas le cas pour ChatGPT, et bon nombre de ses millions d’utilisateurs s’engagent avec l’outil par curiosité ou pour le divertissement.
« Les humains ont cette idée d’être très spéciaux, mais ensuite vous voyez cette machine qui est capable de produire quelque chose de très similaire à nous », dit Musolesi. « Nous savions que c’était probablement possible, mais en fait, le voir est très intéressant. »
Un « super propagateur de désinformation » ?
Pourtant, l’impact potentiel de la mise à disposition d’une telle IA sophistiquée à un public de masse pour la première fois n’est pas clair, et différents secteurs de l’éducation, du droit, de la science et des affaires sont prêts à être perturbés.
Les écoles et les collèges du monde entier ont rapidement interdit aux étudiants d’utiliser ChatGPT pour éviter la tricherie ou le plagiat.
>> Une grande université française interdit aux étudiants d’utiliser ChatGPT
Les revues scientifiques ont également interdit au bot d’être répertorié comme co-auteur d’articles, craignant que des erreurs commises par l’outil ne se retrouvent dans le débat scientifique.
OpenAI a averti que le bot peut faire des erreurs. Cependant, un rapport du chien de garde des médias NewsGuard a déclaré sur des sujets tels que Covid-19, l’Ukraine et les fusillades dans les écoles, ChatGPT a livré des affirmations « éloquentes, fausses et trompeuses » 80% du temps.
« Pour quiconque n’est pas familier avec les problèmes ou les sujets couverts par ce contenu, les résultats pourraient facilement apparaître comme légitimes, voire faisant autorité », a déclaré NewsGuard. Il a appelé l’outil « le prochain grand super diffuseur de désinformation ».
Même ainsi, en Colombie, un juge a annoncé mardi qu’il avait utilisé le chatbot AI pour aider à rendre une décision dans une affaire de droits médicaux d’enfants.
Le juge Juan Manuel Padilla a déclaré à Blu Radio qu’il avait demandé à ChatGPT si un mineur autiste devait être exonéré du paiement des frais de thérapie, entre autres questions.
Le bot a répondu : « Oui, c’est exact. Selon la réglementation colombienne, les mineurs diagnostiqués autistes sont exemptés du paiement des frais pour leurs thérapies. »
Padilla a statué en faveur de l’enfant – comme le bot l’a conseillé. « En posant des questions à l’application, nous ne cessons pas d’être des juges [and] des êtres pensants », a-t-il déclaré à la radio. « Je soupçonne que beaucoup de mes collègues vont se joindre à eux et commencer à construire leurs décisions de manière éthique avec l’aide de l’intelligence artificielle ».
Bien qu’il ait averti que le bot devrait être utilisé comme un facilitateur permettant de gagner du temps, plutôt que « dans le but de remplacer les juges », les critiques ont déclaré que ce n’était ni responsable ou éthique utiliser un bot capable de fournir des informations erronées comme outil légal.
Expert en réglementation et gouvernance de l’intelligence artificielle, le professeur Juan David Gutierrez de l’Université Rosario a déclaré qu’il avait posé les mêmes questions à ChatGPT et obtenu des réponses différentes. Dans un tweet, il a appelé à une formation urgente à la « culture numérique » pour les juges.
Un leader du marché
Malgré les risques potentiels, la propagation de ChatGPT semble inévitable. Musolesi s’attend à ce qu’il soit utilisé « largement » à des fins positives et négatives – avec le risque de désinformation et d’utilisation abusive vient la promesse que l’information et la technologie deviendront plus accessibles à un plus grand nombre de personnes.
OpenAI a reçu un investissement de plusieurs millions de dollars de Microsoft en janvier qui verra ChatGPT intégré dans une version premium de l’application de messagerie Teams, offrant des services tels que la génération automatique de notes de réunion.
Microsoft a annoncé son intention d’ajouter la technologie de ChatGPT à tous ses produits, préparant ainsi le terrain pour que l’entreprise devienne un leader dans le domaine, devant la société mère de Google, Alphabet.
>> Résultats d’Alphabet, d’Amazon et d’Apple : les bénéfices de la tech touchés par la morosité
La gratuité de l’outil a été la clé de son succès actuel et futur. « C’était une énorme campagne de marketing », déclare Musolesi, « et lorsque les gens l’utilisent, ils améliorent l’ensemble de données à utiliser pour la prochaine version car ils fournissent ces commentaires. »
Malgré tout, la société a lancé cette semaine une version payante du bot offrant un accès à de nouvelles fonctionnalités pour 20 $ par mois.
Un autre nouveau développement très attendu est un classificateur d’IA, un outil logiciel pour aider les gens à identifier quand un texte a été généré par l’intelligence artificielle.
OpenAI a déclaré dans un article de blog que, bien que l’outil ait été lancé cette semaine, il n’est pas encore « entièrement fiable ». Actuellement, il n’est capable d’identifier correctement les textes écrits par l’IA que 26 % du temps.
Mais l’entreprise s’attend à ce qu’elle s’améliore avec la formation, en réduisant le potentiel de « campagnes de désinformation automatisées, en utilisant des outils d’IA pour la malhonnêteté académique et en positionnant un chatbot d’IA comme un humain ».
[ad_2]
Source link -33