L’article explore le développement d’agents d’utilisation de l’ordinateur (AUE) par des entreprises comme Google, OpenAI et Anthropic, destinés à automatiser des tâches sur le web. Bien que ces systèmes promettent d’améliorer l’efficacité, des préoccupations surgissent concernant leur fiabilité, les erreurs potentielles et la responsabilité en cas de problèmes. Avec des sondages montrant un désir de régulations, l’auteur questionne la sensibilisation des utilisateurs aux risques liés à l’utilisation croissante de l’intelligence artificielle.
Si vous pensiez que l’intelligence artificielle n’était qu’une mode technologique passagère, comme les téléviseurs 3D, vous devrez reconsidérer cette idée. Les entreprises majeures de technologie, notamment Google, OpenAI et Anthropic, développent activement des agents capables de gérer votre PC et d’effectuer des tâches en ligne pour vous, comme remplir des formulaires, réaliser des recherches ou même faire du shopping.
Les utilisateurs réguliers de ChatGPT savent que cet outil peut fournir des informations précieuses, résumer des documents ou recommander des produits d’achat. Dans le cadre de cette évolution, la prochaine étape logique serait de permettre à l’IA de comprendre vos demandes et d’exécuter des tâches de manière autonome.
Actuellement, Google se concentre sur ce développement, comme l’indique un rapport publié par The Information. Son nouveau projet, connu sous le nom de Project Jarvis, sera intégré au dernier modèle de langage, Gemini LLM, et devrait être directement accessible via le navigateur Chrome. L’idée est que cet agent prendra le contrôle de votre navigation pour accomplir toutes les tâches que vous lui confiez.
OpenAI travaille également sur un système appelé « Strawberry », conçu pour permettre à son IA de naviguer de manière autonome sur Internet et d’effectuer des recherches approfondies. De plus, Anthropic a annoncé que son modèle Claude 3.5 Sonnet pourrait fonctionner sur un ordinateur par le biais de son API, offrant aux développeurs la possibilité de lui faire interagir avec l’interface utilisateur quotidienne, comme cliquer sur des boutons et taper du texte.
Bien que ces innovations présentent des avantages indéniables, elles suscitent également certaines préoccupations. Par exemple, l’IA générative n’est pas infaillible, et des problèmes peuvent survenir lorsqu’on l’utilise pour des recherches en ligne.
Anthropic reconnaît que son agent peut parfois montrer des limites et engender des erreurs, ce qui pose des questions importantes sur sa fiabilité. Une préoccupation majeure est de savoir qui serait tenu responsable en cas de problème causé par l’IA. Imaginez que vous demandiez à l’IA de gérer vos achats en ligne, et découvrez plus tard qu’elle a effectué des commandes excessives, vidant ainsi votre compte en banque.
Est-ce qu’une entreprise d’IA vous rembourserait dans une telle situation ? Si la réponse est oui, il est probable que de nombreux utilisateurs technophiles hésitent à utiliser de tels agents d’achat. Cependant, la majorité des utilisateurs de PC ne sont pas toujours conscients des implications techniques et des dangers potentiels liés à ces systèmes.
Des sondages révèlent que certains appellent à des régulations strictes pour éviter que les IA ne deviennent trop puissantes. Lorsque ces agents se propageront, se demandera-t-on si les utilisateurs souhaiteront des mesures similaires pour les encadrer ? Mon intuition me dit que la plupart des utilisateurs considéreront ces outils comme pratiques, sans prendre en compte les risques pour leur sécurité personnelle et leurs données.
Il n’est pas nécessaire de s’inquiéter, mais il est important de rester informé.