Amazon avertit les employés de ne pas partager d’informations confidentielles avec ChatGPT après avoir vu des cas où sa réponse « correspond étroitement au matériel existant » de l’intérieur de l’entreprise


  • Un avocat d’Amazon a mis en garde les employés contre le partage d’informations confidentielles sur l’entreprise avec ChatGPT.
  • Les employés d’Amazon veulent l’utiliser pour le travail car cela améliore la productivité.
  • OpenAI, le créateur de ChatGPT, n’est pas transparent sur la façon dont il utilise les informations confidentielles de l’entreprise, selon un expert.

Le mois dernier, une chaîne Slack interne d’Amazon a été remplie de questions d’employés sur ChatGPT, l’outil d’intelligence artificielle qui a pris d’assaut le monde de la technologie depuis sa sortie fin novembre.

Certains ont demandé si Amazon disposait de conseils officiels sur l’utilisation de ChatGPT sur les appareils professionnels. D’autres se sont demandé s’ils étaient même autorisés à utiliser l’outil d’IA pour le travail. Une personne a exhorté l’unité cloud d’Amazon Web Services à publier sa position sur « l’utilisation acceptable des outils d’IA générative », comme ChatGPT.

Bientôt, une avocate d’entreprise d’Amazon est intervenue. Elle a averti les employés de ne fournir à ChatGPT « aucune information confidentielle d’Amazon (y compris le code Amazon sur lequel vous travaillez) », selon une capture d’écran du message vu par Insider.

L’avocat, conseiller juridique principal chez Amazon, a suggéré aux employés de suivre les politiques existantes de l’entreprise en matière de conflits d’intérêts et de confidentialité, car il y a eu des « cas » de réponses ChatGPT ressemblant à des données internes d’Amazon.

« Ceci est important car vos entrées peuvent être utilisées comme données de formation pour une nouvelle itération de ChatGPT, et nous ne voudrions pas que sa sortie inclue ou ressemble à nos informations confidentielles (et j’ai déjà vu des cas où sa sortie correspond étroitement au matériel existant ) », a écrit l’avocat.

L’échange reflète l’un des nombreux nouveaux problèmes éthiques résultant de l’émergence soudaine de ChatGPT, l’outil d’IA conversationnel qui peut répondre aux invites avec des réponses nettement articulées et intelligentes. Sa prolifération rapide a le potentiel de bouleverser un certain nombre d’industries, dans les médias, les universités et les soins de santé, précipitant un effort frénétique pour lutter contre les cas d’utilisation du chatbot et leurs conséquences.

La question de savoir comment les informations confidentielles de l’entreprise sont partagées avec ChatGPT et ce qu’OpenAI, le créateur de l’outil d’IA, en fait, pourrait devenir une question épineuse à l’avenir. C’est particulièrement important pour Amazon car son principal concurrent, Microsoft, a beaucoup investi dans OpenAI, y compris une nouvelle ronde de financement cette semaine qui totaliserait 10 milliards de dollars.

« OpenAI est loin d’être transparent quant à la manière dont ils utilisent les données, mais si elles sont intégrées dans des données de formation, je m’attendrais à ce que les entreprises se demandent : après quelques mois d’utilisation généralisée de ChatGPT, sera-t-il possible d’extraire des informations d’entreprise privées avec intelligemment invites conçues ? » a déclaré Emily Bender, qui enseigne la linguistique informatique à l’Université de Washington.

Le porte-parole d’Amazon n’a pas répondu à une demande de commentaire. Le représentant d’OpenAI a indiqué la page FAQ de ChatGPT pour toute question concernant ses politiques de données et de confidentialité.

Certains employés d’Amazon utilisent déjà ChatGPT comme « assistant de codage »

Amazon a mis en place des garde-fous internes pour ChatGPT. Par exemple, lorsque les employés utilisent un appareil de travail pour accéder au site Web ChatGPT, un message d’avertissement apparaît, indiquant qu’ils sont sur le point de visiter un service tiers qui « peut ne pas être approuvé pour une utilisation par Amazon Security », selon des captures d’écran. vu par Insider.

Les employés du canal Slack ont ​​déclaré qu’ils pouvaient contourner ce message en cliquant simplement sur l’onglet « Reconnaître ». Le personnel a supposé que la fenêtre d’avertissement est là pour empêcher les employés de coller des informations confidentielles sur ChatGPT, d’autant plus qu’ils n’ont encore vu aucune politique de l’entreprise sur son utilisation interne.

Pourtant, certains Amazoniens utilisent déjà l’outil d’IA comme « assistant de codage » logiciel en lui demandant d’améliorer les lignes de code internes, selon les messages Slack vus par Insider.

« Je pense que ce serait génial de pouvoir l’utiliser directement maintenant », a écrit une personne sur la chaîne Slack. « Donc, tout conseil serait fantastique. »

« À la fois effrayé et excité »

Un autre employé a déclaré avoir partagé avec ChatGPT certaines des questions d’entretien d’Amazon pour un poste de codage ouvert. Le modèle a donné la bonne solution à plusieurs de ces questions techniques, selon les publications de cet employé sur Slack.

« Je suis à la fois effrayé et excité de voir quel impact cela aura sur la façon dont nous menons les entretiens de codage », a écrit ce membre du personnel sur Slack.

Dans l’ensemble, les employés d’Amazon du canal Slack étaient enthousiasmés par le potentiel de ChatGPT et se demandaient si Amazon travaillait sur un produit concurrent.

L’avocat d’entreprise qui a mis en garde les employés contre l’utilisation de ChatGPT a déclaré qu’Amazon développait largement une « technologie similaire », citant l’assistant vocal Alexa et le service de recommandation de code CodeWhisperer.

Un employé d’AWS a écrit que l’équipe Enterprise Support a récemment créé un petit groupe de travail en interne pour « comprendre l’impact de l’IA de chat avancée sur notre entreprise », selon les messages Slack. L’étude a révélé que ChatGPT « fait un très bon travail » pour répondre aux questions d’assistance AWS, y compris les plus difficiles comme le dépannage des problèmes de base de données Aurora. Il est également « excellent » pour créer du matériel de formation pour les examens AWS Certified Cloud Architect et « très bon » pour définir les objectifs de l’entreprise d’un client, ont déclaré les messages des employés Slack.

« Loin d’être transparent »

L’utilisation accrue de ChatGPT au travail soulève de sérieuses questions sur la manière dont OpenAI prévoit d’utiliser le matériel partagé avec l’outil d’IA, selon Bender de l’Université de Washington.

Les conditions d’utilisation d’OpenAI exigent que les utilisateurs acceptent que l’entreprise puisse utiliser toutes les entrées et sorties générées par les utilisateurs et ChatGPT. Il indique également qu’il supprime toutes les informations personnellement identifiables (PII) des données qu’il utilise.

Bender a déclaré qu’il est difficile de voir comment OpenAI identifie et supprime « en profondeur » les informations personnelles, étant donné l’échelle de croissance rapide de ChatGPT – il franchi 1 million d’utilisateurs dans la semaine suivant le lancement. Plus important encore, la propriété intellectuelle des entreprises ne fait probablement pas partie de ce qui est défini sous PII, a déclaré Bender.

Pour les employés d’Amazon, la confidentialité des données semble être le cadet de leurs soucis. Ils ont déclaré que l’utilisation du chatbot au travail avait conduit à « 10 fois la productivité » et beaucoup ont exprimé le désir de rejoindre des équipes internes développant des services similaires.

« S’il existe une initiative en cours pour créer un service similaire, je serais intéressé à consacrer du temps à aider à le construire si nécessaire », a écrit l’un des employés dans Slack.

Vous travaillez chez Amazon ? Vous avez un conseil ?

Contactez le journaliste Eugene Kim via les applications de messagerie cryptée Signal ou Telegram (+1-650-942-3061) ou email ([email protected]). Tendre la main à l’aide d’un appareil non professionnel. Consultez le guide source d’Insider pour d’autres conseils sur le partage d’informations en toute sécurité.





Source link -3