Customize this title in frenchLes intervieweurs techniques ne peuvent pas savoir quand les candidats utilisent ChatGPT pour tricher aux cycles de codage

Make this article seo compatible, Let there be subheadings for the article, be in french, create at least 700 words

UN historiquement difficile Le marché du travail pour les travailleurs technologiques, combiné à l’explosion de l’IA générative, pourrait entraîner une augmentation du nombre d’outils tels que ChatGPT utilisés pour passer rapidement les premières séries d’entretiens.

En tant que bilan à l’échelle de l’industrie avec ZIRPou « phénomène de taux d’intérêt zéro », continue, les travailleurs du secteur technologique touchés par des licenciements massifs tentent d’obtenir une pause là où ils le peuvent. Une possibilité est celle des cycles de codage d’un entretien d’embauche technique typique, au cours duquel les candidats sont invités par les intervieweurs à résoudre des problèmes techniques. Ces entretiens sont généralement menés par un responsable du recrutement pour une équipe ou une entreprise, et les problèmes proposés sont souvent tirés de ou basés sur la plateforme de préparation aux entretiens LeetCode. Ainsi, les candidats à un emploi peuvent facilement utiliser quelque chose comme ChatGPT pour tricher efficacement vers des solutions rapides, selon un expérience récente menée par interviewing.io, une plateforme populaire pour les simulations d’entretiens techniques et le recrutement dans l’industrie.

Non seulement il est facile d’utiliser ChatGPT pour réussir un cycle de codage typique d’un entretien technique, interviewing.io a découvert lors d’une expérience le mois dernier, basée sur 37 entretiens d’embauche technique, qu’aucun intervieweur ne pouvait dire quand un candidat avait utilisé ChatGPT pour répondre ou résoudre les problèmes proposés.

Aline Lerner, la fondatrice d’interviewing.io qui travaillait auparavant comme recruteuse technique et auparavant ingénieure, a déclaré à Business Insider que les personnes qui mènent des entretiens techniques aujourd’hui s’attendent à un type de « réponse parfaite » de la part des candidats. Cela conduit à des réponses fournies par quelque chose comme ChatGPT, qui est formé sur des informations récupérées sur Internet, y compris d’énormes quantités de problèmes de codage technique et de solutions de LeetCode, « pour paraître normal ».

« Maintenant, sans vraiment que ce soit de sa faute, un intervieweur peut avoir un parti pris contre le candidat qui résout réellement le problème pour la première fois », a déclaré Lerner, donnant une réponse moins raffinée mais plus créative à un problème.

Bien que personne n’ait été surpris ni même soupçonné d’avoir utilisé ChatGPT pendant le processus d’entretien, interviewing.io a constaté que ChatGPT était d’autant moins susceptible de donner des réponses correctes aux problèmes d’entretien proposés, plus ils étaient uniques.

Lorsque les problèmes de codage étaient pris mot pour mot à partir de LeetCode, les candidats utilisant ChatGPT les résolvaient correctement dans 73 % des cas, selon interviewing.io. Lorsque les problèmes LeetCode étaient légèrement modifiés, les réponses étaient toujours correctes dans 67 % du temps. Cependant, lorsqu’un problème était personnalisé, les réponses ChatGPT n’étaient correctes que 25 % du temps. C’est bien pire que la façon dont les candidats à un emploi technologique s’en sortent seuls. En s’appuyant sur leurs propres capacités, interviewing.io a constaté que les candidats à un emploi réussissaient les séries d’entretiens de codage dans 53 % des cas.

Malgré une augmentation du nombre de grandes entreprises technologiques utilisant principalement des outils d’IA générative internes pour aider les ingénieurs à écrire et à corriger le code plus rapidement (Meta utilise un outil appelé Metamate, autrefois appelé Code Compose ; Google vient de renommer son outil Oie; Microsoft utilise CoPilot), on attend encore largement des demandeurs d’emploi qu’ils effectuent ce travail seuls lors des entretiens. Cependant, une augmentation de la tricherie utilisant l’IA générative est en cours, et Lener affirme que le processus d’entretien technique moderne, du moins la façon dont fonctionnent les cycles de codage, est sur le point de s’arrêter à cause de cela.

« Jusqu’à il y a un an, c’était assez difficile de les tromper. Désormais, vous pouvez littéralement simplement le mettre dans ChatGPT et obtenir une réponse en temps réel. », a déclaré Lerner. « Et les outils vont s’améliorer, cela deviendra de plus en plus facile… il y aura donc plus de tricheurs, et nous le ferons. » atteint un point de rupture, et les entreprises devront faire le travail de création d’un nouveau processus.

Êtes-vous un employé technique ou quelqu’un avec un conseil ou une idée à partager ? Contactez Kali Hays à [email protected] ou sur l’application de messagerie sécurisée Signal au 949-280-0267. Contactez-nous en utilisant un appareil non professionnel.

Source link -57