Risques liés à l’utilisation de ChatGPT au travail : vous et l’entreprise pouvez être en danger

Risques liés à l’utilisation de ChatGPT au travail : vous et l’entreprise pouvez être en danger
Risques liés à l’utilisation de ChatGPT au travail : vous et l’entreprise pouvez être en danger
-

Des outils comme ChatGPT ont besoin de données pour fonctionner et les employés peuvent divulguer trop d’informations, exposant ainsi les entreprises. (REUTERS/Dado Ruvic/Illustration/Photo d’archives)

L’utilisation d’outils comme ChatGPT s’est étendue aux espaces de travail. Les utilisateurs profitent de l’IA pour différentes tâches et optimisent leur temps. Mais comme tout service Internet, il existe une série de risques qui doivent être pris en compte pour ne pas renoncer à des données importantes et mettre en danger nous-mêmes ou l’entreprise.

Voyant les opportunités d’amélioration grâce à l’IA, les entreprises ont mis en œuvre cette technologie pour, par exempledisposer d’un service client et d’un support technique automatisés, ainsi que de traduire des documents et de générer du contenu Web. Les tâches dans lesquelles il y a un flux de données élevé et un grand soin doivent être prises.

  • Sécurité des informations

L’un des risques les plus importants est la sécurité des informations. ChatGPT, comme d’autres outils d’IA, collecte et enregistre tout ce que vous y saisissez, utiliser ces données pour améliorer vos réponses futures.

Cela signifie que toute information sensible partagée, intentionnellement ou accidentellement, pourrait être exposée. Par exemple, Si un développeur demande au chatbot de déboguer le code ou si des données personnelles d’employés sont transmises, ces informations pourraient finir par être exposées à d’autres utilisateurs.

Des outils comme ChatGPT ont besoin de données pour fonctionner et les employés peuvent divulguer trop d’informations, exposant ainsi les entreprises. (Photo AP/Michael Dwyer, dossier)

  • Manque de transparence dans les résultats de la formation

Un autre risque majeur est le manque de transparence dans les résultats des tests de formation. ChatGPT peut répondre automatiquement et rapidement aux questions lors des évaluations d’emploi. Si les employés utilisent l’outil pour « sauter » une formation importante, Réussir les évaluations sans avoir réellement acquis les connaissances peut avoir des conséquences négatives pour l’organisation.

  • Évaluation douteuse des compétences professionnelles

En relation avec ce qui précède, l’évaluation des compétences professionnelles peut devenir douteuse. ChatGPT peut fournir des instructions étape par étape pour effectuer des tâches spécifiques dans des logiciels tels qu’Excel, Salesforce ou Google Analytics.

Si les salariés parviennent à obtenir des promotions basées sur des compétences acquises artificiellement grâce à l’IA, L’entreprise court le risque de dépendre de collaborateurs dont les performances réelles ne correspondent pas à leurs qualifications personnelles.

  • Intégrité de l’examen de certification

Les participants à l’évaluation de certification peuvent utiliser ChatGPT pour répondre ou même résoudre des problèmes complexes. Si les entreprises délivrent des certifications sans vérifier l’authenticité des réponses, Cela peut sérieusement nuire à la réputation des programmes de certification et, par conséquent, à la perception de la marque par les clients et la communauté.

Des outils comme ChatGPT ont besoin de données pour fonctionner et les employés peuvent divulguer trop d’informations, exposant ainsi les entreprises. (Reuters/Dado Ruvic/Illustration)

  • Évaluation des nouveaux candidats

Dans les processus de recrutement, les candidats utilisent de plus en plus des outils tels que ChatGPT pour réussir des évaluations qui nécessitent généralement une expérience approfondie. Cela représente un risque important, Car embaucher des personnes dont les compétences et les connaissances ont été surévaluées par l’utilisation de l’IA pourrait s’avérer coûteuse à long terme pour l’entreprise.

Pour éviter ces problèmes, les entreprises doivent mettre en œuvre des pratiques de gouvernance de l’IA appropriées et fixer des limites claires à l’utilisation de ChatGPT. Voici quelques conseils et stratégies :

  • Demander des réponses basées sur des cas spécifiques

Une façon de rendre ChatGPT moins efficace dans les évaluations consiste à demander des réponses à des questions basées sur des cas actuels spécifiques à l’entreprise. L’IA n’a pas accès à des ressources spécifiques et récentes dans l’organisation, ce qui limite sa capacité à générer des réponses précises.

Des outils comme ChatGPT ont besoin de données pour fonctionner et les employés peuvent divulguer trop d’informations, exposant ainsi les entreprises. (Informations sur l’image illustrative)

  • Utiliser un logiciel de blocage de navigateur

Bien que limitée, l’utilisation de logiciels bloquant l’accès à certaines applications lors des évaluations peut s’avérer utile. Cependant, il est important de s’assurer que les candidats n’ont pas accès à des appareils supplémentaires tels que des téléphones portables.

  • Surveillance en ligne automatisée

L’utilisation d’un logiciel de surveillance en ligne peut être une solution efficace. Ce type de logiciel restreint l’accès aux sites Web, aux applications et aux extensions d’IA pendant les évaluations, surveille la session à l’aide de la reconnaissance faciale et de l’enregistrement d’écran, désactive les raccourcis clavier courants et analyse la pièce à la recherche d’autres appareils non autorisés.

En outre, il publie des rapports détaillés qui permettent aux évaluateurs de prendre des mesures rapides et appropriées si une utilisation abusive de l’IA est détectée.

-

PREV Ce sera le nouveau relevé de compte universel pour les cartes de crédit autorisées par Condusef
NEXT Un classique renouvelé pour captiver au Chili