Les employés utilisent ChatGPT gratuit sans vigilance, les entreprises doivent former à l'IA
ChatGPT gratuit utilisé sans vigilance, entreprises doivent former

L'utilisation imprudente de ChatGPT gratuit par les salariés inquiète

Dans les entreprises françaises, un phénomène préoccupant se développe : de nombreux employés utilisent régulièrement la version gratuite de ChatGPT pour leurs tâches professionnelles, sans prendre les précautions nécessaires concernant les données qu'ils y déversent. Cette pratique, souvent réalisée à l'insu des services informatiques, expose les organisations à des risques considérables de fuite d'informations sensibles.

Des données professionnelles exposées sans protection

Les conversations avec l'intelligence artificielle contiennent fréquemment des informations confidentielles : stratégies commerciales, données clients, projets en développement, ou encore des éléments de propriété intellectuelle. Or, la version gratuite de ChatGPT ne garantit pas la confidentialité de ces échanges. Les données partagées peuvent être utilisées pour entraîner les modèles d'OpenAI, et donc potentiellement accessibles à d'autres utilisateurs ou même à des concurrents.

Plusieurs cas ont déjà été documentés où des employés ont involontairement divulgué :

Bannière large Pickt — app de listes de courses collaboratives pour Telegram
  • Des listes de clients avec leurs coordonnées
  • Des contrats en cours de négociation
  • Des codes sources de logiciels
  • Des stratégies marketing non encore dévoilées

Les entreprises doivent réagir rapidement

Face à cette situation, les experts en cybersécurité et en intelligence artificielle tirent la sonnette d'alarme. Les dirigeants d'entreprise doivent absolument mettre en place des politiques claires concernant l'utilisation des outils d'IA générative, et surtout former leurs équipes aux bonnes pratiques.

La formation devrait couvrir plusieurs aspects essentiels :

  1. La reconnaissance des données sensibles qui ne doivent jamais être partagées avec des IA publiques
  2. L'utilisation des versions professionnelles sécurisées lorsqu'elles existent
  3. Les alternatives internes développées spécifiquement pour l'entreprise
  4. Les conséquences juridiques et financières des fuites de données

Un défi de gouvernance et de culture d'entreprise

Au-delà des aspects techniques, c'est toute la culture d'entreprise qui doit évoluer. Les salariés, souvent enthousiastes face aux possibilités offertes par ChatGPT, ne mesurent pas toujours les risques associés. Les services informatiques doivent passer d'une posture restrictive à une approche pédagogique, expliquant pourquoi certaines pratiques sont dangereuses plutôt que de simplement les interdire.

Certaines organisations commencent à développer leurs propres chatbots internes, basés sur des modèles d'IA mais hébergés sur leurs serveurs sécurisés. Cette solution permet de bénéficier des avantages de l'intelligence artificielle tout en maîtrisant complètement les données échangées.

Le phénomène n'est pas près de s'arrêter : l'utilisation des outils d'IA générative en milieu professionnel va continuer à croître. Les entreprises qui formeront leurs équipes dès maintenant et mettront en place des garde-fous appropriés seront celles qui tireront le meilleur parti de cette révolution technologique tout en protégeant leurs actifs les plus précieux.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale