En bâtissant son propre robot conversationnel Bard et en le proposant sur plusieurs marché, Alphabet / Google connaît sans doute bien les mérites mais aussi les dangers des chatbots, véritable coqueluche du moment.
Et comme d’autres entreprises, la firme appelle ses salariés à se méfier de ce qu’ils peuvent fournir comme informations aux robots conversationnels et à ne pas livrer d’informations confidentielles ou sensibles.
Car derrière les intelligences artificielles génératives, il peut y avoir des humains lisant les requêtes et documents associés, tout comme l’intelligence artificielle peut utiliser ces contenus sensibles pour constituer des réponses à des questions bien ciblées.
De la fiabilité des réponses des chatbots
Alphabet ne recommande pas non plus l’utilisation telle quelle de code informatique généré par les robots conversationnels, même provenant de son propre chatbot Bard, faute d’une fiabilité suffisante, tout en reconnaissant que la génération de code peut apporter une aide précieuse.
Il y a peu, Samsung a mis en garde ses salariés contre la diffusion d’informations sensibles sur les robots conversationnels de type ChatGPT, évoquant des problèmes de confidentialité.
Les chatbots sont déjà largement utilisés dans plusieurs secteurs d’activité et les politiques de confidentialité et de sécurité des données des entreprises sont train de s’adapter à cet engouement qui se joue encore souvent chez les salariés sans l’approbation ou la connaissance de leurs supérieurs, selon une enquête rapportée par Reuters.
Une nouvelle porte ouverte dans la sécurité des entreprises ?
Dès les phases de test, Google aurait recommandé de ne pas utiliser d’informations confidentielles avec le robot conversationnel Bard, désormais disponible dans 180 pays.
Certaines offres payantes de robots conversationnels permettent d’ailleurs dès à présent d’empêcher certains types d’information d’être diffusées ouvertement et de servir à l’entraînement des IA.
Il reste toutefois difficile d’empêcher les salariés de tenter de gagner du temps en obtenant des réponses ou en faisant réaliser certaines tâches par les IA génératives dans le cadre de leur activité, quitte à prendre des risques avec la sécurité.