Alphabet Inc. met en garde ses employs sur la faon dont ils utilisent les chatbots, y compris son propre Bard, tout en commercialisant le programme dans le monde entier, ont dclar quatre personnes familires avec le sujet.
La socit mre de Google a conseill ses employs de ne pas entrer ses documents confidentiels dans les chatbots d’IA, ont indiqu ces personnes et l’entreprise l’a confirm, citant une politique de longue date sur la protection des informations.
Les chatbots, parmi lesquels Bard et ChatGPT, sont des programmes consonance humaine qui utilisent ce que l’on appelle l’intelligence artificielle gnrative pour tenir des conversations avec les utilisateurs et rpondre une myriade de questions. Des examinateurs humains peuvent lire les conversations, et les chercheurs ont constat qu’une IA similaire pouvait reproduire les donnes qu’elle avait absorbes pendant la formation, crant ainsi un risque de fuite.
Alphabet a galement alert ses ingnieurs pour qu’ils vitent d’utiliser directement le code informatique que les chatbots peuvent gnrer, ont dclar certaines de ces personnes.
Interroge ce sujet, l’entreprise a dclar que Bard pouvait faire des suggestions de code indsirables, mais qu’il aidait nanmoins les programmeurs. Google a galement dclar qu’elle visait tre transparente sur les limites de sa technologie.
Ces proccupations montrent comment Google souhaite viter que les logiciels qu’il a lancs en concurrence avec ChatGPT ne nuisent son activit. L’enjeu de la course de Google contre OpenAI et Microsoft Corp, qui soutiennent ChatGPT, se chiffre en milliards de dollars d’investissement ainsi qu’en recettes publicitaires et en revenus de cloud computing encore incalculables provenant des nouveaux programmes d’intelligence artificielle.
La prudence de Google reflte galement ce qui est en train de devenir une norme de scurit pour les entreprises, savoir la mise en garde du personnel contre l’utilisation de programmes de chat accessibles au public.
Un nombre croissant d’entreprises dans le monde ont mis en place des garde-fous sur les chatbots d’IA, parmi lesquelles Samsung, Amazon.com et Deutsche Bank. Apple, qui n’a pas rpondu aux demandes de commentaires, aurait fait de mme.
Quelque 43 % des professionnels utilisaient ChatGPT ou d’autres outils d’IA en janvier, souvent sans en parler leur patron, selon une enqute mene par le site de rseautage Fishbowl auprs de prs de 12 000 personnes, y compris dans les plus grandes entreprises amricaines.
En fvrier, Google a demand au personnel qui testait Bard avant son lancement de ne pas lui communiquer d’informations internes. Aujourd’hui, Google dploie Bard dans plus de 180 pays et dans 40 langues, en tant que tremplin pour la crativit, et ses avertissements s’tendent ses suggestions de code.
Google a dclar qu’il avait eu des conversations dtailles avec la Commission irlandaise de protection des donnes et qu’il rpondait aux questions des rgulateurs, aprs un rapport de Politico publi mardi selon lequel l’entreprise reportait le lancement de Bard dans l’UE dans l’attente de plus d’informations sur l’impact du chatbot sur la vie prive.
Inquitudes concernant les informations sensibles
Ces technologies peuvent rdiger des courriels, des documents, voire mme des logiciels, promettant ainsi d’acclrer considrablement les tches. Toutefois, ce contenu peut contenir des informations errones, des donnes sensibles ou mme des passages protgs par des droits d’auteur d’un roman « Harry Potter ».
Un avis de confidentialit de Google, mis jour le 1er juin, stipule galement ce qui suit : « N’incluez pas d’informations confidentielles ou sensibles dans vos conversations Bard« .
Certaines entreprises ont dvelopp des logiciels pour rpondre ces proccupations. Par exemple, Cloudflare, qui dfend les sites web contre les cyberattaques et offre d’autres services en nuage, commercialise une capacit permettant aux entreprises de marquer et de restreindre la circulation de certaines donnes vers l’extrieur.
Google et Microsoft proposent galement aux entreprises des outils conversationnels plus onreux, mais qui s’abstiennent d’absorber des donnes dans des modles d’IA publics. Bard et ChatGPT enregistrent par dfaut l’historique des conversations des utilisateurs, qui peuvent choisir de le supprimer.
Il est « logique » que les entreprises ne veuillent pas que leur personnel utilise des chatbots publics pour le travail, a dclar Yusuf Mehdi, directeur du marketing grand public de Microsoft.
« Les entreprises adoptent un point de vue dment conservateur« , a dclar M. Mehdi, expliquant comment le chatbot gratuit Bing de Microsoft se compare son logiciel d’entreprise. « L, nos politiques sont beaucoup plus strictes.«
Microsoft n’a pas comment la question de savoir si elle interdit de manire gnrale son personnel d’entrer des informations confidentielles dans des programmes d’IA publics, y compris le sien, bien qu’un autre cadre de l’entreprise ait dclar qu’il en limitait personnellement l’utilisation.
Matthew Prince, PDG de Cloudflare, a dclar que le fait de saisir des informations confidentielles dans des chatbots revenait « confier une bande d’tudiants en doctorat tous vos dossiers privs« .
Source : Alphabet Inc.
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous que les recommandations d’Alphabet Inc sont pertinentes ?
Voir aussi