La startup chinoise DeepSeek AI et ses modèles linguistiques open-source ont fait la une de l’actualité cette semaine. En plus d’être comparables à des modèles tels que Claude d’Anthropic et o1 d’OpenAI, les modèles ont soulevé plusieurs inquiétudes concernant la confidentialité des données, la sécurité et la censure imposée par le gouvernement chinois dans le cadre de leur formation.
La plateforme de recherche d’IA Perplexity et l’assistant d’IA You.com ont trouvé un moyen de contourner ces problèmes, bien qu’avec certaines limites.
Lundi, Perplexity a publié sur X qu’elle héberge désormais DeepSeek R1. L’abonnement gratuit donne aux utilisateurs trois requêtes de niveau Pro par jour, que vous pouvez utiliser avec R1, mais vous aurez besoin du plan Pro de 20 $ par mois pour y accéder davantage.
« Aucune de vos données ne part en Chine »
Dans un autre post, la société a confirmé qu’elle hébergeait DeepSeek « dans des centres de données américains/européens – vos données ne quittent jamais les serveurs occidentaux », assurant les utilisateurs que leurs données seraient en sécurité s’ils utilisaient les modèles open-source sur Perplexity.
« Aucune de vos données ne part en Chine », a réaffirmé Aravind Srinivas, PDG de Perplexity, dans un message sur LinkedIn.
L’assistant IA de DeepSeek, alimenté par ses modèles V3 et R1, est accessible via un navigateur ou une application – mais ces derniers nécessitent une communication avec les serveurs de l’entreprise basés en Chine, ce qui crée un risque pour la sécurité. Les utilisateurs qui téléchargent R1 et l’exécutent localement sur leurs appareils se heurteront toujours à la censure de certains sujets déterminés par le gouvernement chinois, car elle est intégrée par défaut.
Censure ou pas censure ?
En proposant R1, Perplexity affirme avoir supprimé au moins une partie de la censure intégrée au modèle. Srinivas a publié une capture d’écran sur X de résultats de recherche qui reconnaissent le président de Taïwan.
Cependant, lorsque j’ai interrogé R1 sur la place Tiananmen à l’aide de Perplexity, le modèle a refusé de répondre.
Capture d’écran par Radhika Rajkumar/ZDNET
Lorsque j’ai demandé à R1 s’il était formé pour ne pas répondre à certaines questions posées par le gouvernement chinois, il m’a répondu qu’il était conçu pour « se concentrer sur des informations factuelles » et « éviter les commentaires politiques », et que sa formation « mettait l’accent sur la neutralité dans les affaires mondiales » et sur la « sensibilité culturelle ».
« Une version open source non modifiée »
« Nous avons supprimé les poids de censure sur le modèle, il ne devrait donc pas se comporter de cette manière », a déclaré un représentant de Perplexity en réponse à la demande de commentaires de ZDNET, ajoutant que l’entreprise examinait la question.
You.com propose à la fois V3 et R1, mais uniquement par le biais de son niveau Pro, qui coûte 15 dollars par mois (au lieu des 20 dollars habituels) et ne propose pas de requêtes gratuites. Outre l’accès à tous les modèles proposés par You.com, la formule Pro permet de télécharger des fichiers jusqu’à 25 Mo par requête, de disposer d’une fenêtre contextuelle maximale de 64 Ko et d’accéder à des agents de recherche et à des agents personnalisés.
Bryan McCann, cofondateur et directeur technique de You.com, a expliqué dans un courriel adressé à ZDNET que les utilisateurs peuvent accéder à R1 et V3 via la plateforme de trois manières, qui utilisent toutes « une version open source non modifiée des modèles DeepSeek hébergés entièrement aux États-Unis pour garantir la confidentialité des utilisateurs ».
Eviter le web public
« La première méthode, par défaut, consiste à utiliser ces modèles dans le contexte de notre couche de confiance propriétaire. Cela permet aux modèles d’accéder à des sources web publiques, de citer ces sources et de les respecter lorsqu’ils génèrent des réponses », poursuit M. McCann. « La deuxième méthode consiste pour les utilisateurs à désactiver l’accès aux sources web publiques dans leurs contrôles de source ou en utilisant les modèles dans le cadre d’agents personnalisés. Cette option permet aux utilisateurs d’explorer les capacités et le comportement uniques des modèles lorsqu’ils ne sont pas ancrés dans le web public. Enfin, les utilisateurs peuvent tester les limites de ces modèles dans le cadre d’un agent personnalisé en ajoutant leurs propres instructions, fichiers et sources ».
M. McCann a noté que You.com a comparé les réponses des modèles DeepSeek selon qu’ils avaient accès ou non à des sources Web.
« Nous avons remarqué que les réponses des modèles différaient sur plusieurs sujets politiques, refusant parfois de répondre sur certaines questions lorsque les sources web publiques n’étaient pas incluses », explique-t-il. « Lorsque notre couche de confiance était activée, encourageant la citation de sources web publiques, les réponses des modèles respectaient ces sources, semblant passer outre les préjugés politiques antérieurs. »