comment exécuter DeepSeek AI localeme …

comment exécuter DeepSeek AI localeme ...


ZDNET

DeepSeek est le dernier mot à la mode dans le monde de l’IA. DeepSeek est une startup chinoise d’IA, fondée en mai 2023, qui fonctionne comme un laboratoire indépendant de recherche en IA et qui a attiré l’attention du monde entier pour avoir développé des modèles de langage très puissants (LLM) à un coût pour lequel ses homologues américains ne peuvent pas rivaliser.

L’une des raisons de ce faible coût est que DeepSeek est un logiciel libre. L’entreprise a également affirmé avoir créé un moyen de développer des LLM à un coût bien inférieur à celui des entreprises américaines spécialisées dans l’IA. Les modèles de DeepSeek sont aussi performants (sinon plus) que d’autres modèles, et l’entreprise a publié différents modèles pour différents usages (tels que la programmation, l’usage général et la vision).

Mon expérience avec DeepSeek a été intéressante jusqu’à présent. J’ai constaté que DeepSeek semble toujours avoir une conversation avec lui-même lorsqu’il transmet des informations à l’utilisateur. Les réponses ont tendance à être longues et peuvent m’envoyer sur plusieurs chemins, chacun d’entre eux m’ayant permis d’apprendre quelque chose de nouveau.

J’adore apprendre de nouvelles choses.

Si vous êtes intéressé par DeepSeek, vous n’avez pas besoin de faire appel à un tiers en ligne pour l’utiliser. En effet, vous pouvez installer DeepSeek localement et l’utiliser à votre guise.

Il y a deux façons simples de faire cela, et je vais vous montrer les deux.

Comment ajouter DeepSeek à Msty

Ce dont vous aurez besoin : pour cela, vous aurez besoin que Ollama et Msty soient installés et c’est tout. Vous pouvez l’utiliser sous Linux, MacOS ou Windows, et cela ne vous coûtera pas un centime.

1. Ouvrir Msty

La première étape consiste à ouvrir l’interface graphique de Msty. La façon de procéder dépend du système d’exploitation que vous utilisez.

2. Accédez à la section Local AI Models

Dans la barre latérale gauche, cliquez sur l’icône qui ressemble à un écran d’ordinateur avec un éclair, ce qui ouvrira la section Local AI Models (pour l’heure l’interface n’est pas disponible en français).

Assurez-vous que Msty est mis à jour en cliquant sur l’icône du nuage. Jack Wallen/ZDNET

3. Installer DeepSeek

Dans la section Local AI Models, vous verrez DeepSeek R1. Cliquez sur le bouton de téléchargement (flèche pointant vers le bas) pour ajouter le modèle DeepSeek à Msty. Une fois le téléchargement terminé, fermez la fenêtre Local AI Models.

The Msty Local AI downloader.

Assurez-vous de sélectionner DeepSeek R1. Jack Wallen/ZDNET

4. Sélectionner et utiliser DeepSeek

De retour à la fenêtre principale, cliquez sur le menu déroulant de sélection des modèles, cliquez sur DeepSeek R1 (sous Local AI) et saisissez votre requête.

The Msty Models selection menu.

Vous pouvez installer autant de modèles locaux que vous le souhaitez. Jack Wallen/ZDNET

Comment installer DeepSeek localement à partir de la ligne de commande Linux

Une autre option consiste à effectuer une installation complète de DeepSeek sous Linux. Avant de le faire, sachez que la configuration requise est assez élevée. Vous aurez besoin d’un minimum de :

  • un puissant processeur multicœur avec un minimum de 12 cœurs recommandé.
  • un GPU NVIDIA avec le support CUDA pour des performances accélérées et si Ollama ne détecte pas la présence d’un GPU NVIDIA, il se configurera pour fonctionner en mode CPU uniquement.
  • une RAM de minimum de 16 Go, de préférence 32 Go ou plus.
  • un stockage NVMe pour des opérations de lecture/écriture plus rapides.
  • un ystème d’exploitation Ubuntu ou une distribution basée sur Ubuntu.

Si votre système répond à ces exigences et que vous avez déjà installé Ollama, vous pouvez exécuter le modèle DeepSeek R1 avec :

ollama run deepseek-r1:8b

Si vous n’avez pas encore installé Ollama, vous pouvez le faire avec une seule commande :

curl -fsSL https://ollama.com/install.sh | sh

On vous demandera votre mot de passe.

Il existe d’autres versions de DeepSeek que vous pouvez utiliser :

  • ollama run deepseek-r1 – La version 8B par défaut
  • ollama run deepseek-r1:1.5b – Le plus petit modèle
  • ollama run deepseek-r1:7b – La version 7B
  • ollama run deepseek-r1:14b – La version 14B
  • ollama run deepseek-r1:32b – La version 32B
  • ollama run deepseek-r1:70b – Le plus grand et le plus intelligent des modèles.

Une fois la commande terminée, vous vous retrouverez à l’invite d’Ollama, où vous pourrez commencer à utiliser le modèle de votre choix.

Quel que soit votre choix, vous avez maintenant accès à l’IA DeepSeek et pouvez l’utiliser tout en conservant toutes vos requêtes et informations en sécurité sur votre machine locale.

Source : « ZDNet.com »



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.