Annoncé en mars 2023, GPT-4, la dernière version du modèle linguistique GPT alimentant ChatGPT, est actuellement réservé aux abonnés payants de ChatGPT Plus. Pour tester le modèle, dont les réponses sont nettement meilleures que celles de GPT-3.5, il faut donc impérativement souscrire un abonnement payant de 24 dollars par mois.
Cependant, il existe des solutions pour interagir avec ChatGPT 4 sans débourser d’argent. Il est possible de passer par un agrégateur d’IA, tel que Poe, l’application de Quora, pour discuter brièvement avec le chatbot. Pour des conversations illimitées, l’abonnement reste néanmoins obligatoire.
GPT-4 totalement gratuit
D’autres individus ont préféré utiliser la technique de rétro-ingénierie pour trouver une faille dans les interfaces de programmation d’applications d’OpenAI. C’est le cas de xtekky, un étudiant en informatique. Ce développeur, dont l’identité est inconnue, a créé un projet baptisé GPT4Free sur Github.
Grâce à l’exploitation d’une brèche, il est désormais possible pour quiconque d’accéder gratuitement aux modèles payants de la startup, y compris donc GPT-4. Pour ce faire, il suffit de se connecter mà la plateforme mise en ligne par le jeune prodige. L’interface est en grande partie similaire à celle du site web d’OpenAI, et les réponses sont rapides et pertinentes. Cependant, il est possible que le site plante régulièrement, nécessitant une actualisation de la page. Sans surprise, le site est rapidement devenu viral, notamment sur le réseau social Reddit.
Pour réaliser cette prouesse, le développeur trompe l’interface de programmation d’OpenAI en faisant croire que les requêtes proviennent de sites qui ont payé les frais demandés. En d’autres termes, l’initiative repose sur l’accès à d’autres sites. Actuellement, GPT4Free utilise des sites tels que Poe, Bing ou Write Sonic.
« Au départ, c’était juste pour le plaisir, mais maintenant, c’est pour offrir une alternative aux personnes qui n’ont pas les moyens d’utiliser GPT », explique xtekky, assurant que le projet a uniquement des « fins éducatives ».
Un ChatGPT sombre ?
Il convient de noter que le développeur met à disposition des raccourcis pour différentes attaques de « prompt injection ». Ces attaques consistent à convaincre ChatGPT d’ignorer sa programmation et de changer de comportement, en faisant fi des règles établies par OpenAI. Dans l’interface, on peut trouver plusieurs versions de ChatGPT qui ont déjà été « convaincues » de ne pas suivre les règles, telles qu’Evil. Il sait comment cacher un cadavre…