Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Tu aurais voulu découvrir cette astuce avant tout le monde ? Alors rejoins-moi sur Patreon !

Vous en avez assez de passer des heures à chercher la formulation parfaite pour obtenir de bons résultats avec vos prompts IA ?

Ne vous cassez plus la tête, puisque Anthropic a pensé à tout avec sa Prompt Library. Cette bibliothèque gratuite de prompts va vous permettre d’interagir plus facilement avec des outils comme Claude3, ChatGPT, Mistral…etc. Les prompts que vous y trouverez sont pré-optimisés pour une multitude de tâches, allant de la rédaction au développement en passant par l’analyse de données. Et ça n’a de cesse de s’enrichir puisque tout le monde peut soumettre ses meilleurs prompts.

Pour l’utiliser, il vous suffit de copier-coller le prompt de votre choix dans votre IA préférée, d’y apporter quelques modifications si le cœur vous en dit, et voilà ! Il y a même le code en TypeScript ou Python qui vous permettra de passer un message « system » avant votre message « user ».

Chacun de ces prompts est le fruit d’un travail minutieux de la part des équipes d’Anthropic dont l’objectif est de fournir des résultats d’e qualité supérieure d’excellente qualité afin de montrer ce que Claude3 a dans le ventre. Et, comme je le disais, il y en a pour tous les goûts… Des prompts pour générer des recettes, interpréter les rêves, se lancer dans la médiation pleine conscience, à des choses plus boulot / business comme créer une marque, rédiger des documents, debugger du code python et j’en passe.

Si ça vous dit de jeter un œil, c’est par ici que ça se passe.



Vous en avez marre du client web Discord qui bouffe toute votre RAM et qui lance des mises à jours qui plantent toutes les 2 heures ? Bienvenue au club !

Heureusement, y’a un p’tit gars qui a décidé de prendre les choses en main en développant son propre client Discord en Python. Ça s’appelle Naticord (ou Native-cord), et c’est léger, personnalisable et super efficace !

Quand j’ai découvert ce projet sur GitHub, j’ai tout de suite accroché. Un client Discord qui peut tourner avec seulement 25 Mo de RAM en moyenne, contre 400 Mo pour l’app officielle dans certains cas, c’est quand même un sacré tour de force ! En plus, l’interface est inspirée de feu Windows Live Messenger (paix à son âme), avec un côté minimaliste et fonctionnel qui fait plaisir à voir, comme les bulles de conversation par exemple.

Mais attention, faut pas s’attendre à retrouver toutes les fonctionnalités de Discord non plus. Naticord se concentre sur l’essentiel :

  • Se connecter avec un token Discord
  • Voir ses amis et discuter en MP
  • Accéder aux serveurs et canaux de base
  • Envoyer des messages, des fichiers et des images
  • Basculer entre plusieurs comptes

Pas de fioritures, juste ce qu’il faut pour tchatter tranquillou avec ses potes. Et franchement, pour l’utilisation qu’on en a en général, c’est largement suffisant ! Pour l’installer, c’est pas bien compliqué. Suffit d’avoir Python et pip sous la main, et de lancer ces petites commandes magiques :

pip install PyQt5 requests

Et hop, vous êtes parés pour lancer Naticord :

python naticord.py

Évidemment, faudra quand même rentrer votre token Discord pour vous connecter (voir le tuto sur le github). Mais une fois que c’est fait, vous pourrez profiter d’une expérience allégée, sans prise de tête.

Au menu des prochaines updates, on devrait avoir droit à un meilleur support des serveurs, des photos de profil dans la liste d’amis, et même un mode dark pour ménager nos petits yeux fragiles. Le mode nuit actuel a encore quelques soucis, mais ça devrait s’arranger bientôt. Le développeur bosse aussi sur l’édition/suppression de messages, les emojis, les catégories de canaux, et qui sait, peut-être même la vidéo et les appels vocaux un de ces quatre !

En attendant, je trouve que Naticord est une excellente alternative pour ceux qui veulent un client Discord qui va droit au but, sans chichi. Par contre attention, même si personne n’a encore eu de souci, Discord pourrait très bien vous bannir pour utiliser un client tiers. Rien ne les en empêche, donc soyez conscient de ça.

Merci à Lorenper pour le partage !


Open WebUI débarque pour changer notre façon d’interagir avec Ollama grâce à une interface graphique intuitive et ergonomique ! Parce que l’IA, c’est cool, mais si c’est simple à utiliser, c’est encore mieux. Ollama pour rappel, c’est un outil qui permet de faire tourner des LLM en local et qui s’utilise soit via du code, soit directement en ligne de commande.

Avec Open WebUI, vous allez enfin avoir une interface web personnalisable avec votre thème, sombre pour les hackers en herbe ou clair pour les âmes sensibles, dans la langue de votre choix, de l’anglais au klingon en passant par le français, et vous pourrez ainsi causer avec Ollama comme si vous étiez sur ChatGPT. Avec le support de Markdown, de LaTeX et de la coloration syntaxique, vous pourrez même lui faire cracher du code et des formules mathématiques comme jamais.

Open WebUI permet même d’utiliser plusieurs modèles en parallèle, comparer leurs réponses, et même les faire discuter entre eux… Et si vous voulez de l’interaction plus poussée, lâchez-vous avec les fonctionnalités de Récupération Augmentée (RAG). Vous pourrez intégrer des documents externes dans vos conversations et même aller les chercher directement sur le web grâce à une fonction de navigation intégrée.

Avec l’outil de création de fichiers modèle (modelfiles), vous pouvez également définir des agents conversationnels sur mesure et les partager avec la communauté Open WebUI.

Bien sûr, comme tout bon logiciel qui se respecte, Open WebUI gère la reconnaissance vocale, la synthèse Text-to-Speech et même la génération d’images avec DALL-E et d’autres systèmes compatibles. Cadeau bonux, l’intégration avec les API compatibles OpenAI, pour encore plus de possibilités déjantées.

Pour plus d’informations sur ces fonctionnalités et comment les configurer, consultez la documentation officielle d’Open WebUI.

C’est open source, c’est puissant, c’est customisable à outrance alors que vous soyez un champion du dev ou comme moi, juste un curieux qui veut s’amuser avec l’IA, vous allez vous régaler.

Avant de vous lancer dans l’installation d’Open WebUI, assurez-vous d’avoir les prérequis suivants :

  • Docker installé sur votre machine
  • Une URL de base pour Ollama (OLLAMA_BASE_URL) correctement configurée

Pour configurer l’URL de base d’Ollama, vous pouvez soit la définir en tant que variable d’environnement, soit la spécifier dans un fichier de configuration dédié.

Une fois les prérequis remplis, vous pouvez procéder à l’installation d’Open WebUI en utilisant Docker :

docker run -d -p 3000:8080 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Cette commande va télécharger l’image Docker d’Open WebUI et lancer un conteneur accessible sur http://localhost:3000.

Amusez-vous bien et si vous voulez en savoir plus, toutes les infos sont ici.


llamafile est un projet complètement barré qui va vous permettre de transformer des modèles de langage en exécutables. Derrière se cache en fait la fusion de deux projets bien badass : llama.cpp, un framework open source de chatbot IA, et Cosmopolitan Libc, une libc portable pour compiler des programmes C multiplateformes. En combinant astucieusement ces deux technos, les petits gars de Mozilla ont réussi à pondre un outil qui transforme les poids de modèles de langage naturel en binaires exécutables.

Imaginez un peu, vous avez un modèle de langage qui pèse dans les 4 gigas, dans un format .gguf (un format couramment utilisé pour les poids de LLM). Et bien avec llamafile, vous pouvez le transformer en un exécutable standalone qui fonctionnera directement sur le système sur lequel il est sans avoir besoin d’installer quoi que ce soit. Ça va permettre de démocratiser l’utilisation et la diffusion des LLM.

Et niveau portabilité, c’est le feu puisque ça tourne sur six OS, de Windows à FreeBSD en passant par macOS. Les devs ont bien bossé pour que ça passe partout, en résolvant des trucs bien crados comme le support des GPU et de dlopen() dans Cosmopolitan et croyez-moi (enfin, croyez-les) ça n’a pas été une mince affaire !

Niveau perf aussi c’est du brutal ! Sur Linux llamafile utilise pledge() et SECCOMP pour sandboxer le bousin et empêcher les accès fichiers non désirés et avec les derniers patchs de Justine Tunney, la perf CPU pour l’inférence en local a pris un boost de malade du genre 10 fois plus rapide qu’avant. Même sur un Raspberry Pi on peut faire tourner des petits modèles à une vitesse honnête.

Allez, assez parlé, passons à la pratique !

Voici comment tester vous-même un llamafile en un rien de temps :

  1. Téléchargez l’exemple de llamafile pour le modèle LLaVA (licence : LLaMA 2, OpenAI) : llava-v1.5-7b-q4.llamafile (3,97 Go). LLaVA est un nouveau LLM qui peut non seulement discuter, mais aussi analyser des images que vous uploadez. Avec llamafile, tout se passe en local, vos données ne quittent jamais votre PC.
  2. Ouvrez le terminal de votre ordinateur.
  3. Si vous êtes sous macOS, Linux ou BSD, vous devrez autoriser l’exécution de ce nouveau fichier. (À faire une seule fois) :
    chmod +x llava-v1.5-7b-q4.llamafile
  4. Sous Windows, renommez simplement le fichier en ajoutant « .exe » à la fin.
  5. Lancez le llamafile, par exemple :
    ./llava-v1.5-7b-q4.llamafile
  6. Votre navigateur devrait s’ouvrir automatiquement sur une interface de chat. (Sinon, ouvrez-le et allez sur http://localhost:8080)
  7. Quand vous avez fini, retournez dans le terminal et faites Ctrl-C pour arrêter llamafile.

Évidemment, Mozilla ne compte pas s’arrêter là et continue de bosser comme des dingues pour suivre le rythme des nouveaux modèles qui sortent et avec le support des dernières architectures dès leur sortie.

Il est même prévu qu’on puisse bientôt générer nos propres llamafiles en un seul clic ! D’ailleurs, Hugging Face est déjà dans la boucle pour héberger tout ce petit monde. Bref, je vous le dis, les amis, llamafile est un projet à suivre absolument !

Alors on dit merci qui ?

Merci Mozilla ! 🙏🦊


Je viens de regarder une chouette vidéo de Monsieur Plouf sur le marché de revente de clés de logiciels et jeux vidéos et comme j’ai appris pleins de trucs, et bien je la partage avec vous. Perso, je m’étais jamais intéressé au sujet plus que ça car je ne suis pas gamer mais je pensais quand même que c’était un truc réglo.

Alors, c’est quoi ce marché gris dont il parle ?

En gros, c’est un peu comme les brocantes du dimanche matin, sauf qu’au lieu de chiner des vieilles babioles, on chine des clés de jeux pas chères. Ces clés permettent d’activer un jeu sur une plateforme comme Steam et normalement, elles sont fournies par les développeurs ou les éditeurs. Mais sur le marché gris dont parle Monsieur Plouf, elles débarquent d’on ne sait où, revendues par ces sites un peu louches.

Kinguin, G2A, Instant Gaming… etc, vous les connaissez peut-être, ce sont les principaux acteurs du marché gris, et ils ne sont pas vraiment copains avec les développeurs ni les éditeurs car ils revendent des clés sans leur accord, et souvent à des prix défiant toute concurrence. Pour y parvenir, ces sites achètent en réalité des clés dans des pays où les jeux sont moins chers, genre en Argentine ou en Turquie, ou en récupère via des fuites diverses et variées pour les revendre partout ailleurs. Des combines pas très réglo que développeurs ne voient pas d’un bon œil.

Bref, si vous pouvez éviter, c’est mieux surtout que Steam est parti en guerre contre ça et risque de désactiver vos clés, donc autant être patient et attendre les soldes.