Installer et exécuter le modèle open poids ‘gpt-oss-20b’ d’OpenAI sur Mac

Apple quietly gave the M4 MacBook Pro a quantum dot display

Cette semaine, OpenAI a dévoilé son modèle très attendu à poids ouvert, nommé gpt-oss. Ce modèle, qui peut être exécuté localement sur votre matériel, y compris sur les Mac équipés de la puce Apple, représente une avancée significative pour les passionnés d’IA. Découvrons ensemble comment démarrer et quelles sont les spécificités à prendre en compte.

Modèles et Mac

gpt-oss se décline en deux versions : gpt-oss-20b et gpt-oss-120b. La première est définie comme un modèle à poids ouvert de taille moyenne, tandis que la seconde est considérée comme un modèle lourd.

Le modèle de taille moyenne peut être exécuté sur des Mac équipés de ressources suffisantes. Toutefois, il faut noter que le modèle plus petit a tendance à halluciner davantage en raison de la différence de taille des ensembles de données. C’est un compromis pour un modèle plus rapide, capable de tourner sur des Macs haut de gamme.

Ce modèle réduit, accessible gratuitement, est idéal pour ceux qui possèdent un Mac suffisamment puissant et qui souhaitent explorer l’exécution de modèles de langage localement.

Il est crucial de comprendre les différences entre un modèle local et des plateformes comme ChatGPT. Par défaut, le modèle à poids ouvert ne possède pas beaucoup des fonctionnalités modernes des chatbots, ce qui peut limiter son efficacité.

OpenAI recommande un minimum de 16 Go de RAM pour faire fonctionner gpt-oss-20b. Les utilisateurs avec 32 Go de RAM ou plus bénéficieront d’une performance améliorée. Les retours d’expérience précoces indiquent que 16 Go de RAM est vraiment le seuil pour commencer à expérimenter.

Configuration et utilisation

Passons aux choses sérieuses : la mise en route est très simple.

Commencez par installer Ollama sur votre Mac. C’est l’interface principale pour interagir avec gpt-oss-20b. Vous pouvez télécharger l’application sur le site ollama.com/download.

Ensuite, ouvrez le Terminal de votre Mac et entrez cette commande :

ollama pull gpt-oss:20b
ollama run gpt-oss:20b

Cela permettra à votre Mac de télécharger gpt-oss-20b, qui nécessite environ 15 Go de stockage.

Installer et executer le modele open poids gpt oss 20b dOpenAI sur

Pour finir, lancez Ollama et sélectionnez gpt-oss-20b comme modèle. Vous pouvez même activer le mode avion dans les paramètres de l’application pour garantir que tout se déroule localement. Aucune identification n’est requise.

Pour tester gpt-oss-20b, saisissez simplement une invite dans le champ de texte et regardez le modèle en action. Les ressources matérielles joueront un rôle clé dans la performance ici, et attendez-vous à ce que votre Mac ralentisse pendant que le modèle réfléchit.

1754511940 212 Installer et executer le modele open poids gpt oss 20b dOpenAI sur

Mon Mac le plus performant est un MacBook Air 15 pouces avec 16 Go de RAM. Bien que le modèle fonctionne, il reste difficile à utiliser même pour une simple expérimentation. Répondre à « bonjour » a pris plus de cinq minutes, tandis que répondre à « qui était le 13e président » a nécessité environ 43 minutes. Autant dire qu’il est préférable d’avoir plus de RAM pour une utilisation prolongée.

Si vous souhaitez supprimer le modèle local et récupérer de l’espace disque, entrez cette commande dans le terminal :

ollama rm gpt-oss:20b