L’IA générative, une branche de l’intelligence artificielle, est capable de générer des images, du texte, des sons, de la musique et des vidéos. Elle est largement appliquée dans diverses professions et industries, et suscite un grand intérêt.
Si vous souhaitez en savoir plus sur l’IA générative et éventuellement créer vos propres applications d’IA, vous êtes au bon endroit.
Nous avons rassemblé quelques-uns des cours et ressources gratuits qui vous aideront à démarrer votre voyage dans l’IA générative. Que vous soyez un débutant complet ou un passionné d’IA chevronné, notre guide vous orientera dans la bonne direction.
Allons-y et explorons ensemble l’IA générative !
Bootcamp LLM Full Stack
LeFull St ack LLM Bootcamp est un programme de deux jours qui se concentre sur les meilleures pratiques émergentes et les derniers résultats de recherche pour vous aider à passer en toute confiance à la construction d’applications avec de grands modèles de langage (LLM).
Le programme était initialement un camp d’entraînement en personne à San Francisco en avril 2023, et les conférences enregistrées sont maintenant disponibles gratuitement. Le cours est décrit comme un excellent point de départ pour toute personne intéressée par les grands modèles de langage et leurs applications pratiques.
Conditions préalables
Ces cours s’adressent aux programmeurs Python qui souhaitent utiliser les grands modèles de langage (LLM) dans leurs applications. Une expérience dans l’apprentissage automatique, le développement de frontend ou de backend est un plus.
Inclusion du cours
- Introduction aux grands modèles de langage (LLM)
- Ingénierie rapide et utilisation créative des LLMs
- Déploiement et considérations opérationnelles
- Construction d’interfaces linguistiques conviviales
- Augmentation des modèles linguistiques pour des tâches spécifiques
- Développement et déploiement rapides d’applications LLM
- Tendances et développements futurs dans le domaine
- Concepts fondamentaux des LLM
Le programme de Full Stack Deep Learning est un excellent point de départ pour toute personne intéressée par les grands modèles de langage et leurs applications pratiques. Avec une équipe de formateurs expérimentés, y compris des anciens doctorants de l’UC Berkeley, cette ressource offre une introduction complète à l’IA générative.
Introduction à l’IA générative Parcours d’apprentissage
Google Cloud propose un parcours d’apprentissage complet sur l’IA générative qui couvre différents aspects de l’IA générative, des bases des grands modèles de langage aux principes de l’IA responsable. Ce parcours d’apprentissage constitue un excellent point de départ pour toute personne souhaitant se familiariser avec le monde de l’IA générative.
Conditions préalables
Les cours de ce parcours d’apprentissage sont introductifs et ne nécessitent pas de prérequis spécifiques. Ils conviennent aux débutants et à toute personne intéressée par l’IA générative.
Inclusion du cours
- Fondamentaux de l’IA générative
- Comprendre les grands modèles de langage
- Améliorer les performances du LLM avec Prompt Tuning
- Introduction à l’IA responsable
- Mise en œuvre de l’IA responsable par Google
- Principes fondamentaux de l’IA générative
- L’IA responsable avec Google Cloud
- Appliquer les principes de l’IA de manière responsable
En réussissant le quiz final, vous démontrez votre compréhension des concepts fondamentaux de l’IA générative.
Que vous soyez novice dans le domaine ou que vous cherchiez à approfondir vos connaissances, ces cours fournissent une base solide aux concepts de l’IA générative, aux grands modèles de langage et aux principes de l’IA responsable.
Principes fondamentaux de Microsoft Azure AI : IA générative
Microsoft Azure propose un parcours d’apprentissage complet sur l’IA générative, qui se concentre sur la façon dont les modèles sont formés pour générer un contenu nouveau et original à partir d’une entrée en langage naturel. L’IA générative permet de créer du texte, des images ou même du code en réponse à des descriptions en langage courant.
Ce parcours d’apprentissage est conçu pour vous aider à démarrer avec l’IA générative et explore divers aspects, y compris le rôle d’Azure dans l’accès à la technologie de l’IA générative.
Conditions préalables
Il est recommandé de se familiariser avec Azure et le portail Azure comme prérequis pour ce parcours d’apprentissage. Il convient aux débutants et aux personnes de différents niveaux, y compris les ingénieurs en IA, les développeurs, les architectes de solutions et les étudiants.
Inclusion du cours
- Introduction à l’IA générative
- Génération de langage naturel
- Génération d’images et de codes
- Comprendre les grands modèles de langage (LLM)
- Modèles de transformation
- Tokenisation et intégration
- Principes fondamentaux du service Azure OpenAI
- Introduction et exemples de Copilot
- Améliorer les réponses de l’IA générative grâce à l’ingénierie d’invite
Le parcours d’apprentissage “Generative AI” de Microsoft Azure est une excellente ressource pour ceux qui souhaitent explorer l’IA générative dans le contexte de l’écosystème Azure.
En mettant l’accent sur l’IA responsable et les applications pratiques, ce parcours d’apprentissage permet aux apprenants d’acquérir les connaissances et les compétences nécessaires pour comprendre et travailler avec l’IA générative.
Comment fonctionnent les modèles de diffusion
Ce cours, intitulé“Comment fonctionnent les modèles de diffusion“, offre une compréhension approfondie des modèles de diffusion utilisés dans l’IA générative. Il va au-delà de la simple utilisation de modèles préconstruits ou d’API et vous apprend à construire un modèle de diffusion à partir de zéro.
Le cours est conçu pour vous aider à acquérir une expérience pratique de l’IA générative basée sur la diffusion. Le cours est enseigné par Sharon Zhou, cofondatrice et PDG de Lamini, ce qui vous permet de bénéficier de l’expérience d’un professionnel de l’industrie.
Conditions préalables
Il s’agit d’un cours de niveau intermédiaire, et une connaissance préalable de Python, Tensorflow, ou Pytorch sera bénéfique pour tirer le meilleur parti du contenu.
Inclusion du cours
- Introduction aux modèles de diffusion
- L’intuition derrière les modèles de diffusion
- L’échantillonnage dans les modèles de diffusion
- Réseaux neuronaux dans les modèles de diffusion
- Entraînement des modèles de diffusion
- Contrôle des modèles de diffusion
- Accélérer les modèles de diffusion
Si vous souhaitez plonger plus profondément dans le monde des modèles de diffusion en IA générative, “Comment fonctionnent les modèles de diffusion” est une ressource idéale. Ce cours vous permet de construire, d’entraîner et d’optimiser des modèles de diffusion, en vous donnant les compétences pratiques nécessaires pour explorer davantage ce domaine passionnant.
Avec un accès gratuit pour une durée limitée, c’est une excellente occasion d’étendre vos capacités en matière d’IA générative.
Utilisez l’API OpenAI pour coder 5 projets
Ce cours est une plongée complète dans le monde de l’API OpenAI. Il vous apprend à utiliser l’API OpenAI pour créer cinq projets passionnants, dont un clone de ChatGPT, un créateur d’images DALL-E et un générateur SQL.
Ces projets explorent les diverses capacités et applications potentielles de l’API OpenAI.
Conditions préalables
Le cours ne spécifie pas de prérequis, mais il est recommandé d’avoir une compréhension de base des langages de programmation tels que JavaScript, React, Node.js et TypeScript et une familiarité avec l’utilisation des API dans le développement de logiciels.
Inclusion du cours
- Introduction, prérequis et configuration
- Accès à l’API, gestion des clés et authentification
- Comprendre les différents modèles
- Compléments de texte, invites personnalisées et instructions
- Techniques d’optimisation des invites
- Construire des Chatbots avec GPT-3
- Projet de génération d’images 1 | JavaScript
- Génération d’images avec DALL-E
- Projet de génération d’images 2 | React Node.js OpenAI NPM Library
- Projet de génération SQL | Bibliothèque TypeScript Node.js OpenAI NPM
Si vous êtes impatient d’explorer les capacités de l’API OpenAI et de créer des projets passionnants, ce cours est une excellente ressource. Que vous soyez intéressé par le développement d’applications ChatGPT, la génération d’images avec DALL-E ou la création de requêtes SQL, ce cours vous couvre.
Les conseils étape par étape et les projets pratiques vous permettront de libérer le potentiel de l’API OpenAI.
Créez un grand modèle de langage à partir de zéro avec Python
Ce cours fournit un tutoriel approfondi sur la façon de créer votre propre modèle de langage à partir de zéro à l’aide de Python. Il se penche sur la manipulation des données, les concepts mathématiques et l’implémentation des transformateurs derrière les grands modèles de langage.
Vous explorerez divers sujets liés à la construction de votre modèle de langage.
Conditions préalables
Vous devez être familier avec le langage de programmation P ython car le cours utilise principalement Python pour le codage. Il est utile de connaître l’apprentissage profond, en particulier en ce qui concerne les réseaux neuronaux et leur formation.
Inclusion du cours
- Introduction et configuration
- Prétraitement du texte
- Principes de l’algèbre linéaire
- Préparation des données et entrées du modèle
- Passer du CPU à CUDA
- Introduction à PyTorch
- Produit de point et multiplication matricielle
- Mise en œuvre de Matmul
- Construction d’un réseau neuronal
- Construction d’un modèle GPT
- Optimiseurs et normalisation
- Blocs transformateurs et attention multi-têtes
- Entraînement du modèle et hyperparamètres
- Formation sur OpenWebText
- Gestion des erreurs, sauvegarde et chargement des modèles
- Outils de script et de ligne de commande
- Pré-entraînement et mise au point
Si vous souhaitez comprendre les détails de la construction d’un grand modèle linguistique à partir de la base, ce didacticiel est une ressource précieuse.
Le cours vous guide pas à pas et vous apporte les connaissances et les compétences nécessaires pour créer votre propre modèle de langage.
Introduction aux grands modèles de langage avec Google Cloud
Ce cours d’introduction, proposé par Google Cloud, est une expérience de micro-apprentissage qui offre une vue d’ensemble des grands modèles de langage (LLM). Il explique ce que sont les LLM, leurs cas d’utilisation et comment un réglage rapide peut améliorer leurs performances.
Ils ont rassemblé des lectures sur les grands modèles de langage
En outre, le cours présente les outils Google qui peuvent vous aider à développer vos propres applications d’IA générative.
Conditions préalables
Le cours est spécialement conçu pour les débutants et ne nécessite aucune expérience préalable.
Contenu du cours
- Introduction aux grands modèles de langage
- Inclusion de la lecture (Ressources de lecture)
Ce cours est un point de départ idéal pour ceux qui cherchent à comprendre les bases des grands modèles de langage et leurs applications pratiques.
Ce cours de micro-apprentissage est conçu pour les débutants, permettant aux personnes sans expérience préalable d’avoir un aperçu du monde de l’intelligence artificielle générative
LLM University par Cohere
LLM University est une ressource d’apprentissage complète conçue pour les personnes intéressées par le traitement du langage naturel (NLP), des débutants aux apprenants avancés.
Elle se concentre sur les sujets liés au traitement du langage naturel, y compris les grands modèles de langage (LLM), ce qui en fait une plateforme idéale pour ceux qui souhaitent maîtriser les compétences en traitement du langage naturel et en apprendre davantage sur les LLM.
Conditions préalables
Le programme d’études de LLMU est conçu pour fournir une base solide à l’IA linguistique pour les personnes de tous horizons. Que vous soyez un débutant en apprentissage automatique, un passionné cherchant à créer des applications d’IA linguistique ou une personne prête à mettre ses compétences en pratique, l’Université LLM s’adresse à un public varié.
Inclusion des cours
- Introduction aux LLM
- Représentation du texte
- Génération de texte
- Ingénierie des messages
LLM University est une excellente ressource pour tous ceux qui souhaitent maîtriser les compétences NLP et LLM et explorer le monde des grands modèles de langage et de l’IA générative.
En plus du matériel de cours, l’Université LLM organisera des groupes de lecture et des événements exclusivement destinés à tous les apprenants !
Cours accéléré LangChain
Ce cours accéléré est conçu pour les débutants afin qu’ils apprennent à utiliser LangChain, un cadre créé pour simplifier le développement d’applications utilisant de grands modèles de langage.
LangChain permet l’intégration transparente de modèles d’IA avec diverses sources de données, ce qui facilite la création d’applications personnalisées de traitement du langage naturel (NLP).
Conditions préalables
Le cours étant destiné aux débutants, aucun prérequis spécifique n’est mentionné. Cependant, une compréhension de base des concepts de programmation et une familiarité avec les fondamentaux de l’IA et du NLP peuvent être bénéfiques.
Inclusion du cours
- Introduction à LangChain
- Premier projet – Générateur de noms d’animaux domestiques
- Exploration des agents dans LangChain
- Deuxième projet – Assistant YouTube
- Création de nos propres magasins de vecteurs
- Discussion sur les applications potentielles de LangChain
- Coûts et budget de l’API OpenAI
Si vous êtes un débutant désireux d’explorer le monde des grands modèles de langage et des applications NLP, ce cours accéléré sur LangChain est une ressource fantastique.
En mettant l’accent sur les projets pratiques et l’utilisation simplifiée des grands modèles de langage, vous pourrez rapidement vous lancer dans la création d’applications NLP personnalisées.
Cours accéléré sur la diffusion stable
Ce cours complet est destiné aux débutants qui souhaitent apprendre à utiliser Stable Diffusion, un outil de création d’art et d’images. Le cours couvre différents aspects, y compris l’entraînement de votre propre modèle, l’utilisation de Control Net, l’utilisation de l’API de Stable Diffusion, et plus encore.
Il met également l’accent sur les implications éthiques de l’IA dans l’art et insiste sur l’utilisation responsable et le respect des droits des artistes.
Conditions préalables
Le cours ne précise pas de conditions préalables, mais une compréhension de base de l’art et des concepts de l’IA peut être bénéfique pour une meilleure compréhension du matériel.
Inclusion du cours
- Introduction à la diffusion stable
- Construction et formation de votre propre modèle
- Introduction au réseau de contrôle dans Stable Diffusion
- Exploration de l’API de Stable Diffusion
- Relever les défis éthiques de l’art généré par l’IA
- L’IA responsable dans la création artistique
- Ressources pour l’apprentissage continu
Si vous êtes un débutant intéressé par la création d’art et d’images à l’aide de Stable Diffusion, ce cours accéléré est une ressource précieuse. Il couvre tous les aspects essentiels, de la formation de votre propre modèle à l’utilisation du point de terminaison de l’API de Stable Diffusion.
Le cours souligne également l’importance d’utiliser l’IA dans l’art de manière responsable et de respecter les droits des artistes.
LangChain pour le développement d’applications LLM
Ce cours, dispensé en collaboration avec LangChain, est conçu pour les débutants et se concentre sur l’utilisation de LangChain pour le développement d’applications de modèles de langage (LLM). LangChain est un cadre permettant d’étendre les cas d’utilisation et les capacités des modèles de langage dans le développement d’applications.
Dans ce cours, vous apprendrez à appliquer les LLM à vos données propriétaires, à construire des assistants personnels et des chatbots spécialisés, et à explorer les différentes fonctionnalités du framework LangChain.
Conditions préalables
Bien que le cours soit adapté aux débutants, des connaissances de base en Python peuvent s’avérer utiles pour en tirer le meilleur parti.
Inclusion du cours
- Introduction à LangChain et aux LLM
- Modèles d’invites et d’analyseurs
- Mémoire et contexte dans les LLM
- Construction de chaînes d’interaction
- Gestion de la progression et de la logique des chaînes
- Gestion des erreurs et récupération dans les chaînes
- Développer des systèmes de questions-réponses avec les LLM
- Évaluation et mesures de performance
- Travailler avec des agents dans LangChain
- Intégration d’agents pour l’automatisation des tâches
- Études de cas d’implémentations réussies d’agents
Si vous êtes débutant et que vous souhaitez approfondir vos connaissances en matière de développement d’applications de modèles de langage à l’aide de LangChain, ce cours est une ressource précieuse.
Axé sur l’apprentissage pratique et dispensé par Harrison Chase et Andrew Ng, ce cours fournit les compétences essentielles pour exploiter les capacités des modèles de langage dans le développement d’applications.
Comment les professionnels peuvent commencer à créer des plugins d’IA avec Semantic Kernel
Ce cours, en collaboration avec Microsoft, est destiné aux débutants et aux penseurs d’entreprise qui veulent commencer à construire des plugins d’IA avec Semantic Kernel.
Vous apprendrez à utiliser l’orchestrateur open-source de Microsoft, Semantic Kernel, pour développer vos compétences en matière de planification et d’analyse d’entreprise tout en exploitant les outils d’IA.
Le cours couvre divers aspects du travail avec les grands modèles de langage (LLM) et l’utilisation de blocs de construction communs tels que les mémoires, les connecteurs, les chaînes et les planificateurs.
Conditions préalables
Des connaissances de base en Python et une compréhension de l’interface de programmation d’application (API) sont recommandées. Une connaissance de ce qu’est un kit de conception logicielle (SDK) peut être utile mais n’est pas nécessaire.
Inclusion du cours
- Introduction aux grands modèles de langage (LLM)
- Introduction au noyau sémantique
- Vue d’ensemble du logiciel libre Orchestrator de Microsoft
- Développement d’invites efficaces
- Exploration des bases de données vectorielles
- Gestion et interrogation des données vectorielles
- Comprendre les fonctions sémantiques et leur rôle
- LLM pour la planification et la prise de décision
Si vous êtes un penseur commercial ou un débutant intéressé par la création de plugins d’IA et l’exploitation d’outils d’IA pour la planification et l’analyse d’entreprise, ce cours est une ressource précieuse.
Vous apprendrez à travailler avec les grands modèles de langage (LLM) et le Semantic Kernel de Microsoft, en acquérant les compétences nécessaires pour créer des applications commerciales sophistiquées à l’aide des LLM.
Le cours met également l’accent sur l’utilisation de blocs de construction LLM communs et de l’orchestrateur open-source Semantic Kernel. Enseigné par John Maeda, vice-président de la conception et de l’intelligence artificielle chez Microsoft, ce cours fournit des connaissances essentielles pour les applications professionnelles.
Ajustement des grands modèles de langage
Ce cours, en collaboration avec Lamini, se concentre sur les principes fondamentaux du réglage fin des grands modèles de langage (LLM). Le réglage fin est un processus dans lequel vous prenez vos propres données pour entraîner le modèle, en mettant à jour les poids des réseaux neuronaux dans le LLM.
Ce cours vous aidera à comprendre quand appliquer le finetuning, comment préparer vos données et comment former et évaluer un LLM sur vos données. Vous apprendrez également en quoi le finetuning diffère d’autres méthodes telles que l’ingénierie d’invite et la Génération Augmentée de Récupération.
Conditions préalables
Pour tirer le meilleur parti de ce cours, il est recommandé aux apprenants de se familiariser avec Python et de comprendre un cadre d’apprentissage profond tel que PyTorch.
Inclusion du cours
- Introduction au cours
- Pourquoi Finetune
- Où se situe le réglage fin ?
- Instruction Finetuning
- Préparation et prétraitement des données
- Processus de formation des modèles
- Évaluation et itération
Si vous souhaitez plonger dans le monde du réglage fin des grands modèles de langage (LLM) et comprendre les techniques et les applications impliquées, ce cours est une ressource précieuse.
Enseigné par Sharon Zhou, une formatrice chevronnée dans le domaine, le cours couvre les éléments essentiels pour savoir quand et comment appliquer le réglage fin, la préparation des données, ainsi que l’entraînement et l’évaluation des LLM en utilisant vos propres données.
Construire des systèmes avec l’API ChatGPT
Ce cours de courte durée, en collaboration avec OpenAI, se concentre sur la“construction de systèmes avec l’API ChatGPT” Il est conçu pour enseigner aux apprenants comment construire efficacement des systèmes à plusieurs étapes en utilisant de grands modèles de langage.
En divisant des tâches complexes en un pipeline de sous-tâches à l’aide d’invites en plusieurs étapes, vous apprendrez à automatiser des flux de travail complexes et à améliorer votre efficacité.
Conditions préalables
Vous n’avez besoin que d’une compréhension de base de Python pour suivre ce cours. Il convient également aux ingénieurs intermédiaires ou avancés en apprentissage automatique qui souhaitent améliorer leurs compétences en ingénierie rapide pour les LLM.
Inclusion du cours
- Modèles de langage, format de discussion et jetons
- Classifications
- Modération
- Raisonnement par chaîne de pensée
- Enchaînement d’invites
- Évaluation – I et II
Si vous cherchez à améliorer vos compétences dans la construction de systèmes avec l’API ChatGPT, ce cours est une ressource précieuse. Des bases aux concepts avancés, vous apprendrez à créer des chaînes d’invites, à travailler avec du code Python et à construire un chatbot de service à la clientèle.
Les compétences pratiques que vous acquerrez peuvent être appliquées à divers scénarios du monde réel, ce qui en fait un investissement de votre temps qui en vaut la peine. Enseigné par des experts de l’industrie et disponible gratuitement pour une durée limitée, ce cours est l’occasion d’explorer et de maîtriser les capacités des grands modèles de langage.
Inscrivez-vous dès maintenant et commencez à construire des systèmes complexes de manière efficace !
Tutoriel sur les Vector Embeddings
Ce tutoriel est consacré à la compréhension et à l’utilisation des vector embeddings dans vos projets d’apprentissage automatique et d’intelligence artificielle.
Il vous apprend à créer un assistant IA avec des vector embeddings en utilisant l’API GPT-4 d’OpenAI, LangChain, et des techniques de traitement du langage naturel (NLP).
Conditions préalables
Le cours ne précise pas de conditions préalables, mais une compréhension de base des concepts d’apprentissage automatique et une certaine familiarité avec la programmation seraient utiles.
Inclusion du cours
- Comprendre les emboîtements vectoriels
- Créer des emboîtements de texte avec OpenAI
- Travailler avec des bases de données vectorielles
- Introduction à Langchain
- Construire un assistant d’IA
- Travaux pratiques : Création d’un assistant d’intelligence artificielle
Si vous cherchez à améliorer vos connaissances sur les vector embeddings et à apprendre comment créer un assistant IA en utilisant GPT-4, LangChain et les techniques NLP, ce tutoriel est une excellente ressource.
Les encastrements vectoriels sont un concept fondamental de l’IA moderne, et il est utile de comprendre comment travailler avec eux.
Grands modèles de langage et recherche sémantique
Ce cours porte sur l’amélioration de la recherche par mot-clé en incorporant de grands modèles de langage et des techniques de recherche sémantique.
Vous apprendrez à utiliser Cohere Rerank et les embeddings pour améliorer les résultats de recherche par mot-clé, rendant l’expérience de l’utilisateur plus efficace.
Conditions préalables
Le cours est étiqueté comme “Débutant”, mais il est recommandé d’avoir une familiarité de base avec Python pour tirer le meilleur parti du contenu. Une certaine compréhension des systèmes de recherche et d’extraction par mot-clé peut également être utile.
Inclusion du cours
- Améliorer la recherche par mot-clé avec la recherche sémantique
- Intégration
- Recherche dense
- ReRank
Ce cours vous aide à comprendre les techniques et les concepts essentiels pour rendre vos systèmes de recherche plus intelligents et plus efficaces.
Si vous cherchez à améliorer vos capacités de recherche, ce cours est une excellente ressource. Inscrivez-vous dès maintenant et faites passer votre recherche par mot-clé au niveau supérieur grâce aux techniques de recherche sémantique !
Évaluer et déboguer les modèles d’IA générative
Ce cours se concentre sur la compétence vitale de l’évaluation et du débogage des modèles d’IA générative, qu’il s’agisse de grands modèles de langage (LLM) ou de modèles d’image génératifs. Il offre un aperçu de l’utilisation d’outils indépendants de la plate-forme pour suivre, contrôler et évaluer ces modèles de manière efficace.
Conditions préalables
Ce cours s’adresse à des apprenants de niveau intermédiaire. Vous devez avoir une certaine familiarité avec Python et une expérience avec des frameworks comme PyTorch ou similaires. Une expérience dans l’apprentissage automatique ou les projets d’IA est bénéfique, mais n’est pas strictement nécessaire.
Inclusion du cours
- Instrument W & B
- Entraînement d’un modèle de diffusion avec W & B
- Évaluation des modèles de diffusion
- Évaluation et traçage de LLM avec W & B
- Mise au point d’un modèle de langage
La capacité à évaluer et à déboguer les modèles génératifs d’IA est cruciale dans le monde de l’IA et de l’apprentissage automatique. Ce cours vous permet d’acquérir des compétences et des outils précieux pour gérer, contrôler et évaluer efficacement vos projets.
En utilisant la plate-forme Weights & Biases, vous rationaliserez votre flux de travail, ce qui vous permettra de suivre les expériences, de gérer les données et de collaborer efficacement.
L’instructeur Carey Phelps, chef de produit fondateur chez Weights & Biases, apporte son expertise pour vous aider à maîtriser cet aspect critique du développement de l’IA. Si vous cherchez à améliorer vos compétences en matière d’opérations d’apprentissage automatique et à évaluer et déboguer efficacement les modèles d’IA générative, ce cours est un excellent choix. Inscrivez-vous dès maintenant pour faire passer vos projets d’IA au niveau supérieur !
LangChain : Discutez avec vos données
Cette courte formation vous offre l’opportunité d’apprendre directement de Harrison Chase, le créateur de LangChain, un puissant framework conçu pour simplifier la création d’applications utilisant de grands modèles de langage (LLM).
Dans ce cours, vous vous plongerez dans deux sujets principaux : Retrieval Augmented Generation (RAG), une application LLM courante, et la construction d’un chatbot qui répond à des requêtes basées sur le contenu de vos documents.
Conditions préalables
Ce cours s’adresse aux débutants mais suppose que vous soyez familier avec Python. Il est idéal pour les développeurs intéressés par la création d’applications utilisant de grands modèles de langage comme ChatGPT. Si vous avez des compétences en Python et que vous souhaitez tirer parti des LLM pour vos projets, ce cours offre des connaissances pratiques et une expérience concrète.
Inclusion du cours
- Chargement de documents
- Fractionnement de documents
- VectorStores et Embedding
- Récupération
- Chat avec LLM
LangChain est un cadre précieux qui simplifie la création d’applications utilisant de grands modèles de langage. Si vous souhaitez apprendre à exploiter la puissance des LLM pour créer des applications capables d’interagir avec des données, ce cours est un excellent choix.
En apprenant directement de Harrison Chase, vous serez équipé des connaissances et des compétences nécessaires pour travailler efficacement avec LangChain.
Que vous soyez intéressé par la Génération Augmentée de Récupération (RAG) ou par la création de chatbots qui réagissent au contenu des documents, ce cours fournit un chemin pratique pour créer des applications qui dialoguent directement avec vos données.
Construire des applications d’IA générative avec Gradio
Ce court cours vous offre l’opportunité d’apprendre d’Apolinário Passos, un ingénieur en art de l’apprentissage automatique chez Hugging Face. Le cours se concentre sur la création d’applications d’IA générative à l’aide de Gradio, une plateforme conviviale pour la création d’applications d’apprentissage automatique.
Vous serez en mesure de créer et de démontrer rapidement des applications d’apprentissage automatique, de les partager avec d’autres et d’acquérir des connaissances pratiques pour vos projets.
Conditions préalables
Ce cours s’adresse aux débutants, mais des connaissances de base en Python sont recommandées. Si vous avez une compréhension de base de Python et que vous souhaitez créer et partager rapidement des applications et des démonstrations à l’aide de Gradio, ce cours est une excellente occasion de le faire.
Inclusion du cours
- Interface de tâches NLP
- Application de légendes d’images
- Application de génération d’images
- Décrire et générer
- Chat avec n’importe quel LLM
Dans le monde de l’IA et de l’apprentissage automatique, la création d’applications pratiques est une compétence cruciale. Cette courte formation sur la création d’applications d’IA générative avec Gradio vous permet justement de le faire.
Que vous souhaitiez créer des applications de résumé de texte, des outils de légendes d’images, des interfaces de génération de texte à image, ou même des chatbots avec de grands modèles de langage open-source, ce cours vous fournit les connaissances nécessaires pour le faire efficacement.
Didacticiel sur le développement avec de grands modèles de langage
Ce cours, créé par Akshath, se concentre sur le développement de grands modèles de langage (LLM) afin d’exploiter leurs capacités pour divers projets. Tout au long du cours, vous participerez à des projets pratiques qui vous permettront de travailler efficacement avec les LLM.
Les projets que vous entreprendrez couvrent la construction d’interfaces dynamiques, l’interaction avec de vastes quantités de données textuelles et la possibilité pour les LLM de naviguer sur Internet à la recherche d’articles de recherche.
Conditions préalables
Les prérequis pour ce cours peuvent varier en fonction des projets spécifiques et du contenu couvert. Cependant, il est généralement recommandé d’avoir une compréhension de base de Python pour travailler avec les LLM. Chaque projet peut avoir ses propres prérequis, il est donc conseillé de revoir le contenu et les projets inclus dans le cours pour des exigences plus spécifiques.
Inclusion du cours
- Introduction aux LLM
- ChatGPT Playground et GPT API
- Construire avec ChainLit
- Travailler avec des bases de données vectorielles
- Implémentation de Q&A avec des documents (TXT et PDF)
- Navigation sur le Web et agents
- Construire un Mini Code Interpreter Plugin (Replit Tool)
- Extension des fonctionnalités avec des agents
- Création d’outils Shell et d’outils personnalisés
Development with Large Language Models Tutorial est un cours complet qui vous emmène à travers une série de projets pratiques, vous permettant d’exploiter les capacités des LLM pour vos projets.
Que vous soyez intéressé par la création d’interfaces dynamiques, le travail avec des données textuelles ou la recherche sur Internet avec des LLM, ce cours vous fournit les compétences et les connaissances nécessaires pour commencer.
Inscrivez-vous dès maintenant et commencez à construire des projets qui exploitent les LLM pour diverses applications.
Créez des applications d’IA avec ChatGPT, DALL-E et GPT-4
Ce cours complet, créé par Tom Chant, un enseignant de Scrimba, est conçu pour vous apprendre à construire des applications basées sur l’IA en utilisant les API ChatGPT, DALL-E et GPT-4.
Le cours couvre différents aspects du développement d’applications d’IA et comprend des projets pratiques pour vous aider à apprendre et à appliquer vos connaissances.
Conditions préalables
Il est recommandé d’avoir des connaissances de base en HTML, CSS et JavaScript avant de suivre le cours. Il est également recommandé d’acquérir des compétences essentielles en matière de développement web, car le cours se concentre sur la création d’applications d’intelligence artificielle pour le web.
Inclusion du cours
- MoviePitch – Création d’un générateur de pitch
- Mise en place du modèle de base
- Explorer les modèles et les outils
- Implémentation de fetchSynopsis
- Comprendre les jetons
- Ajouter la génération d’images avec createImage et compléter l’interface utilisateur
- Tout savoir – Chatbox GPT-4
- Comprendre comment les modèles ChatGPT fonctionnent pour les Chatbots
- Exploiter le point de terminaison Create Chat Completion
- Configuration de Firebase et de la base de données
- Gérer les conversations dans la base de données
- Convertir le Chatbot en We-Wingit
- Mise en place de l’environnement pour le réglage fin
- Mise au point du modèle et mise à jour de JavaScript pour le déploiement
- Déploiement et hébergement sur Netlify
- Téléchargement, GitHub et variables d’environnement
- Mise en œuvre des fonctions Netlify Serverless
Il s’agit d’un cours complet pour les débutants intéressés par la création d’applications alimentées par l’IA. Que vous cherchiez à construire des interfaces interactives, des chatbots, des apps de génération d’images ou des chatbots affinés, ce cours couvre un éventail de sujets et fournit des projets pratiques pour appliquer vos connaissances.
Si vous souhaitez vous lancer dans le développement d’applications d’IA, ce cours est une excellente ressource. Inscrivez-vous et commencez à créer vos applications basées sur l’IA dès aujourd’hui.
Mot de la fin
Dans cet article, nous avons exploré plusieurs cours gratuits qui vous aideront à apprendre tous les concepts nécessaires en profondeur, ainsi que des projets pratiques. Veillez à faire tous les exercices nécessaires pendant l’apprentissage ; cela améliorera votre compréhension.
Lorsque vous serez prêt à commencer à construire, consultez nos modèles d’IA populaires pour créer des applications d’IA générative.