Data Science: Prédiction pratique du diabète avec Pyspark MLlib – Cours Udemy gratuits



Éditeur : École d’innovation disruptive

Prix : 9 $

Durée du cours :

->

Langue du cours : Anglais

La description

Il s’agit d’un projet d’apprentissage automatique de 1 heure utilisant Pyspark. Vous apprenez par la pratique.

Pas de conférences inutiles. Pas de détails inutiles.

Un cours précis, pertinent et efficace sur l’apprentissage automatique dans Spark.

À propos de Pyspark:

Pyspark est la collaboration d’Apache Spark et de Python. PySpark est un outil utilisé dans Analyse de Big Data.

Apache Spark est un cadre de calcul en cluster open source, construit autour de la vitesse, de la facilité d’utilisation et de l’analyse en continu, tandis que Python est un langage de programmation de haut niveau à usage général. Il fournit un large éventail de bibliothèques et est principalement utilisé pour l’apprentissage automatique et l’analyse de diffusion en temps réel.

lire plus  100% DE RÉDUCTION | Cours Grafana

En d’autres termes, il s’agit d’une API Python pour Spark qui vous permet d’exploiter la simplicité de Python et la puissance d’Apache Spark afin d’apprivoiser le Big Data. Nous utiliserons des outils Big Data dans ce projet.

Vous en apprendrez plus dans cette heure de pratique que des centaines d’heures de conférences théoriques inutiles.

Découvrez l’aspect le plus important de Spark Machine Learning (Spark MLlib):

  • Fondamentaux de Pyspark et mise en œuvre de l’apprentissage automatique Spark

  • Importation et utilisation d’ensembles de données

  • Traiter les données à l’aide d’un modèle d’apprentissage automatique à l’aide de Spark MLlib

  • Construire et former un modèle de régression logistique

  • Tester et analyser le modèle

lire plus  Flask - Full Stack - Connexion à la base de données "zero to know" Partie 2 - Cours Udemy gratuits

Nous allons construire un modèle pour prédire le diabète. Il s’agit d’un projet d’une heure. Dans ce projet pratique, nous effectuerons les tâches suivantes:

Tâche 1: aperçu du projet

Tâche 2: Introduction à l’environnement Colab et installation des dépendances pour exécuter Spark sur Colab

Tâche 3: Cloner et explorer l’ensemble de données sur le diabète

Tâche 4: Nettoyage des données

  1. Vérifiez les valeurs manquantes

  2. Remplacez les valeurs inutiles

Tâche 5: Corrélation et sélection des fonctionnalités

Tâche 6: créer et former un modèle de régression logistique à l’aide de Spark MLlib

Tâche 7: Évaluation des performances et test du modèle

Tâche 8: Enregistrer et charger le modèle

lire plus  MongoDB et Python: démarrage rapide

Faites un saut dans la science des données avec ce projet Spark MLlib et présentez vos compétences sur votre CV. Cliquez donc sur le bouton «INSCRIPTION MAINTENANT» et commencez à apprendre, à construire et à tester le modèle.



Telecharger ici

Laisser un commentaire

Aller au contenu principal