100% DE RÉDUCTION | Science des données: prédiction pratique du diabète

Posted on


Il s’agit d’un projet d’apprentissage automatique de 1 heure utilisant Pyspark. Vous apprenez par la pratique.

Pas de conférences inutiles. Pas de détails inutiles.

Un cours précis, pertinent et efficace sur l’apprentissage automatique dans Spark.

À propos de Pyspark:

Pyspark est la collaboration d’Apache Spark et de Python. PySpark est un outil utilisé dans Analyse de Big Data.

Apache Spark est un cadre de calcul en cluster open source, construit autour de la vitesse, de la facilité d’utilisation et de l’analyse en continu, tandis que Python est un langage de programmation de haut niveau à usage général. Il fournit un large éventail de bibliothèques et est principalement utilisé pour l’apprentissage automatique et l’analyse de diffusion en temps réel.

En d’autres termes, il s’agit d’une API Python pour Spark qui vous permet d’exploiter la simplicité de Python et la puissance d’Apache Spark afin d’apprivoiser le Big Data. Nous utiliserons des outils Big Data dans ce projet.

Vous en apprendrez plus dans cette heure de pratique que des centaines d’heures de conférences théoriques inutiles.

Découvrez l’aspect le plus important de Spark Machine Learning (Spark MLlib):

  • Fondamentaux de Pyspark et mise en œuvre de l’apprentissage automatique Spark
  • Importation et utilisation d’ensembles de données
  • Traiter les données à l’aide d’un modèle d’apprentissage automatique à l’aide de Spark MLlib
  • Construire et former un modèle de régression logistique
  • Tester et analyser le modèle

Nous allons construire un modèle pour prédire le diabète. Il s’agit d’un projet d’une heure. Dans ce projet pratique, nous effectuerons les tâches suivantes:

Tâche 1: aperçu du projet

Tâche 2: Introduction à l’environnement Colab et installation des dépendances pour exécuter Spark sur Colab

Tâche 3: Cloner et explorer l’ensemble de données sur le diabète

Tâche 4: Nettoyage des données

  1. Vérifiez les valeurs manquantes
  2. Remplacez les valeurs inutiles

Tâche 5: Corrélation et sélection des fonctionnalités

Tâche 6: créer et former un modèle de régression logistique à l’aide de Spark MLlib

Tâche 7: Évaluation des performances et test du modèle

Tâche 8: Enregistrer et charger le modèle

Faites un saut dans la science des données avec ce projet Spark MLlib et présentez vos compétences sur votre CV. Cliquez donc sur le bouton «INSCRIPTION MAINTENANT» et commencez à apprendre, à construire et à tester le modèle.



Telecharger ici

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *