100% DE RÉDUCTION | Science des données: prédiction pratique du diabète
[ad_1]
Il s’agit d’un projet d’apprentissage automatique de 1 heure utilisant Pyspark. Vous apprenez par la pratique.
Pas de conférences inutiles. Pas de détails inutiles.
Un cours précis, pertinent et efficace sur l’apprentissage automatique dans Spark.
À propos de Pyspark:
Pyspark est la collaboration d’Apache Spark et de Python. PySpark est un outil utilisé dans Analyse de Big Data.
Apache Spark est un cadre de calcul en cluster open source, construit autour de la vitesse, de la facilité d’utilisation et de l’analyse en continu, tandis que Python est un langage de programmation de haut niveau à usage général. Il fournit un large éventail de bibliothèques et est principalement utilisé pour l’apprentissage automatique et l’analyse de diffusion en temps réel.
En d’autres termes, il s’agit d’une API Python pour Spark qui vous permet d’exploiter la simplicité de Python et la puissance d’Apache Spark afin d’apprivoiser le Big Data. Nous utiliserons des outils Big Data dans ce projet.
Vous en apprendrez plus dans cette heure de pratique que des centaines d’heures de conférences théoriques inutiles.
Découvrez l’aspect le plus important de Spark Machine Learning (Spark MLlib):
- Fondamentaux de Pyspark et mise en œuvre de l’apprentissage automatique Spark
- Importation et utilisation d’ensembles de données
- Traiter les données à l’aide d’un modèle d’apprentissage automatique à l’aide de Spark MLlib
- Construire et former un modèle de régression logistique
- Tester et analyser le modèle
Nous allons construire un modèle pour prédire le diabète. Il s’agit d’un projet d’une heure. Dans ce projet pratique, nous effectuerons les tâches suivantes:
Tâche 1: aperçu du projet
Tâche 2: Introduction à l’environnement Colab et installation des dépendances pour exécuter Spark sur Colab
Tâche 3: Cloner et explorer l’ensemble de données sur le diabète
Tâche 4: Nettoyage des données
- Vérifiez les valeurs manquantes
- Remplacez les valeurs inutiles
Tâche 5: Corrélation et sélection des fonctionnalités
Tâche 6: créer et former un modèle de régression logistique à l’aide de Spark MLlib
Tâche 7: Évaluation des performances et test du modèle
Tâche 8: Enregistrer et charger le modèle
Faites un saut dans la science des données avec ce projet Spark MLlib et présentez vos compétences sur votre CV. Cliquez donc sur le bouton «INSCRIPTION MAINTENANT» et commencez à apprendre, à construire et à tester le modèle.
[ad_2]
Telecharger ici