Cours virtuel de :Edureka |
La formation de certification Edureka Apache Kafka vous aide à apprendre les concepts de l'architecture Kafka, de la configuration du cluster Kafka, du producteur Kafka, du consommateur Kafka et de la surveillance Kafka.
La formation de certification Apache Kafka est conçue pour fournir des informations sur l'intégration de Kafka avec
Hadoop, Storm et Spark, comprendre les API Kafka Stream, implémenter le streaming Twitter avec Kafka,
Canal à travers des études de cas réels.
À PROPOS DU COURS
La formation de certification Apache Kafka est conçue pour vous donner les connaissances et les compétences nécessaires pour devenir un développeur Kafka Big Data performant. La formation couvre les concepts fondamentaux de Kafka (tels que Kafka Cluster et Kafka API) et couvre des sujets avancés (tels que Kafka Connect, Kafka streams, Kafka Integration with Hadoop, Storm et Spark) vous permettant d'acquérir de l'expérience avec Apache Kafka.
OBJECTIFS DU COURS
Après avoir suivi le cours Real-Time Analytics with Apache Kafka à Edureka, vous devriez être en mesure de : Apprendre Kafka et ses composants Établir un cluster Kafka de bout en bout avec le cluster Hadoop et YARN Intégrer Kafka avec des systèmes de streaming en temps réel tels que Spark & Storm Décrire les fonctionnalités de base et avancées impliquées dans la conception et le développement d'un système de messagerie performant. Utilisez Kafka pour produire et consommer des messages à partir de diverses sources, y compris des sources de streaming telles que Twitter. Obtenez un aperçu de l'API Kafka.
INTRODUCTION AU BIG DATA ET APACHE KAFKA. Objectif : Dans ce module, vous comprendrez où se situe Kafka dans l'espace du Big Data et de l'architecture Kafka. De plus, vous découvrirez Kafka Cluster, ses composants et comment configurer les capacités d'un cluster : Concepts de Kafka Installation de Kafka Configuration de Kafka Cluster Objectifs : À la fin de ce module, vous devriez être en mesure de : Expliquer ce qu'est le Big Data Comprendre pourquoi Big Data Analytics est important Décrire le besoin de Kafka Connaître le rôle de chaque composant Kafka Comprendre le rôle de ZooKeeper Installer ZooKeeper et Kafka Classer différents types de clusters Kafka Travailler avec un seul nœud - Cluster à courtier unique Sujets : Introduction au Big Data Big Besoin d'analyse de données pour Kafka Qu'est-ce que Kafka ? Fonctionnalités de Kafka Concepts de Kafka Architecture de Kafka Composants de Kafka ZooKeeper Où Kafka est-il utilisé ? Installation de Kafka Cluster Kafka Types de clusters Kafka Configuration à nœud unique Cluster à agent unique Procédure : Installation de Kafka Déploiement à nœud unique Cluster à agent unique Recevez un programme de cours détaillé dans votre boîte de réception Téléchargez le plan des études
PRODUCTEUR DE KAFKA. Objectif : les producteurs de Kafka envoient des journaux aux sujets. Les journaux sont parfois appelés messages. Dans ce module, vous travaillerez avec différentes API Kafka Producer. Compétences : Configurer Kafka Producer Construire Kafka Producer API Kafka Producer Gérer les partitions Objectifs : A la fin de ce module, vous devriez être capable de : Construire un Kafka Producer Envoyer des messages à Kafka Envoyer des messages de manière synchrone et asynchrone Configurer des producteurs Sérialiser à l'aide d'Apache Avro Créer et gérer Thèmes des partitions : Configuration d'un cluster à nœud unique et à courtier unique Création d'un producteur Kafka Envoi d'un message à Kafka Production de messages avec et sans clé Envoi d'un message de manière synchrone et asynchrone Sérialiseurs de producteurs Sérialisation avec les partitions Apache Avro Travaux pratiques :
CONSOMMATEUR KAFKA. Objectif : les applications qui ont besoin de lire des données à partir de Kafka utilisent un consommateur Kafka pour s'abonner et recevoir des messages à partir de sujets Kafka. Dans ce module, vous apprendrez à créer Kafka Consumer, à traiter les messages Kafka avec Consumer, à exécuter Kafka Consumer et à vous abonner à Topics Skills : Configurer Kafka Consumer API Kafka Consumer Construire Kafka Consumer Objectifs : à la fin de ce module, vous devriez être capable de : Effectuer des opérations sur Kafka Définir des groupes de consommateurs et des consommateurs Kafka Expliquer comment l'équilibrage des partitions se produit Décrire comment les partitions sont mappées au courtier Kafka Configurer le consommateur Kafka Créer un consommateur Kafka et s'abonner aux rubriques Décrire et implémenter différents types d'engagement Désérialiser les messages reçus
INTERNES DE KAFKA. Objectif : Apache Kafka fournit une plate-forme unifiée, hautes performances et à faible latence pour la gestion des flux de données en temps réel. En savoir plus sur le réglage de Kafka pour répondre à vos besoins de hautes performances. Compétences : Kafka API Kafka Storage Configuration Broker Objectifs : A la fin de ce module, vous devriez être capable de : Comprendre les rouages de Kafka Expliquer le fonctionnement de la réplication dans Kafka Différencier les répliques synchronisées et non synchronisées Comprendre l'allocation des partitions Classifier et Décrire les requêtes dans Kafka Configurez Broker, Producer et Consumer pour un système approuvé Validez les fiabilités du système Configurez Kafka pour les problèmes de réglage des performances :
Les sessions dirigées par un instructeur répondront à toutes vos préoccupations en temps réel.
Accès illimité au référentiel d'apprentissage en ligne du cours.
Développer un projet avec accompagnement en direct, basé sur l'un des cas vus
Dans chaque cours, vous aurez des tâches pratiques qui vous aideront à appliquer les concepts enseignés.
Bonjour, comment puis-je vous aider? Un cours vous intéresse ? A propos de quel sujet ?
Ajoutez votre avis