KALEO Formation

BIG DATA - DATA SCIENTIST

Présentiel

Blended - Learning

E-learning

Formations Certifiantes - Code CPF 205941

Ces dernières années l’essor du Big Data a donné naissance à deux métiers, le métier de Data Engineer et celui de Data Scientist.

Le Data Engineer est le premier maillon de la chaîne de traitement des données. Son travail consiste à concevoir des plateformes permettant de traiter des volumes importants de données qui doivent être suffisamment sécurisés et clairs pour être analysés puis transformés par les Data Scientists. Pour ce faire le Data Engineer possède une expertise des langages structurés tels que Javascript, Scala et Python, des compétences dans la conception de bases de données qu’il créé avec SQL et NoSQL, et dans différentes technologies comme Hadoop.

Lorsque le Data Engineer a mis en place les architectures Data, le Data Scientist va analyser les datas (clients, prospects, produits…) et les restitue pour formuler des propositions sous forme de conseils, d’amélioration et de performance de l’entreprise. Le rôle du Data Scientist est de faire parler la donnée. Il possède de solides compétences en programmation informatique (Java, C++…), une expertise en algorithmie et gestion des bases de données (NoSQL, Cassandra…), il maîtrise l’architecture des bases de données décisionnelles (Data Warehouse), les mathématiques appliquées, les statistiques, la gestion de projet.

CYCLE DATA ENGINEER

INGINEERING FULL STACK BIG DATA - 23 JOURS
 Big Data - Enjeux et perspectives1 jour
 Introduction à l'Architecture Big Data1 jour
 NoSQL : Hbase / Cassandra / Neo4j/ Redis/ MongoDB5 jours
 Apache Hadoop4 jours
 Apache Spark3 jours
 Apache Kafka2 jours
 Elasctic Stack Elk2 jours
 Introduction à Hortonworks / Cloudera2 jours
Gouvernance et sécurité1 jour
Mise en place d'une Plateforme BIG DATA1 jour
Mise en place d'un Data Lake1 jour
ADMINISTRATION BIG DATA - 11 JOURS
 Administration Hortonworks ou Cloudera Niveau 12 jours
 Administation Hortonworks ou Cloudera Niveau 23 jours
Mise en place d’un cluster BigData dans le Cloud (AWS ou GCP ou AZURE)2 jours
Mise en place d’un cluster Elastic2 jours
Apache Kafka2 jours

CYCLE DATA SCIENTIST

DATA ANALYST - 19 JOURS
Analyse de données et méthodes statistiques2 jours
Introduction : BIG Data Analyst1 jour
Introduction : Big Data Analytics1 jour
Hadoop : HDFS – YARN1 jour
Apache Hive2 jours
Introduction, ingestion et visualisation avec R1 jour
R avec BIG DATA (Hadoop et Spark )2 jours
Machine Learning : Principes de bases1 jour
Spark MLIB1 jour
DataViz: Power BI et Tableau4 jours
Big Data et Objets connectés3 jours
DATA SCIENTIST AVEC R - 18 JOURS
Introduction à la data science1 jour
ElascticSearch2 jours
Spark avec Hadoop3 jours
R : Initiation et Analyses statistiques4 jours
R : Programmation2 jours
Machine Learning avec R2 jours
Deep Learning avec R2 jours
DataViz avec R-Shiny2 jours
DATA SCIENTIST AVEC PYTHON - 18 JOURS
Introduction à la data science1 jour
ElascticSearch2 jours
Spark avec Hadoop3 jours
Programmation en Python3 jours
Machine Learning avec Python5 jours
Deep Learning avec Python2 jours
Visualisation : Notebook Zipline-Jupyter2 jours
DATA SCIENTIST ET IA - 17 JOURS
Introduction : IA et la data science Deep Learning vs Machine Learning1 jour
Data Science avec Python2 jours
Industrialisation des cas d’usages de Data Science et de Data prep2 jours
Machine Learning : Concepts de base, modèles linéaires, perception, K nearest neighbors2 jours
Deep Learning: Introduction et Principaux algorithmes2 jours
Introduction à Spark avec Scala et PySpark2 jours
Spark MLib : Machine Learning avec Spark1 jour
Deep Learning avec TensorFlow1 jour
RPA (Robotic Process Automation)2 jours
RPA avec UiPath2 jours
AWS - 18 JOURS
Introduction BIG DATA dans le cloud1 jour
Architecture BIG DATA concept et patterns1 jour
AWS : Les Fondamentaux3 jours
AWS : Ingestion des données sous AWS4 jours
AWS : Traitement des données sous AWS6 jours
AWS : Consommation des données pour un usage BI / Reporting1 jour
AWS : Consommation des données pour un usage Exploratoire et Data Science2 jours
AZURE - 18 JOURS
Introduction BIG DATA dans le cloud1 jour
Architecture BIG DATA concepts et patterns1 jour
AZURE : Les Fondamentaux3 jours
AZURE : Ingestion des données sous Azure4 jours
AZURE : Traitement de données6 jours
AZURE : Consommation des données pour un usage BI / Reporting1 jour
AZURE : Consommation des données pour un usage Exploratoire et Data Science2 jours
GCP - 18 JOURS
Introduction BIG DATA dans le cloud1 jour
Architecture BIG DATA concepts et patterns1 jour
GCP : Les Fondamentaux3 jours
GCP : Ingestion et des données sous GCP4 jours
GCP : Traitement de données6 jours
GCP : Consommation des données pour un usage BI / Reporting1 jour
GCP : Consommation des données pour un usage Exploratoire et Data Science2 jours

SUPPORT DE FORMATION

Support de formation format Print et/ou Numérique
Ressources documentaires en ligne
Ressources Internet

MATERIEL & OUTILS PEDAGOGIQUES

Machine virtuelle : Google Cloud Plateforme
Logiciels et utilitaires préinstallés

METHODE PEDAGOGIQUE

Méthode pédagogique en mode projet, les participants travaillent sur des cas pratiques en groupe.
Alternance d’activités individuelles et en groupe pour s’adapter au rythme de chacun.
Des exercices progressifs en fonction de l’avancement des participants.

INTERVENANTS

Des formateurs ayant une double compétences : compétences informatique et compétences métiers : Banque, Assurance, Administration, Santé, Transports…) interviennent pour animer les formations.

MODALITES D'EVALUATION

Au cours de la formation :
Réalisation d'un cas pratique
Accès à la Plateforme CODINGAME
Un mois après la fin de la formation : Soutenance devant un jury sur un projet