Loading...

DESCRIPTIF DE LA FORMATION

Détecter, Analyser, décider

Le traitement de données au service de l’entreprise, c’est avant tout comprendre les enjeux et principes d’une activité afin de faire émerger les éléments pertinents et significatifs à prendre en compte pour le décideur. Comprendre les données et formuler des hypothèses sur l’objectivation de différents phénomènes permet de mieux piloter ces activités par une prise de décision accélérée et une qualité d’information supérieure.

  • Formation prise en charge par l’entreprise ou Pôle emploi

  • Deux modes : classique ou accéléré entre 8 et 12 semaines

  • Prérequis : bonne maîtrise des outils informatiques

Afin d’approfondir d’un rapport magiques. Cependant, elles sont pourtant clairement définies et intelligibles de différentes manières complémentaires.

Découverte des données

Cours :

  • Les types de données
  • Les données quantitatives
  • Les données qualitatives
  • Longitudinalité

Données non-structurées

Cours :

  • Données audio
  • Données vidéo
  • Données textuelles

Les différents systèmes de numérations

Cours :

  • Décimal
  • Binaire
  • Hexadécimal

Conversions entre les systèmes

Cours :

  • Du décimal au binaire
  • Du décimal à l’hexadécimal
  • Du binaire à l’hexadécimal

Travaux pratiques :

  • Conversions entre bases

Les types d’indicateurs

Cours :

  • Répartition
  • Comparaison
  • Evolution

Travaux pratiques :

  • Etude de cas et définition fonctionnelle et technique de KPI

Statistiques et visualisations

Cours :

  • Combinaisons possibles
  • Langages et logiciels utilisés

Véritable pont interdisciplinaires, ce puissant langage objet devient progressivement un standard de développement dans les activités d’analyses de données.

Un langage objet

Cours :

  • Statistiques de gestion avancées : préalables et types de tests
  • Un langage orienté objet
  • RCommander

Prise en main de l’interface Studio

Cours :

  • Descriptif de l’interface
  • Le Markdown
  • Liaisons externes (Git, Zotero…)

Comprendre les enjeux autour du rangement des données et les possibles visualisations associées à ces dernières facilite la manipulation.

Qu’est-ce qu’une base de données « Tidy »

Cours :

  • L’objet Tibble
  • Manipulation
  • Les verbes de « dplyr »

Introduction à la visualisation

Cours :

  • Les fonctions de visualisation
  • L’utilisation de ggplot2

Rigueur, éthique de vérité et esprit de curiosité sont des prérequis relationnels qui doivent s’associer à une implémentation de technique de contrôle et vérification des fits.

Point de vue théorique

Cours :

  • L’approche psychosociologique
  • L’approche financière
  • L’approche industrielle
  • Le reporting, le management et la décision

Travailler les données structurées

Cours :

  • Tests sur les variables qualitatives
  • Tests sur les variables quantitatives
  • Recodages & échelles

Travailler les données non structurées

Cours :

  • Acquérir les données
  • Ranger les données
  • Préprocessing
  • Tests sur données textuelles

Un modèle d’entrainement historique doit servir à analyser le présent afin de transformer les méthodes exploratoires en techniques classificatoires.

Définir l’entrainement

Cours :

  • Les tokens
  • Génération du modèle d’entraînement
  • Modèles nichés
  • De l’exploratoire au classificatoire

Etablir les modèles prédictifs

Cours :

  • Préparation des échantillons de tests
  • Estimer la qualité du modèle

Vers un soutien analytique accru à la décision

Synthèses, observations et interrogations sont des éléments continus de la démarche itérative de recherche et d’épistémologie scientifique.

Nos autres formations

Ingénieur système z/OS

Administrateur big data

Analyste
big data

Administrateur
Unix

Ingénieur
JAVA/JEE

Ingénieur d’étude z/OS