DESCRIPTIF DE LA FORMATION
Détecter, Analyser, décider
Le traitement de données au service de l’entreprise, c’est avant tout comprendre les enjeux et principes d’une activité afin de faire émerger les éléments pertinents et significatifs à prendre en compte pour le décideur. Comprendre les données et formuler des hypothèses sur l’objectivation de différents phénomènes permet de mieux piloter ces activités par une prise de décision accélérée et une qualité d’information supérieure.
Formation prise en charge par l’entreprise ou Pôle emploi
Deux modes : classique ou accéléré entre 8 et 12 semaines
Prérequis : bonne maîtrise des outils informatiques
Afin d’approfondir d’un rapport magiques. Cependant, elles sont pourtant clairement définies et intelligibles de différentes manières complémentaires.
Découverte des données
Cours :
- Les types de données
- Les données quantitatives
- Les données qualitatives
- Longitudinalité
Données non-structurées
Cours :
- Données audio
- Données vidéo
- Données textuelles
Les différents systèmes de numérations
Cours :
- Décimal
- Binaire
- Hexadécimal
Conversions entre les systèmes
Cours :
- Du décimal au binaire
- Du décimal à l’hexadécimal
- Du binaire à l’hexadécimal
Travaux pratiques :
- Conversions entre bases
Les types d’indicateurs
Cours :
- Répartition
- Comparaison
- Evolution
Travaux pratiques :
- Etude de cas et définition fonctionnelle et technique de KPI
Statistiques et visualisations
Cours :
- Combinaisons possibles
- Langages et logiciels utilisés
Véritable pont interdisciplinaires, ce puissant langage objet devient progressivement un standard de développement dans les activités d’analyses de données.
Un langage objet
Cours :
- Statistiques de gestion avancées : préalables et types de tests
- Un langage orienté objet
- RCommander
Prise en main de l’interface Studio
Cours :
- Descriptif de l’interface
- Le Markdown
- Liaisons externes (Git, Zotero…)
Comprendre les enjeux autour du rangement des données et les possibles visualisations associées à ces dernières facilite la manipulation.
Qu’est-ce qu’une base de données « Tidy »
Cours :
- L’objet Tibble
- Manipulation
- Les verbes de « dplyr »
Introduction à la visualisation
Cours :
- Les fonctions de visualisation
- L’utilisation de ggplot2
Rigueur, éthique de vérité et esprit de curiosité sont des prérequis relationnels qui doivent s’associer à une implémentation de technique de contrôle et vérification des fits.
Point de vue théorique
Cours :
- L’approche psychosociologique
- L’approche financière
- L’approche industrielle
- Le reporting, le management et la décision
Travailler les données structurées
Cours :
- Tests sur les variables qualitatives
- Tests sur les variables quantitatives
- Recodages & échelles
Travailler les données non structurées
Cours :
- Acquérir les données
- Ranger les données
- Préprocessing
- Tests sur données textuelles
Un modèle d’entrainement historique doit servir à analyser le présent afin de transformer les méthodes exploratoires en techniques classificatoires.
Définir l’entrainement
Cours :
- Les tokens
- Génération du modèle d’entraînement
- Modèles nichés
- De l’exploratoire au classificatoire
Etablir les modèles prédictifs
Cours :
- Préparation des échantillons de tests
- Estimer la qualité du modèle
Vers un soutien analytique accru à la décision
Synthèses, observations et interrogations sont des éléments continus de la démarche itérative de recherche et d’épistémologie scientifique.
