Directif, semi-directif, ou libre : les différents types d'entretiens permettent de récolter des informations à travers une discussion avec une ou plusieurs personnes. La technique de l'entretien est très utile dans la collecte de données informatives sur des sujets très précis.
Concrètement, une source de données peut être une base de données, un fichier plat, des mesures provenant directement d'appareils physiques, des données obtenues par web scraping ou l'une des nombreux services de données statiques et de données en streaming qui abondent sur Internet.
Les méthodes qualitatives utilisent des méthodologies de collecte de données telles que des entretiens, observations, discussions et examen de documents (par exemple, des journaux de bord, des documents historiques).
Les outils de collecte de données sont utilisés pour réaliser la récolte des informations recherchées auprès des répondants. Les plus utilisés sont les formulaires (en ligne, papier, entrevue), les grilles d'observation et les outils de suivi.
Les outils de collecte de données sont des moyens ou des canaux permettant de recueillir les informations nécessaires pour répondre aux questions de l'évaluation ; ils peuvent s'appuyer sur des techniques qualitatives ou quantitatives, telles que les entretiens avec les informateurs clés, les examens de documents ou ...
Les données peuvent être divisées en 2 grandes catégories. Catégoriques et quantitatives. Les données catégories peuvent être subdivisées en données nominales et ordinales. Les données quantitatives peuvent être discrète ou continue et sont aussi appelées données numériques.
Ce sont les informations récoltées par l'entreprise elle-même sur ses canaux offline ou digitaux : sites web, applications mobiles, publicités en ligne, points de vente, CRM… Elles peuvent être comportementales (collectées via des cookies, par exemple) ou déclaratives.
Un traitement de données de qualité répond à quatre étapes incontournables. Il s'agit dans un premier temps de la collecte des données, du nettoyage de données puis de la structuration des données et enfin de l'analyse des données. C'est la première étape du processus de traitement de données.
Les questionnaires: ce sont des formulaires qui sont remplis et retournés par les déclarants. C'est une méthode peu coûteuse, utile là où les taux d'alphabétisation sont élevés et les déclarants coopératifs. Les entretiens: ce sont des formulaires qui sont remplis à l'occasion d'un entretien avec le déclarant.
Les principales étapes du processus d'analyse consistent à cerner les sujets d'analyse, à déterminer la disponibilité de données appropriées, à décider des méthodes qu'il y a lieu d'utiliser pour répondre aux questions d'intérêt, à appliquer les méthodes et à évaluer, résumer et communiquer les résultats.
La méthodologie de recherche est un aperçu de la façon dont une recherche donnée est effectuée. Elle définit les techniques ou les procédures utilisées pour identifier et analyser les informations concernant un sujet de recherche spécifique.
Pour résumer : La logique de responsabilisation. La coresponsabilité des sous-traitants. Le privacy by design.
Cette protection permet de conserver la documentation en toute sécurité dans ses trois états : En transit, à distance et en cours d'utilisation.
Souvent cités, l'observation et l'entretien sont les méthodes phares ; on oublie cependant que d'une part plusieurs types d'observation et d'entretien existent et que, d'autre part, d'autres méthodes, également qualitatives, peuvent être envisagées telle que le recueil de données secondaires.
La structure dimensionnelle en étoiles, avec ses faits au centre et ses dimensions autour décrivant les faits, est la meilleure façon de structurer les données pour en faciliter la consommation.
Le sigle RGPD signifie « Règlement Général sur la Protection des Données » (en anglais « General Data Protection Regulation » ou GDPR). Le RGPD encadre le traitement des données personnelles sur le territoire de l'Union européenne.
Pour mieux comprendre ce qu'est le Big Data voici les 3 V qui le définissent : Volume, Vitesse et Variété.
Les meilleurs logiciels Big Data gratuits et open source
Hadoop. OpenRefine. MapReduce. Cassandra.