Un traitement de données de qualité répond à quatre étapes incontournables. Il s'agit dans un premier temps de la collecte des données, du nettoyage de données puis de la structuration des données et enfin de l'analyse des données. C'est la première étape du processus de traitement de données.
Le traitement des données commence avec les données brutes : il les convertit sous une forme plus lisible (graphiques, documents de texte, etc.) en leur donnant le format et contexte nécessaires pour qu'elles puissent être interprétées par les systèmes IT et utilisées par les employés à l'échelle de l'entreprise.
Les données pénètrent souvent dans les entreprises sous forme non structurée. Pour pouvoir être exploitées par l'environnement de Business Intelligence de l'entreprise, ces données doivent être préparées: structuration, déduplication et plus généralement « nettoyage ».
En analyse de données, on distingue principalement deux modèles de données ou variables : les données quantitatives et les données qualitatives. Il existe une différence notable entre une donnée quantitative et une donnée qualitative. Ces deux modèles sont largement utilisés en analyse de données.
Pour les ordinateurs modernes les organes d'entrée sont le clavier et la souris, les organes de traitement sont ces systèmes d'application que nous le Microsoft Word, Excel... et les organes de sortie sont : l'écran, l'imprimante, le graveur de CD et DVD etc.
Sélectionner Données > Analyse > Utilitaire d'analyse, puis Statistiques descriptives (figure1) Pour la plage d'entrée, sélectionner la ou les colonnes correspondant aux variables quantitatives à étudier. Cocher « Intitulés en première ligne » et « Rapport détaillé » (figure 2)
On parle depuis quelques années du phénomène de big data , que l'on traduit souvent par « données massives ». Avec le développement des nouvelles technologies, d'internet et des réseaux sociaux ces vingt dernières années, la production de données numériques a été de plus en plus nombreuse : textes, photos, vidéos, etc.
L'objectif principal du Big Data est de réussir à faire apparaître des enseignements (insights) et des connexions entre de gros volumes de données de nature hétérogène qui seraient impossible à obtenir avec les méthodes classiques d'analyse des données.
La préparation de données est un processus qui précède celui de l'analyse de données. Il est constitué de plusieurs tâches comme la collecte de données, le nettoyage de données, l'enrichissement de données ou encore la fusion de données.
En informatique, le terme traitement de données ou traitement électronique des données renvoie à une série de processus qui permettent d'extraire de l'information ou de produire du savoir à partir de données brutes. Ces processus, une fois programmés, sont le plus souvent automatisés à l'aide d'ordinateurs.
Quatre concepts – algorithme, machine, langage et information – semblent suffisants pour couvrir l'ensemble de ce que nous appelons « informatique ».
Ce sont également les données génétiques, les données biométriques aux fins d'identifier une personne physique de manière unique, les données concernant la santé, la vie sexuelle ou l'orientation sexuelle d'une personne physique. Il est interdit de recueillir et d'utiliser ces données.
Tout l'enjeu de la protection des personnes est de tenter de donner à l'individu un contrôle sur la collecte et l'exploitation de ses données personnelles, même s'il s'agit d'un "combat" difficile, compte-tenu de la croissance exponentielle des moyens informatiques de collecte et de traitement mondialisés.
Cette protection permet de conserver la documentation en toute sécurité dans ses trois états : En transit, à distance et en cours d'utilisation.
Les données qualitatives sont des données auxquelles on ne peut pas attribuer une valeur ou une caractéristique. Exemples de propriétés physiques qualitatives : La couleur, la texture, le goût, l'odeur, l'état et la ductilité.