Entropie incontrôlée et infobésité Le big data est par sa définition même sujet à un autre danger intrinsèque majeur : le « déluge de données » (data deluge). Celui-ci correspond à une surproduction d'informations que l'on ne sait pas traiter correctement, ou sinon au détriment de leur véracité ou de leur valeur.
L'un des avantages les plus importants du big data pour les entreprises est la réduction des coûts du stockage, du traitement et de l'analyse de données massives. Les outils de big data permettent aussi d'identifier des manières efficaces et plus économiques de faire des affaires.
Le Gartner donne une vue très mnémotechnique du concept du Big Data, qui répond à la problématique des 3V : volumes de données, variété des données (multi-source) et vélocité en termes de collecte des données, stockage et analyse.
Les limites des statistiques
Le Big Data se fonde entièrement sur les statistiques. Il s'agit de récolter et d'analyser un maximum de données afin d'en dégager des tendances et donc des objectifs pour l'entreprise. Cependant, il serait vain de croire qu'il est la clef de l'analyse prédictive.
L'origine du problème est à trouver du côté de la gouvernance, des projets d'une part, lors de l'industrialisation des modèles de data science sur la plateforme de production, et des données d'autre part, par manque de connaissance du patrimoine informationnel de l'entreprise et des méthodes pour les rendre ...
Les spécialistes du Big Data, notamment chez IBM, définissent le Big Data par les quatre V suivants : Volume, Variété, Vitesse et Véracité. Ces quatre dimensions caractérisent et distinguent les données volumineuses des données ordinaires.
Définir clairement ses objectifs : l'exploitation des données permet de répondre à des questions mais pas à définir des problématiques stratégiques. Procéder de manière itérative : permet de rapidement expérimenter et d'améliorer de façon continue. La question évolue au fur et à mesure de l'analyse de données.
Les raisons sous-jacentes sont nombreuses, mais la difficulté numéro un est le manque de préparation assortie à un défaut de vision et d'ambition.
Le déficit de compétences techniques, et l'insuffisance des infrastructures IT constituent les principaux freins à l'exploitation du big data.
Les risques liés à la donnée sont essentiellement des risques d'intrusion. D'intrusion dans sa vie intime, dans sa vie personnelle, dans sa vie privée numérique. Quand on navigue sur le web, on laisse beaucoup d'informations, on laisse plein de traces - quelques fois sans s'en rendre véritablement compte.
L'objectif principal du Big Data est de réussir à faire apparaître des enseignements (insights) et des connexions entre de gros volumes de données de nature hétérogène qui seraient impossible à obtenir avec les méthodes classiques d'analyse des données.
Cette notion s'appuie sur trois piliers - IA, ouverture et neutralité vis à vis de la localisation des données.
Une architecture Big Data est conçue pour gérer l'ingestion, le traitement et l'analyse de données trop volumineuses ou complexes pour les systèmes de base de données traditionnels.
Le Big Data vous permet de rassembler des données provenant de médias sociaux, de visites Web, de journaux d'appels et d'autres sources pour améliorer l'expérience d'interaction et maximiser la valeur fournie.
Le principe du big data est recueillir des données issues de sources multiples, pour les analyser et en retirer une information : cette dernière va aider à une décision, ou procurer une solution, via des tableaux de bord ou des analyses prédictives.
L'intérêt du Big Data, c'est de pouvoir tirer profit de nouvelles données produites par tous les acteurs – les entreprises, les particuliers, les scientifiques et les institutions publiques – dans le but d'optimiser son offre commerciale, ses services, développer la recherche et le développement mais aussi créer des ...
Ces hôtels à data sont particulièrement polluants à cause de l'électricité consommée pour en alimenter les serveurs (ou ordinateurs) et de l'eau utilisée pour les refroidir – un centre de taille moyenne engloutit 600.000 mètres cubes par an, soit l'équivalent de 6,5 piscines olympiques chaque jour.
Les NTIC ont tendance à accélérer le rythme de la vie quotidienne et introduire davantage de stress. L'informatisation de nombreux emplois dans l'industrie (la fabrication, par exemple), ainsi que la robotisation des usines, conduit à une augmentation notable du chômage.
La fabrication des serveurs informatiques demande, à l'instar de nos autres appareils électroniques, de grandes quantités de matières premières polluantes. L'extraction de métaux rares mixé aux substances toxiques ont définitivement un impact d'un point de vue environnemental et humanitaire.