Rejoignez getAbstract pour lire le résumé !

Maîtriser le raz-de-marée du Big Data

Rejoignez getAbstract pour lire le résumé !

Maîtriser le raz-de-marée du Big Data

Wiley,

15 minutes de lecture
10 points à retenir
Texte disponible

Aperçu

Êtes-vous prêts à monétiser le raz-de-marée de données qui fonce droit sur vous ?

Classement éditorial

7

Caractéristiques

  • Innovant
  • Connaissance du contexte
  • Niveau Expert

Commentaires

Bill Franck, expert en analytique, affirme que l’avalanche de ‘données massives’, à savoir le flux d’informations qui déferle sur l’ensemble des entreprises, peut sembler envahissante. Il ne fait aucun doute pour lui que le Big Data se présentant sous des formats inédits et divers peut paraître complexe à ses utilisateurs et compliquer son analyse. L’auteur propose des outils conceptuels et des illustrations que les lecteurs peuvent utiliser pour exploiter au mieux la diffusion croissante de données. C’est à juste titre que le lecteur profane jugera cet ouvrage quelque peu austère et son thème principal complexe et pointu, car il ne fait pas partie du public que l’auteur cible principalement. getAbstract recommande cette étude perspicace à tous les cadres désireux d’effectuer des analyses et de mettre en place des programmes de gestion des connaissances, aux analystes eux-mêmes et à l’ensemble des professionnels qui souhaitent comprendre comment la technologie peut contribuer à faire évoluer l’entreprise.

Résumé

L’évolution du Big Data

À l’avenir, rien n’est plus susceptible de façonner ‘l’analytique avancée’ que ‘l’explosion inaltérable de sources inédites et puissantes de données’ ou, en d’autres termes, le Big Data. Ces nouvelles sources de données sont dotées d’un ensemble inhérent de qualités qui les définissent par rapport aux ‘sources traditionnelles de données’. Le Big Data est plus rapide, plus complexe et plus varié que ne le sont les données traditionnelles. Alors que les décideurs et les archivistes génèrent des données traditionnelles, les ordinateurs, quant à eux, engendrent des données massives exploitant les technologies de l’information, la capacité de traitement et la mémoire artificielle. Afin d’optimiser le Big Data, il est nécessaire de parvenir à distinguer l’information pertinente de l’information superflue. Aussi, le Big Data n’est utile que lorsqu’il est associé aux données traditionnelles et à l’analyse appliquée.

Si les données traditionnelles sont structurées, la plus grande partie du Big Data est, en revanche, non structurée ou ‘semi-structurée’. Pour tirer profit de ces informations, vous devrez vous efforcer d’appréhender la logique des données...

À propos de l’auteur

Bill Franks est directeur de l’analytique chez Teradata. Il supervise le Business Analytics Innovation Center parrainé par Teradata.