Résumé de Maîtriser le raz-de-marée du Big Data

Vous recherchez le livre ?
Nous avons le résumé ! Découvrez les points clés en 10 minutes seulement.

Maîtriser le raz-de-marée du Big Data résumé de livre
Développez votre intelligence :
ou nos abonnements

Classement

7

Caractéristiques

  • Innovant
  • Connaissance du contexte
  • Niveau Expert

Commentaires

Bill Franck, expert en analytique, affirme que l’avalanche de ‘données massives’, à savoir le flux d’informations qui déferle sur l’ensemble des entreprises, peut sembler envahissante. Il ne fait aucun doute pour lui que le Big Data se présentant sous des formats inédits et divers peut paraître complexe à ses utilisateurs et compliquer son analyse. L’auteur propose des outils conceptuels et des illustrations que les lecteurs peuvent utiliser pour exploiter au mieux la diffusion croissante de données. C’est à juste titre que le lecteur profane jugera cet ouvrage quelque peu austère et son thème principal complexe et pointu, car il ne fait pas partie du public que l’auteur cible principalement. getAbstract recommande cette étude perspicace à tous les cadres désireux d’effectuer des analyses et de mettre en place des programmes de gestion des connaissances, aux analystes eux-mêmes et à l’ensemble des professionnels qui souhaitent comprendre comment la technologie peut contribuer à faire évoluer l’entreprise.

À propos de l’auteur

Bill Franks est directeur de l’analytique chez Teradata. Il supervise le Business Analytics Innovation Center parrainé par Teradata.

 

Résumé

L’évolution du Big Data

À l’avenir, rien n’est plus susceptible de façonner ‘l’analytique avancée’ que ‘l’explosion inaltérable de sources inédites et puissantes de données’ ou, en d’autres termes, le Big Data. Ces nouvelles sources de données sont dotées d’un ensemble inhérent de qualités qui les définissent par rapport aux ‘sources traditionnelles de données’. Le Big Data est plus rapide, plus complexe et plus varié que ne le sont les données traditionnelles. Alors que les décideurs et les archivistes génèrent des données traditionnelles, les ordinateurs, quant à eux, engendrent des données massives exploitant les technologies de l’information, la capacité de traitement et la mémoire artificielle. Afin d’optimiser le Big Data, il est nécessaire de parvenir à distinguer l’information pertinente de l’information superflue. Aussi, le Big Data n’est utile que lorsqu’il est associé aux données traditionnelles et à l’analyse appliquée.

Si les données traditionnelles sont structurées, la plus grande partie du Big Data est, en revanche, non structurée ou ‘semi-structurée’. Pour tirer profit de ces informations, vous devrez vous efforcer d’appréhender la logique des données...


Plus d'infos sur ce thème

Les clients qui ont lu ce résumé ont également lu

Le numérique en point de mire
8
Le financier, le juriste et le geek
8
Guide de l’intelligence artificielle
8
Y a-t-il un pilote dans la voiture autonome ?
9
Industry X.0
8
Que faire quand les machines font tout ?
8

Chaînes associées