Présentation
Les solutions d’analytique données à grande échelle combinent l’entreposage de données classique utilisé pour prendre en charge le décisionnel (BI) avec des techniques utilisées pour l’analytique « Big Data ». Une solution d’entreposage de données conventionnelle implique généralement de copier des données à partir de magasins de données transactionnels dans une base de données relationnelle avec un schéma optimisé pour l’interrogation et la création de modèles multidimensionnels. Toutefois, les solutions de traitement de Big Data sont utilisées avec de grands volumes de données dans plusieurs formats, qui sont chargés par lots ou capturés dans des flux en temps réel et stockés dans un lac de données à partir duquel des moteurs de traitement distribués comme Apache Spark sont utilisés pour les traiter. La combinaison du stockage flexible dans un lac de données et de l’analytique SQL sur un entrepôt de données a conduit à l’apparition d’une conception d’analytique à grande échelle souvent appelée data lakehouse.