Introduktion

Slutförd

Storskaliga dataanalyslösningar kombinerar konventionell datalagerhantering som används för att stödja Business Intelligence (BI) med tekniker som används för så kallade stordataanalyser. En konventionell datalagerlösning omfattar vanligtvis kopiering av data från transaktionsdatalager till en relationsdatabas med ett schema som är optimerat för att fråga och skapa flerdimensionella modeller. Lösningar för bearbetning av stordata används dock med stora mängder data i flera format, som är batchinlästa eller insamlade i realtidsströmmar och lagras i en datasjö från vilken distribuerade bearbetningsmotorer som Apache Spark används för att bearbeta dem. Kombinationen av flexibel datasjölagring och SQL-analys för informationslager har lett till framväxten av en storskalig analysdesign som ofta kallas data lakehouse.