Migrera Time Series Insights Gen1 till Real-Time Intelligence i Microsoft Fabric
Obs
Time Series Insights-tjänsten dras tillbaka den 7 juli 2024. Överväg att migrera befintliga miljöer till alternativa lösningar så snart som möjligt. Mer information om utfasning och migrering finns i vår dokumentation.
Överblick
Eventhouse är tidsseriedatabasen i Real-Time Intelligence. Den fungerar som mål för migrering av data från Time Series Insights.
Förutsättningar
- En arbetsyta med en Microsoft Fabric-aktiverad kapacitet
- Ett eventcenter på din arbetsplats
Mata in nya data
Använd följande steg för att börja mata in nya data i ditt Eventhouse:
Konfigurera din event hub med en ny konsumentgrupp.
Hämta data från datakällan och mata in det i ditt Eventhouse. Läs dokumentationen om hur du importerar data från din event hub.
Migrera historiska data från Time Series Insights
Om du behöver exportera data från din Time Series Insights-miljö kan du använda Time Series Insights Query-API:et för att ladda ned händelserna i batchar och serialisera dem i det format som krävs. Beroende på var du har lagrat exporterade data kan du mata in data från Azure Storage, lokala filereller OneLake.
Migrera referensdata
Använd följande steg för att migrera referensdata:
Använd Time Series Insights Explorer eller API:et för referensdata för att ladda ned referensdatauppsättningen.
När du har referensdata , ladda upp det till ditt Eventhouse som en annan tabell. Genom att ladda upp referensdatauppsättningen kan du komma åt och använda den i din Eventhouse-miljö.
Översätta Time Series Insights-frågor till Kusto-frågespråk
För frågor rekommenderar vi att du använder Kusto Query Language i Eventhouse.
Evenemang
{
"searchSpan": {
"from": "2021-11-29T22:09:32.551Z",
"to": "2021-12-06T22:09:32.551Z"
},
"predicate": {
"predicateString": "([device_id] = 'device_0') AND ([has_error] != null OR [error_code] != null)"
},
"top": {
"sort": [
{
"input": {
"builtInProperty": "$ts"
},
"order": "Desc"
}
],
"count": 100
}
}
events
| where _timestamp >= datetime("2021-11-29T22:09:32.551Z") and _timestamp < datetime("2021-12-06T22:09:32.551Z") and deviceid == "device_0" and (not(isnull(haserror)) or not(isempty(errorcode)))
| top 100 by _timestamp desc
Aggregat
{
"searchSpan": {
"from": "2021-12-04T22:30:00Z",
"to": "2021-12-06T22:30:00Z"
},
"predicate": {
"eq": {
"left": {
"property": "DeviceId",
"type": "string"
},
"right": "device_0"
}
},
"aggregates": [
{
"dimension": {
"uniqueValues": {
"input": {
"property": "DeviceId",
"type": "String"
},
"take": 1
}
},
"aggregate": {
"dimension": {
"dateHistogram": {
"input": {
"builtInProperty": "$ts"
},
"breaks": {
"size": "2d"
}
}
},
"measures": [
{
"count": {}
},
{
"sum": {
"input": {
"property": "DataValue",
"type": "Double"
}
}
},
{
"min": {
"input": {
"property": "DataValue",
"type": "Double"
}
}
},
{
"max": {
"input": {
"property": "DataValue",
"type": "Double"
}
}
}
]
}
}
]
}
let _q = events | where _timestamp >= datetime("2021-12-04T22:30:00Z") and _timestamp < datetime("2021-12-06T22:30:00Z") and deviceid == "device_0";
let _dimValues0 = _q | project deviceId | sample-distinct 1 of deviceId;
_q
| where deviceid in (_dimValues0) or isnull(deviceid)
| summarize
_meas0 = count(),
_meas1 = iff(isnotnull(any(datavalue)), sum(datavalue), any(datavalue)),
_meas2 = min(datavalue),
_meas3 = max(datavalue),
by _dim0 = deviceid, _dim1 = bin(_timestamp, 2d)
| project
_dim0,
_dim1,
_meas0,
_meas1,
_meas2,
_meas3,
| sort by _dim0 nulls last, _dim1 nulls last