你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn 。
Durable Functions 中的扇出/扇入方案 - 云备份示例
本文内容
“扇出/扇入”是指同时执行多个函数,然后针对结果执行某种聚合的模式。 本文讲解一个使用 Durable Functions 实现扇入/扇出方案的示例。 该示例是一个持久函数,可将应用的全部或部分站点内容备份到 Azure 存储中。
注意
适用于 Azure Functions 的 Node.js 编程模型版本 4 现已正式发布。 新版 v4 模型旨在为 JavaScript 和 TypeScript 开发人员提供更为灵活和直观的体验。 在迁移指南 中详细了解 v3 和 v4 之间的差异。
在以下代码片段中,JavaScript (PM4) 表示编程模型 V4,即新体验。
先决条件
方案概述
在此示例中,函数会将指定目录下的所有文件以递归方式上传到 Blob 存储。 它们还会统计已上传的字节总数。
可以编写单个函数来处理所有这些操作。 会遇到的主要问题是可伸缩性 。 单个函数执行只能在单个虚拟机上运行,因此,吞吐量会受到该 VM 的吞吐量限制。 另一个问题是可靠性 。 如果中途失败或者整个过程花费的时间超过 5 分钟,则备份可能以部分完成状态失败。 然后,需要重新开始备份。
更可靠的方法是编写两个正则函数:一个函数枚举文件并将文件名添加到队列,另一个函数从队列读取数据并将文件上传到 Blob 存储。 此方法可以提高吞吐量和可靠性,但需要预配和管理队列。 更重要的是,如果想要执行其他任何操作,例如报告已上传的字节总数,则这种做法会明显增大状态管理 和协调 的复杂性。
Durable Functions 方法提供前面所述的所有优势,并且其系统开销极低。
函数
本文介绍示例应用中的以下函数:
E2_BackupSiteContent
:一个业务流程协调程序函数 ,它调用 E2_GetFileList
来获取要备份的文件列表,然后调用 E2_CopyFileToBlob
来备份每个文件。
E2_GetFileList
:一个活动函数 ,它返回目录中的文件列表。
E2_CopyFileToBlob
:将单个文件备份到 Azure Blob 存储的一个活动函数。
E2_BackupSiteContent 业务流程协调程序函数
本质上,该业务流程协调程序函数执行以下操作:
采用 rootDirectory
值作为输入参数。
调用某个函数来获取 rootDirectory
下的文件的递归列表。
发出多个并行函数调用,以将每个文件上传到 Azure Blob 存储。
等待所有上传完成。
返回已上传到 Azure Blob 存储的总字节数。
下面的代码可实现业务流程协调程序函数:
[FunctionName("E2_BackupSiteContent")]
public static async Task<long> Run(
[OrchestrationTrigger] IDurableOrchestrationContext backupContext)
{
string rootDirectory = backupContext.GetInput<string>()?.Trim();
if (string.IsNullOrEmpty(rootDirectory))
{
rootDirectory = Directory.GetParent(typeof(BackupSiteContent).Assembly.Location).FullName;
}
string[] files = await backupContext.CallActivityAsync<string[]>(
"E2_GetFileList",
rootDirectory);
var tasks = new Task<long>[files.Length];
for (int i = 0; i < files.Length; i++)
{
tasks[i] = backupContext.CallActivityAsync<long>(
"E2_CopyFileToBlob",
files[i]);
}
await Task.WhenAll(tasks);
long totalBytes = tasks.Sum(t => t.Result);
return totalBytes;
}
请注意 await Task.WhenAll(tasks);
行。 对 E2_CopyFileToBlob
函数的所有单个调用都未处于等待状态,这使它们可以并行运行。 将此任务数组传递给 Task.WhenAll
时,会获得所有复制操作完成之前不会完成的任务。 如果熟悉 .NET 中的任务并行库 (TPL) 的话,则对此过程也不会陌生。 差别在于,这些任务可在多个虚拟机上同时运行,Durable Functions 扩展可确保端到端执行能够弹性应对进程回收。
完成 Task.WhenAll
并进入等待中状态后,我们知道所有函数调用都已完成,并已收到返回值。 每次调用 E2_CopyFileToBlob
都会返回已上传字节数,因此,将所有这些返回值相加就能计算出字节数总和。
此函数为业务流程协调程序函数使用标准的 function.json 。
{
"bindings": [
{
"name": "context",
"type": "orchestrationTrigger",
"direction": "in"
}
],
"disabled": false
}
下面的代码可实现业务流程协调程序函数:
const df = require("durable-functions");
module.exports = df.orchestrator(function* (context) {
const rootDirectory = context.df.getInput();
if (!rootDirectory) {
throw new Error("A directory path is required as an input.");
}
const files = yield context.df.callActivity("E2_GetFileList", rootDirectory);
// Backup Files and save Promises into array
const tasks = [];
for (const file of files) {
tasks.push(context.df.callActivity("E2_CopyFileToBlob", file));
}
// wait for all the Backup Files Activities to complete, sum total bytes
const results = yield context.df.Task.all(tasks);
const totalBytes = results.reduce((prev, curr) => prev + curr, 0);
// return results;
return totalBytes;
});
请注意 yield context.df.Task.all(tasks);
行。 对 E2_CopyFileToBlob
函数的所有单个调用都未暂停,这使它们可以并行运行。 将此任务数组传递给 context.df.Task.all
时,会获得所有复制操作完成之前不会完成的任务。 如果你熟悉 JavaScript 中的 Promise.all
,则这对你来说并不陌生。 差别在于,这些任务可在多个虚拟机上同时运行,Durable Functions 扩展可确保端到端执行能够弹性应对进程回收。
注意
虽然任务在概念上类似于 JavaScript 承诺,但业务流程协调程序函数应使用 context.df.Task.all
和 context.df.Task.any
(而不是 Promise.all
和 Promise.race
)来管理任务并行化。
完成 context.df.Task.all
并进入暂停状态后,我们知道所有函数调用都已完成,并已收到返回值。 每次调用 E2_CopyFileToBlob
都会返回已上传字节数,因此,将所有这些返回值相加就能计算出字节数总和。
下面的代码可实现业务流程协调程序函数:
const df = require("durable-functions");
const path = require("path");
const getFileListActivityName = "getFileList";
const copyFileToBlobActivityName = "copyFileToBlob";
df.app.orchestration("backupSiteContent", function* (context) {
const rootDir = context.df.getInput();
if (!rootDir) {
throw new Error("A directory path is required as an input.");
}
const rootDirAbs = path.resolve(rootDir);
const files = yield context.df.callActivity(getFileListActivityName, rootDirAbs);
// Backup Files and save Tasks into array
const tasks = [];
for (const file of files) {
const input = {
backupPath: path.relative(rootDirAbs, file).replace("\\", "/"),
filePath: file,
};
tasks.push(context.df.callActivity(copyFileToBlobActivityName, input));
}
// wait for all the Backup Files Activities to complete, sum total bytes
const results = yield context.df.Task.all(tasks);
const totalBytes = results ? results.reduce((prev, curr) => prev + curr, 0) : 0;
// return results;
return totalBytes;
});
请注意 yield context.df.Task.all(tasks);
行。 对 copyFileToBlob
函数的所有单个调用都未暂停,这使它们可以并行运行。 将此任务数组传递给 context.df.Task.all
时,会获得所有复制操作完成之前不会完成的任务。 如果你熟悉 JavaScript 中的 Promise.all
,则这对你来说并不陌生。 差别在于,这些任务可在多个虚拟机上同时运行,Durable Functions 扩展可确保端到端执行能够弹性应对进程回收。
注意
虽然任务在概念上类似于 JavaScript 承诺,但业务流程协调程序函数应使用 context.df.Task.all
和 context.df.Task.any
(而不是 Promise.all
和 Promise.race
)来管理任务并行化。
完成 context.df.Task.all
并进入暂停状态后,我们知道所有函数调用都已完成,并已收到返回值。 每次调用 copyFileToBlob
都会返回已上传字节数,因此,将所有这些返回值相加就能计算出字节数总和。
此函数为业务流程协调程序函数使用标准的 function.json 。
{
"scriptFile": "__init__.py",
"bindings": [
{
"name": "context",
"type": "orchestrationTrigger",
"direction": "in"
}
]
}
下面的代码可实现业务流程协调程序函数:
import azure.functions as func
import azure.durable_functions as df
def orchestrator_function(context: df.DurableOrchestrationContext):
root_directory: str = context.get_input()
if not root_directory:
raise Exception("A directory path is required as input")
files = yield context.call_activity("E2_GetFileList", root_directory)
tasks = []
for file in files:
tasks.append(context.call_activity("E2_CopyFileToBlob", file))
results = yield context.task_all(tasks)
total_bytes = sum(results)
return total_bytes
main = df.Orchestrator.create(orchestrator_function)
请注意 yield context.task_all(tasks);
行。 对 E2_CopyFileToBlob
函数的所有单个调用都未暂停,这使它们可以并行运行。 将此任务数组传递给 context.task_all
时,会获得所有复制操作完成之前不会完成的任务。 如果熟悉 Python 中的 asyncio.gather
,则这对你来说并不陌生。 差别在于,这些任务可在多个虚拟机上同时运行,Durable Functions 扩展可确保端到端执行能够弹性应对进程回收。
注意
尽管这些任务在概念上类似于 Python 等待,但 Orchestrator 函数应使用 yield
、context.task_all
和 context.task_any
API 来管理任务并行。
完成 context.task_all
并进入暂停状态后,我们知道所有函数调用都已完成,并已收到返回值。 每次调用 E2_CopyFileToBlob
都会返回已上传字节数,因此,将所有这些返回值相加就能计算出字节数总和。
帮助器活动函数
与其他示例一样,帮助器活动函数无非是使用 activityTrigger
触发器绑定的正则函数。
E2_GetFileList 活动函数
[FunctionName("E2_GetFileList")]
public static string[] GetFileList(
[ActivityTrigger] string rootDirectory,
ILogger log)
{
log.LogInformation($"Searching for files under '{rootDirectory}'...");
string[] files = Directory.GetFiles(rootDirectory, "*", SearchOption.AllDirectories);
log.LogInformation($"Found {files.Length} file(s) under {rootDirectory}.");
return files;
}
E2_GetFileList
的 function.json 文件如下所示:
{
"bindings": [
{
"name": "rootDirectory",
"type": "activityTrigger",
"direction": "in"
}
],
"disabled": false
}
下面是实现:
const readdirp = require("readdirp");
module.exports = function (context, rootDirectory) {
context.log(`Searching for files under '${rootDirectory}'...`);
const allFilePaths = [];
readdirp(
{ root: rootDirectory, entryType: "all" },
function (fileInfo) {
if (!fileInfo.stat.isDirectory()) {
allFilePaths.push(fileInfo.fullPath);
}
},
function (err, res) {
if (err) {
throw err;
}
context.log(`Found ${allFilePaths.length} under ${rootDirectory}.`);
context.done(null, allFilePaths);
}
);
};
此函数使用 readdirp
模块(版本 2.x)以递归方式读取目录结构。
下面是 getFileList
活动函数的实现:
const df = require("durable-functions");
const readdirp = require("readdirp");
const getFileListActivityName = "getFileList";
df.app.activity(getFileListActivityName, {
handler: async function (rootDirectory, context) {
context.log(`Searching for files under '${rootDirectory}'...`);
const allFilePaths = [];
for await (const entry of readdirp(rootDirectory, { type: "files" })) {
allFilePaths.push(entry.fullPath);
}
context.log(`Found ${allFilePaths.length} under ${rootDirectory}.`);
return allFilePaths;
},
});
此函数使用 readdirp
模块(版本 3.x
)以递归方式读取目录结构。
E2_GetFileList
的 function.json 文件如下所示:
{
"scriptFile": "__init__.py",
"bindings": [
{
"name": "rootDirectory",
"type": "activityTrigger",
"direction": "in"
}
]
}
下面是实现:
import os
from os.path import dirname
from typing import List
def main(rootDirectory: str) -> List[str]:
all_file_paths = []
# We walk the file system
for path, _, files in os.walk(rootDirectory):
# We copy the code for activities and orchestrators
if "E2_" in path:
# For each file, we add their full-path to the list
for name in files:
if name == "__init__.py" or name == "function.json":
file_path = os.path.join(path, name)
all_file_paths.append(file_path)
return all_file_paths
注意
你可能会疑惑,为何不直接将此代码放入业务流程协调程序函数? 可以这样做,不过,这会破坏业务流程协调程序函数的基本规则,即,它们不得执行 I/O,包括本地文件系统的访问。 有关详细信息,请参阅业务流程协调程序函数代码约束 。
E2_CopyFileToBlob 活动函数
[FunctionName("E2_CopyFileToBlob")]
public static async Task<long> CopyFileToBlob(
[ActivityTrigger] string filePath,
Binder binder,
ILogger log)
{
long byteCount = new FileInfo(filePath).Length;
// strip the drive letter prefix and convert to forward slashes
string blobPath = filePath
.Substring(Path.GetPathRoot(filePath).Length)
.Replace('\\', '/');
string outputLocation = $"backups/{blobPath}";
log.LogInformation($"Copying '{filePath}' to '{outputLocation}'. Total bytes = {byteCount}.");
// copy the file contents into a blob
using (Stream source = File.Open(filePath, FileMode.Open, FileAccess.Read, FileShare.Read))
using (Stream destination = await binder.BindAsync<CloudBlobStream>(
new BlobAttribute(outputLocation, FileAccess.Write)))
{
await source.CopyToAsync(destination);
}
return byteCount;
}
注意
需要安装 Microsoft.Azure.WebJobs.Extensions.Storage
NuGet 包才能运行示例代码。
此函数使用了 Azure Functions 绑定的某些高级功能(即使用了 Binder
参数 ),但对于本演练,无需考虑这些细节。
E2_CopyFileToBlob
的 function.json 文件同样也很简单:
{
"bindings": [
{
"name": "filePath",
"type": "activityTrigger",
"direction": "in"
},
{
"name": "out",
"type": "blob",
"path": "",
"connection": "AzureWebJobsStorage",
"direction": "out"
}
],
"disabled": false
}
JavaScript 实现使用适用于 Node 的 Azure 存储 SDK 将文件上传到 Azure Blob 存储。
const fs = require("fs");
const path = require("path");
const storage = require("azure-storage");
module.exports = function (context, filePath) {
const container = "backups";
const root = path.parse(filePath).root;
const blobPath = filePath.substring(root.length).replace("\\", "/");
const outputLocation = `backups/${blobPath}`;
const blobService = storage.createBlobService();
blobService.createContainerIfNotExists(container, (error) => {
if (error) {
throw error;
}
fs.stat(filePath, function (error, stats) {
if (error) {
throw error;
}
context.log(
`Copying '${filePath}' to '${outputLocation}'. Total bytes = ${stats.size}.`
);
const readStream = fs.createReadStream(filePath);
blobService.createBlockBlobFromStream(
container,
blobPath,
readStream,
stats.size,
function (error) {
if (error) {
throw error;
}
context.done(null, stats.size);
}
);
});
});
};
copyFileToBlob
的 JavaScript 实现使用 Azure 存储输出绑定,将文件上传到 Azure Blob 存储。
const df = require("durable-functions");
const fs = require("fs/promises");
const { output } = require("@azure/functions");
const copyFileToBlobActivityName = "copyFileToBlob";
const blobOutput = output.storageBlob({
path: "backups/{backupPath}",
connection: "StorageConnString",
});
df.app.activity(copyFileToBlobActivityName, {
extraOutputs: [blobOutput],
handler: async function ({ backupPath, filePath }, context) {
const outputLocation = `backups/${backupPath}`;
const stats = await fs.stat(filePath);
context.log(`Copying '${filePath}' to '${outputLocation}'. Total bytes = ${stats.size}.`);
const fileContents = await fs.readFile(filePath);
context.extraOutputs.set(blobOutput, fileContents);
return stats.size;
},
});
E2_CopyFileToBlob
的 function.json 文件同样也很简单:
{
"scriptFile": "__init__.py",
"bindings": [
{
"name": "filePath",
"type": "activityTrigger",
"direction": "in"
}
]
}
Python 实施使用适用于 Python 的 Azure 存储 SDK 将文件上传到 Azure Blob 存储中。
import os
import pathlib
from azure.storage.blob import BlobServiceClient
from azure.core.exceptions import ResourceExistsError
connect_str = os.getenv('AzureWebJobsStorage')
def main(filePath: str) -> str:
# Create the BlobServiceClient object which will be used to create a container client
blob_service_client = BlobServiceClient.from_connection_string(connect_str)
# Create a unique name for the container
container_name = "backups"
# Create the container if it does not exist
try:
blob_service_client.create_container(container_name)
except ResourceExistsError:
pass
# Create a blob client using the local file name as the name for the blob
parent_dir, fname = pathlib.Path(filePath).parts[-2:] # Get last two path components
blob_name = parent_dir + "_" + fname
blob_client = blob_service_client.get_blob_client(container=container_name, blob=blob_name)
# Count bytes in file
byte_count = os.path.getsize(filePath)
# Upload the created file
with open(filePath, "rb") as data:
blob_client.upload_blob(data)
return byte_count
实现从磁盘加载文件,并以异步方式将内容流式传输到“backups”容器中同名的 Blob。 返回值为已复制到存储的字节数,业务流程协调程序函数随后会使用此数字来计算总和。
注意
这是一个演示如何将 I/O 操作移入 activityTrigger
函数的极佳示例。 这样,不仅可以在许多不同的计算机上分配工作,而且还能获得设置进度检查点的优势。 如果主机进程出于任何原因终止,你就知道哪些上传操作已完成。
运行示例
可以通过发送以下 HTTP POST 请求在 Windows 上启动业务流程。
POST http://{host}/orchestrators/E2_BackupSiteContent
Content-Type: application/json
Content-Length: 20
"D:\\home\\LogFiles"
或者,在 Linux Function App 上(Python 当前仅在适用于应用服务的 Linux 上运行),可以如下所示启动业务流程:
POST http://{host}/orchestrators/E2_BackupSiteContent
Content-Type: application/json
Content-Length: 20
"/home/site/wwwroot"
注意
调用的 HttpStart
函数只会处理 JSON 格式的内容。 为此,Content-Type: application/json
标头是必需的,目录路径已编码为 JSON 字符串。 此外,HTTP 代码片段假定 host.json
文件中有一个条目,该条目从所有 HTTP 触发器函数 URL 中删除默认的 api/
前缀。 可以在示例的 host.json
文件中找到此配置的标记。
此 HTTP 请求会触发 E2_BackupSiteContent
业务流程协调程序,并将字符串 D:\home\LogFiles
作为参数传递。 响应提供了一个链接,可使用该链接获取备份操作的状态:
HTTP/1.1 202 Accepted
Content-Length: 719
Content-Type: application/json; charset=utf-8
Location: http://{host}/runtime/webhooks/durabletask/instances/b4e9bdcc435d460f8dc008115ff0a8a9?taskHub=DurableFunctionsHub&connection=Storage&code={systemKey}
(...trimmed...)
根据函数应用中包含的日志文件数,此操作可能需要几分钟才能完成。 可以通过查询上述 HTTP 202 响应的 Location
标头中的 URL 来获取最新状态。
GET http://{host}/runtime/webhooks/durabletask/instances/b4e9bdcc435d460f8dc008115ff0a8a9?taskHub=DurableFunctionsHub&connection=Storage&code={systemKey}
HTTP/1.1 202 Accepted
Content-Length: 148
Content-Type: application/json; charset=utf-8
Location: http://{host}/runtime/webhooks/durabletask/instances/b4e9bdcc435d460f8dc008115ff0a8a9?taskHub=DurableFunctionsHub&connection=Storage&code={systemKey}
{"runtimeStatus":"Running","input":"D:\\home\\LogFiles","output":null,"createdTime":"2019-06-29T18:50:55Z","lastUpdatedTime":"2019-06-29T18:51:16Z"}
在本例中,函数仍在运行。 可以查看已保存到业务流程协调程序状态中的输入,以及上次更新时间。 可以继续使用 Location
标头值来轮询完成状态。 当状态为“Completed”时,会看到如下所示的 HTTP 响应值:
HTTP/1.1 200 OK
Content-Length: 152
Content-Type: application/json; charset=utf-8
{"runtimeStatus":"Completed","input":"D:\\home\\LogFiles","output":452071,"createdTime":"2019-06-29T18:50:55Z","lastUpdatedTime":"2019-06-29T18:51:26Z"}
现在,可以看到业务流程已完成,以及完成它大约花费的时间。 另外,还会看到 output
字段的值,指示已上传大约 450 KB 的日志。
后续步骤
此示例说明了如何实现扇出/扇入模式。 下一个示例演示如何使用持久计时器 实现监视模式。