Parallel 클래스
병렬 구성 요소 버전 사용에 사용되는 병렬 노드의 기본 클래스입니다.
이 클래스를 직접 인스턴스화해서는 안 됩니다. 대신 작성기 함수 병렬에서 만들어야 합니다.
- 상속
-
azure.ai.ml.entities._builders.base_node.BaseNodeParallelazure.ai.ml.entities._job.pipeline._io.mixin.NodeWithGroupInputMixinParallel
생성자
Parallel(*, component: ParallelComponent | str, compute: str | None = None, inputs: Dict[str, NodeOutput | Input | str | bool | int | float | Enum] | None = None, outputs: Dict[str, str | Output] | None = None, retry_settings: Dict[str, RetrySettings | str] | None = None, logging_level: str | None = None, max_concurrency_per_instance: int | None = None, error_threshold: int | None = None, mini_batch_error_threshold: int | None = None, input_data: str | None = None, task: Dict[str, ParallelTask | str] | None = None, partition_keys: List | None = None, mini_batch_size: int | None = None, resources: JobResourceConfiguration | None = None, environment_variables: Dict | None = None, **kwargs)
매개 변수
- component
- <xref:azure.ai.ml.entities._component.parallel_component.parallelComponent>
단계에 대해 실행할 병렬 구성 요소/작업의 ID 또는 instance
- mini_batch_size
- str
FileDataset 입력의 경우 이 필드는 사용자 스크립트가 한 번의 run() 호출에서 처리할 수 있는 파일 수입니다. TabularDataset 입력의 경우 이 필드는 사용자 스크립트가 한 번의 run() 호출에서 처리할 수 있는 대략적인 데이터 크기입니다. 예제 값은 1024, 1024KB, 10MB 및 1GB입니다. (선택 사항, 기본값은 FileDataset의 경우 10개 파일, TabularDataset의 경우 1MB입니다.) 이 값은 PipelineParameter를 통해 설정할 수 있습니다.
- partition_keys
- List
데이터 세트를 미니 일괄 처리로 분할하는 데 사용되는 키입니다. 지정할 경우 키가 같은 데이터가 동일한 미니 일괄 처리로 분할됩니다. partition_keys 및 mini_batch_size 모두 지정하면 파티션 키가 적용됩니다. 입력은 분할된 데이터 세트여야 하며, 올바르게 작동하려면 partition_keys가 모든 입력 데이터 세트의 키 하위 집합이어야 합니다.
메서드
clear | |
copy | |
dump |
YAML 형식의 파일로 작업 콘텐츠를 덤프합니다. |
fromkeys |
반복 가능한 키와 값이 값으로 설정된 새 사전을 만듭니다. |
get |
키가 사전에 있으면 키 값을 반환하고, 그렇지 않으면 기본값을 반환합니다. |
items | |
keys | |
pop |
키를 찾을 수 없으면 기본값을 반환합니다. 그렇지 않으면 KeyError를 발생합니다. |
popitem |
(키, 값) 쌍을 제거하고 2튜플로 반환합니다. 쌍은 LIFO(마지막, 첫 번째 출력) 순서로 반환됩니다. 받아쓰기가 비어 있으면 KeyError를 발생합니다. |
set_resources |
병렬 작업에 대한 리소스를 설정합니다. |
setdefault |
키가 사전에 없는 경우 기본값으로 키를 삽입합니다. 키가 사전에 있으면 키 값을 반환하고, 그렇지 않으면 기본값을 반환합니다. |
update |
E가 있고 .keys() 메서드가 있는 경우 다음을 수행합니다. E의 k: D[k] = E[k] E가 있고 .keys() 메서드가 없는 경우 다음을 수행합니다. k의 경우 E: D[k] = v 두 경우 모두 다음을 수행합니다. F: D[k] = F[k] |
values |
clear
clear() -> None. Remove all items from D.
copy
copy() -> a shallow copy of D
dump
YAML 형식의 파일로 작업 콘텐츠를 덤프합니다.
dump(dest: str | PathLike | IO, **kwargs) -> None
매개 변수
YAML 콘텐츠를 쓸 로컬 경로 또는 파일 스트림입니다. dest가 파일 경로인 경우 새 파일이 만들어집니다. dest가 열려 있는 파일인 경우 파일이 직접 기록됩니다.
- kwargs
- dict
YAML serializer에 전달할 추가 인수입니다.
예외
dest가 파일 경로이고 파일이 이미 있는 경우 발생합니다.
dest가 열려 있는 파일이고 파일을 쓸 수 없는 경우 발생합니다.
fromkeys
반복 가능한 키와 값이 값으로 설정된 새 사전을 만듭니다.
fromkeys(value=None, /)
매개 변수
- type
- iterable
- value
get
키가 사전에 있으면 키 값을 반환하고, 그렇지 않으면 기본값을 반환합니다.
get(key, default=None, /)
매개 변수
- key
- default
items
items() -> a set-like object providing a view on D's items
keys
keys() -> a set-like object providing a view on D's keys
pop
키를 찾을 수 없으면 기본값을 반환합니다. 그렇지 않으면 KeyError를 발생합니다.
pop(k, [d]) -> v, remove specified key and return the corresponding value.
popitem
(키, 값) 쌍을 제거하고 2튜플로 반환합니다.
쌍은 LIFO(마지막, 첫 번째 출력) 순서로 반환됩니다. 받아쓰기가 비어 있으면 KeyError를 발생합니다.
popitem()
set_resources
병렬 작업에 대한 리소스를 설정합니다.
set_resources(*, instance_type: str | List[str] | None = None, instance_count: int | None = None, properties: Dict | None = None, docker_args: str | None = None, shm_size: str | None = None, **kwargs)
매개 변수
- instance_count
- int
컴퓨팅 대상에서 사용하는 인스턴스 또는 노드 수입니다.
- properties
- dict
리소스에 대한 속성 사전입니다.
- docker_args
- str
Docker 실행 명령에 전달할 추가 인수입니다.
- shm_size
- str
Docker 컨테이너의 공유 메모리 블록 크기입니다.
setdefault
키가 사전에 없는 경우 기본값으로 키를 삽입합니다.
키가 사전에 있으면 키 값을 반환하고, 그렇지 않으면 기본값을 반환합니다.
setdefault(key, default=None, /)
매개 변수
- key
- default
update
E가 있고 .keys() 메서드가 있는 경우 다음을 수행합니다. E의 k: D[k] = E[k] E가 있고 .keys() 메서드가 없는 경우 다음을 수행합니다. k의 경우 E: D[k] = v 두 경우 모두 다음을 수행합니다. F: D[k] = F[k]
update([E], **F) -> None. Update D from dict/iterable E and F.
values
values() -> an object providing a view on D's values
특성
base_path
component
creation_context
id
inputs
log_files
name
outputs
resources
retry_settings
status
작업의 상태.
반환되는 일반적인 값에는 “Running”, “Completed”, “Failed”가 포함됩니다. 가능한 모든 값은 다음과 같습니다.
NotStarted - 클라이언트 쪽 Run 개체가 클라우드 제출 전에 있는 임시 상태입니다.
Starting - 실행이 클라우드에서 처리되기 시작했습니다. 호출자에게는 이 시점에서 실행 ID가 있습니다.
프로비전 - 지정된 작업 제출을 위해 주문형 컴퓨팅을 만들고 있습니다.
준비 - 실행 환경이 준비되고 있으며 다음 두 단계 중 하나입니다.
Docker 이미지 빌드
conda 환경 설정
큐에 대기 - 작업이 컴퓨팅 대상에서 큐에 대기됩니다. 예를 들어 BatchAI에서 작업은 대기 상태입니다.
요청된 모든 노드가 준비될 때까지 기다리는 동안 대기 상태입니다.
실행 중 - 컴퓨팅 대상에서 작업이 실행되기 시작했습니다.
종료 - 사용자 코드 실행이 완료되었으며 실행이 사후 처리 단계에 있습니다.
CancelRequested - 작업에 대한 취소가 요청되었습니다.
완료됨 - 실행이 성공적으로 완료되었습니다. 여기에는 사용자 코드 실행 및 실행이 모두 포함됩니다.
사후 처리 단계입니다.
Failed - 실행이 실패했습니다. 일반적으로 실행의 오류 속성은 이유에 대한 세부 정보를 제공합니다.
Canceled - 취소 요청을 따르고 실행이 성공적으로 취소되었음을 나타냅니다.
NotResponding - 하트비트를 사용하도록 설정한 실행의 경우 최근에 하트비트를 보내지 않았습니다.
반환
작업의 상태.
반환 형식
studio_url
task
type
Azure SDK for Python