GPT-4 Turbo with Vision 사용
GPT-4 Turbo with Vision은 이미지를 분석하고 이미지에 대한 질문에 대한 텍스트 응답을 제공할 수 있는 OpenAI에서 개발한 LMM(대형 다중 모드 모델)입니다. 이는 자연어 처리와 시각적 이해를 모두 통합합니다.
GPT-4 Turbo with Vision 모델은 이미지에 무엇이 있는지에 대한 일반적인 질문에 답합니다.
팁
GPT-4 Turbo with Vision을 사용하려면 배포한 GPT-4 Turbo with Vision 모델에서 채팅 완료 API를 호출합니다. 채팅 완료 API에 익숙하지 않은 경우 GPT-4 Turbo 및 GPT-4 방법 가이드를 참조하세요.
GPT-4 Turbo 모델 업그레이드
GPT-4 Turbo의 최신 GA 릴리스는 다음과 같습니다.
gpt-4
버전:turbo-2024-04-09
이는 다음 미리 보기 모델을 대체합니다.
gpt-4
버전:1106-Preview
gpt-4
버전:0125-Preview
gpt-4
버전:vision-preview
OpenAI와 Azure OpenAI GPT-4 Turbo GA 모델의 차이점
- OpenAI의 최신
0409
터보 모델 버전은 JSON 모드와 모든 유추 요청에 대한 함수 호출을 지원합니다. - Azure OpenAI의 최신
turbo-2024-04-09
버전은 현재 이미지(비전) 입력으로 유추 요청을 할 때 JSON 모드 및 함수 호출 사용을 지원하지 않습니다. 텍스트 기반 입력 요청(image_url
및 인라인 이미지가 없는 요청)은 JSON 모드 및 함수 호출을 지원합니다.
gpt-4 vision-preview와의 차이점
- GPT-4 Turbo with Vision과 Azure AI 관련 Vision 개선 사항 통합은
gpt-4
버전:turbo-2024-04-09
에서는 지원되지 않습니다. 여기에는 OCR(광학 인식), 개체 근거 있는, 동영상 프롬프트 및 이미지가 포함된 데이터 처리 개선이 포함됩니다.
Important
OCR(광학 인식), 개체 그라운딩, 동영상 프롬프트를 포함한 비전 향상 미리 보기 기능은 gpt-4
버전: vision-preview
가 turbo-2024-04-09
로 업그레이드되면 더 이상 사용할 수 없습니다. 현재 이러한 미리 보기 기능 중 하나라도 사용하고 있는 경우, 이 자동 모델 업그레이드는 호환성이 손상되는 변경이 됩니다.
GPT-4 Turbo 프로비전된 관리 가용성
gpt-4
버전:turbo-2024-04-09
은(는) 표준 배포와 프로비전 배포 모두에 사용할 수 있습니다. 현재 이 모델의 프로비전된 버전은 이미지/비전 유추 요청을 지원하지 않습니다. 이 모델의 프로비전된 배포에서는 텍스트 입력만 허용됩니다. 표준 모델 배포는 텍스트 및 이미지/비전 유추 요청을 모두 허용합니다.
GPT-4 Turbo with Vision GA 배포
Studio UI에서 GA 모델을 배포하려면 GPT-4
를 선택한 다음 드롭다운 메뉴에서 turbo-2024-04-09
버전을 선택합니다. gpt-4-turbo-2024-04-09
모델의 기본 할당량은 GPT-4-Turbo의 현재 할당량과 동일합니다. 지역별 할당량 한도를 참조하세요.
채팅 완료 API 호출
다음 명령은 코드로 GPT-4 Turbo with Vision 모델을 사용하는 가장 기본적인 방법을 보여 줍니다. 이러한 모델을 프로그래밍 방식으로 처음 사용하는 경우 GPT-4 Turbo with Vision 빠른 시작부터 시작하는 것이 좋습니다.
https://{RESOURCE_NAME}.openai.azure.com/openai/deployments/{DEPLOYMENT_NAME}/chat/completions?api-version=2024-02-15-preview
에 POST 요청을 보냅니다.
- RESOURCE_NAME은 Azure OpenAI 리소스의 이름입니다.
- DEPLOYMENT_NAME은 GPT-4 Turbo with Vision 모델 배포의 이름입니다.
필수 헤더:
Content-Type
: application/jsonapi-key
: {API_KEY}
본문: 다음은 샘플 요청 본문입니다. 메시지 콘텐츠가 텍스트와 이미지(이미지에 대한 유효한 HTTP 또는 HTTPS URL 또는 Base-64로 인코딩된 이미지)를 포함하는 배열일 수 있다는 점을 제외하면 형식은 GPT-4용 채팅 완료 API와 동일합니다.
Important
"max_tokens"
값을 설정해야 합니다. 그렇지 않으면 반환 출력이 차단됩니다.
Important
이미지를 업로드할 때 채팅 요청당 10개의 이미지로 제한됩니다.
{
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": [
{
"type": "text",
"text": "Describe this picture:"
},
{
"type": "image_url",
"image_url": {
"url": "<image URL>"
}
}
]
}
],
"max_tokens": 100,
"stream": false
}
팁
로컬 이미지 사용
로컬 이미지를 사용하려면 다음 Python 코드를 사용하여 이를 base64로 변환하여 API에 전달할 수 있습니다. 대체 파일 변환 도구는 온라인에서 사용할 수 있습니다.
import base64
from mimetypes import guess_type
# Function to encode a local image into data URL
def local_image_to_data_url(image_path):
# Guess the MIME type of the image based on the file extension
mime_type, _ = guess_type(image_path)
if mime_type is None:
mime_type = 'application/octet-stream' # Default MIME type if none is found
# Read and encode the image file
with open(image_path, "rb") as image_file:
base64_encoded_data = base64.b64encode(image_file.read()).decode('utf-8')
# Construct the data URL
return f"data:{mime_type};base64,{base64_encoded_data}"
# Example usage
image_path = '<path_to_image>'
data_url = local_image_to_data_url(image_path)
print("Data URL:", data_url)
base64 이미지 데이터가 준비되면 다음과 같이 요청 본문의 API에 전달할 수 있습니다.
...
"type": "image_url",
"image_url": {
"url": "data:image/jpeg;base64,<your_image_data>"
}
...
출력
API 응답은 다음과 같아야 합니다.
{
"id": "chatcmpl-8VAVx58veW9RCm5K1ttmxU6Cm4XDX",
"object": "chat.completion",
"created": 1702439277,
"model": "gpt-4",
"prompt_filter_results": [
{
"prompt_index": 0,
"content_filter_results": {
"hate": {
"filtered": false,
"severity": "safe"
},
"self_harm": {
"filtered": false,
"severity": "safe"
},
"sexual": {
"filtered": false,
"severity": "safe"
},
"violence": {
"filtered": false,
"severity": "safe"
}
}
}
],
"choices": [
{
"finish_reason":"stop",
"index": 0,
"message": {
"role": "assistant",
"content": "The picture shows an individual dressed in formal attire, which includes a black tuxedo with a black bow tie. There is an American flag on the left lapel of the individual's jacket. The background is predominantly blue with white text that reads \"THE KENNEDY PROFILE IN COURAGE AWARD\" and there are also visible elements of the flag of the United States placed behind the individual."
},
"content_filter_results": {
"hate": {
"filtered": false,
"severity": "safe"
},
"self_harm": {
"filtered": false,
"severity": "safe"
},
"sexual": {
"filtered": false,
"severity": "safe"
},
"violence": {
"filtered": false,
"severity": "safe"
}
}
}
],
"usage": {
"prompt_tokens": 1156,
"completion_tokens": 80,
"total_tokens": 1236
}
}
모든 응답에는 "finish_reason"
필드가 포함됩니다. 가능한 값은 다음과 같습니다.
stop
: API가 전체 모델 출력을 반환했습니다.length
:max_tokens
입력 매개 변수 또는 모델의 토큰 제한으로 인해 모델 출력이 불완전합니다.content_filter
: 콘텐츠 필터의 플래그로 인해 콘텐츠가 생략되었습니다.
이미지 처리의 세부 매개 변수 설정: 낮음, 높음, 자동
모델의 detail 매개 변수는 모델이 이미지를 해석하고 처리하는 방식을 조정하기 위해 low
, high
또는 auto
의 세 가지 선택 사항을 제공합니다. 기본 설정은 자동입니다. 여기서 모델은 이미지 입력 크기에 따라 낮음 또는 높음 중에서 결정합니다.
low
설정: 모델은 "고해상도" 모드를 활성화하지 않고 대신 저해상도 512x512 버전을 처리하므로 세밀한 세부 사항이 중요하지 않은 시나리오에 대해 응답 속도가 빨라지고 토큰 사용량이 줄어듭니다.high
설정: 모델이 "고해상도" 모드를 활성화합니다. 여기서 모델은 처음에 저해상도 이미지를 본 다음 입력 이미지에서 상세한 512x512 세그먼트를 생성합니다. 각 세그먼트는 토큰 예산의 두 배를 사용하므로 이미지를 보다 자세히 해석할 수 있습니다.''
이미지 매개 변수가 사용되는 토큰에 미치는 영향 및 가격 책정에 대한 자세한 내용은 다음을 참조하세요. - Azure OpenAI란? 이미지 토큰
출력
이제 모델로부터 받는 채팅 응답에는 개체 레이블, 경계 상자, OCR 결과 등 이미지에 대한 향상된 정보가 포함됩니다. API 응답은 다음과 같아야 합니다.
{
"id": "chatcmpl-8UyuhLfzwTj34zpevT3tWlVIgCpPg",
"object": "chat.completion",
"created": 1702394683,
"model": "gpt-4",
"choices":
[
{
"finish_reason": {
"type": "stop",
"stop": "<|fim_suffix|>"
},
"index": 0,
"message":
{
"role": "assistant",
"content": "The image shows a close-up of an individual with dark hair and what appears to be a short haircut. The person has visible ears and a bit of their neckline. The background is a neutral light color, providing a contrast to the dark hair."
}
}
],
"usage":
{
"prompt_tokens": 816,
"completion_tokens": 49,
"total_tokens": 865
}
}
모든 응답에는 "finish_reason"
필드가 포함됩니다. 가능한 값은 다음과 같습니다.
stop
: API가 전체 모델 출력을 반환했습니다.length
:max_tokens
입력 매개 변수 또는 모델의 토큰 제한으로 인해 모델 출력이 불완전합니다.content_filter
: 콘텐츠 필터의 플래그로 인해 콘텐츠가 생략되었습니다.
비디오 검색 인덱스 만들기
사용 중인 Azure OpenAI 리소스와 동일한 지역에서 Azure AI 비전 리소스를 가져옵니다.
비디오 파일 및 해당 메타데이터를 저장하고 구성하는 인덱스 만들기 아래 예제 명령은 인덱스 만들기 API를 사용하여
my-video-index
(으)로 명명된 인덱스를 만드는 방법을 보여 줍니다. 인덱스 이름을 임시 위치에 저장합니다. 이후 단계에서 필요합니다.팁
비디오 인덱스를 만드는 방법에 대한 자세한 지침은 벡터화를 사용하여 비디오 검색 수행을 참조하세요.
Important
36자일 수 있는 GUID가 아닌 경우 비디오 인덱스 이름은 최대 24자까지 가능합니다.
curl.exe -v -X PUT "https://<YOUR_ENDPOINT_URL>/computervision/retrieval/indexes/my-video-index?api-version=2023-05-01-preview" -H "Ocp-Apim-Subscription-Key: <YOUR_SUBSCRIPTION_KEY>" -H "Content-Type: application/json" --data-ascii " { 'metadataSchema': { 'fields': [ { 'name': 'cameraId', 'searchable': false, 'filterable': true, 'type': 'string' }, { 'name': 'timestamp', 'searchable': false, 'filterable': true, 'type': 'datetime' } ] }, 'features': [ { 'name': 'vision', 'domain': 'surveillance' }, { 'name': 'speech' } ] }"
연결된 메타데이터를 사용하여 인덱스로 비디오 파일을 추가합니다. 다음 예제에서는 수집 만들기 API와 함께 SAS URL을 사용하여 비디오 파일 2개를 인덱스에 추가하는 방법을 보여줍니다. SAS URL 및
documentId
값을 임시 위치에 저장합니다. 이후 단계에서 필요합니다.curl.exe -v -X PUT "https://<YOUR_ENDPOINT_URL>/computervision/retrieval/indexes/my-video-index/ingestions/my-ingestion?api-version=2023-05-01-preview" -H "Ocp-Apim-Subscription-Key: <YOUR_SUBSCRIPTION_KEY>" -H "Content-Type: application/json" --data-ascii " { 'videos': [ { 'mode': 'add', 'documentId': '02a504c9cd28296a8b74394ed7488045', 'documentUrl': 'https://example.blob.core.windows.net/videos/02a504c9cd28296a8b74394ed7488045.mp4?sas_token_here', 'metadata': { 'cameraId': 'camera1', 'timestamp': '2023-06-30 17:40:33' } }, { 'mode': 'add', 'documentId': '043ad56daad86cdaa6e493aa11ebdab3', 'documentUrl': '[https://example.blob.core.windows.net/videos/043ad56daad86cdaa6e493aa11ebdab3.mp4?sas_token_here', 'metadata': { 'cameraId': 'camera2' } } ] }"
비디오 파일을 인덱스에 추가하면 수집 프로세스가 시작됩니다. 데이터베이스의 크기와 수에 따라 다소 시간이 걸릴 수 있습니다. 검색을 수행하기 전에 수집이 완료되었는지 확인하려면 수집 가져오기 API를 사용하여 상태를 확인하면 됩니다. 다음 단계로 진행하기 전에 이 호출에서
"state" = "Completed"
를 반환할 때까지 기다립니다.curl.exe -v -X GET "https://<YOUR_ENDPOINT_URL>/computervision/retrieval/indexes/my-video-index/ingestions?api-version=2023-05-01-preview&$top=20" -H "ocp-apim-subscription-key: <YOUR_SUBSCRIPTION_KEY>"