Verwalten von IP-Adressbereichen mithilfe der API
Sie können die Datenanreicherungs-APIs verwenden, um IP-Adressbereiche zu verwalten.
So verwenden Sie das Skript zum Verwalten von IP-Adressbereichen
Erstellen Sie eine CSV-Datei mit den folgenden erwarteten Feldern: Name, IP_Address_Ranges, Category, Tag(id) und Override_ISP_Name.
Hier sehen Sie ein Beispiel für den Inhalt der CSV-Datei:name, ip_address_ranges, category, tag(id), isp_name Test 1,200.200.200.200/24 201.201.201.201/24,1, , Test 2,1.1.1.5/32 31.31.31.4/24,1,000000290000000000000000 0000002d0000000000000000 , Test 3,2.2.2.2/32,1,0000002d0000000000000000, Test 4,5.6.5.4/32,2,,test
Aktualisieren Sie die Werte für die folgenden Skriptvariablen: OPTION_DELETE_ENABLED, IP_RANGES_BASE_URL, CSV_ABSOLUTE_PATH, YOUR_TOKEN
Wichtig
Wenn Sie OPTION_DELETE_ENABLED auf True festlegen, werden alle IP-Adressbereiche, die in Ihrem Mandanten definiert sind, aber nicht in den CSV-Dateien vorhanden sind, vom Skript aus dem Mandanten gelöscht. Wenn Sie diese Option verwenden, stellen Sie sicher, dass die CSV-Datei alle IP-Adressbereiche definiert, die Sie in Ihrem Mandanten verwenden möchten.
Führen Sie das Skript aus, um neue Datensätze zu erstellen und vorhandene Regeln mit dem entsprechenden Namen zu aktualisieren.
Anforderungstextparameter
- "filters": Filtert Objekte mit allen Suchfiltern für die Anforderung. Weitere Informationen finden Sie unter Filter für Die Datenanreicherung . Um zu vermeiden, dass Ihre Anforderungen gedrosselt werden, stellen Sie sicher, dass Sie eine Einschränkung für Ihre Abfrage einschließen.
- "limit": Ganze Zahl. Im Scanmodus zwischen 500 und 5000 (Standardwert 500). Steuert die Anzahl der Iterationen, die zum Überprüfen aller Daten verwendet werden.
Antwortparameter
- "data": die zurückgegebenen Daten. Enthält eine maximale Anzahl von Datensätzen bei jeder Iteration. Wenn weitere Datensätze abgerufen werden sollen (hasNext=true), werden die letzten Datensätze gelöscht, um sicherzustellen, dass alle Daten nur einmal aufgelistet werden.
- "hasNext": Boolesch. Gibt an, ob eine weitere Iteration der Daten erforderlich ist.
- "nextQueryFilters": Wenn eine weitere Iteration erforderlich ist, enthält sie die aufeinanderfolgende JSON-Abfrage, die ausgeführt werden soll. Verwenden Sie dies als Parameter "filters" in der nächsten Anforderung.
Im folgenden Python-Beispiel wird der Inhalt einer CSV-Datei verwendet, um IP-Adressbereiche in Ihrer Defender for Cloud Apps-Umgebung zu verwalten (erstellen, aktualisieren oder löschen).
import csv
import http
import requests
import json
OPTION_DELETE_ENABLED = False
IP_RANGES_BASE_URL = 'https://<tenant_id>.<tenant_region>.portal.cloudappsecurity.com/api/v1/subnet/'
IP_RANGES_UPDATE_SUFFIX = 'update_rule/'
IP_RANGES_CREATE_SUFFIX = 'create_rule/'
CSV_ABSOLUTE_PATH = 'rules.csv'
YOUR_TOKEN = '<your_token>'
HEADERS = {
'Authorization': 'Token {}'.format(YOUR_TOKEN),
'Content-Type': 'application/json'
}
# Get all records.
def get_records():
list_request_data = {
# Optionally, edit to match your filters
'filters': {},
"skip": 0,
"limit": 20
}
records = []
has_next = True
while has_next:
response = requests.post(IP_RANGES_BASE_URL, json=list_request_data, headers=HEADERS)
if response.status_code != http.HTTPStatus.OK:
raise Exception(f'Error getting existing subnets from tenant. Stopping script run. Error: {response.content}')
content = json.loads(response.content)
response_data = content.get('data', [])
records += response_data
has_next = content.get('hasNext', False)
list_request_data["skip"] += len(response_data)
return records
# Rule fields are compared to the CSV row.
def rule_matching(record, ip_address_ranges, category, tag, isp_name, ):
new_tags = sorted([new_tag for new_tag in tag.split(' ') if new_tag != ''])
existing_tags = sorted([existing_tag.get('id') for existing_tag in record.get('tags', [])])
rule_exists_conditions = [sorted([subnet.get('originalString', False) for subnet in record.get('subnets', [])]) !=
sorted(ip_address_ranges.split(' ')),
str(record.get('category', False)) != category,
existing_tags != new_tags,
bool(record.get('organization', False)) != bool(isp_name) or
(record.get('organization', False) is not None and not isp_name)]
if any(rule_exists_conditions):
return False
return True
def create_update_rule(name, ip_address_ranges, category, tag, isp_name, records, request_data):
for record in records:
# Records are compared by name(unique).
# This can be changed to id (to update the name), it will include adding id to the CSV and changing row shape.
if record["name"] == name:
# request_data["_tid"] = record["_tid"]
if not rule_matching(record, ip_address_ranges, category, tag, isp_name):
# Update existing rule
request_data['_id'] = record['_id']
response = requests.post(f"{IP_RANGES_BASE_URL}{record['_id']}/{IP_RANGES_UPDATE_SUFFIX}", json=request_data, headers=HEADERS)
if response.status_code == http.HTTPStatus.OK:
print('Rule updated', request_data)
else:
print('Error updating rule. Request data:', request_data, ' Response:', response.content)
json.loads(response.content)
return record
else:
# The exact same rule exists. no need for change.
print('The exact same rule exists. no need for change. Rule name: ', name)
return record
# Create new rule.
response = requests.post(f"{IP_RANGES_BASE_URL}{IP_RANGES_CREATE_SUFFIX}", json=request_data, headers=HEADERS)
if response.status_code == http.HTTPStatus.OK:
print('Rule created:', request_data)
else:
print('Error creating rule. Request data:', request_data, ' Response:', response.content)
# added record
return record
# Request data creation.
def create_request_data(name, ip_address_ranges, category, tag, isp_name):
tags = [new_tag for new_tag in tag.split(' ') if new_tag != '']
request_data = {"name": name, "subnets": ip_address_ranges.split(' '), "category": category, "tags": tags}
if isp_name:
request_data["overrideOrganization"] = True
request_data["organization"] = isp_name
return request_data
def main():
# CSV fields are: Name,IP_Address_Ranges,Category,Tag(id),Override_ISP_Name
# Multiple values (eg: multiple subnets) will be space-separated. (eg: value1 value2)
records = get_records()
with open(CSV_ABSOLUTE_PATH, newline='\n') as your_file:
reader = csv.reader(your_file, delimiter=',')
# move the reader object to point on the next row, headers are not needed
next(reader)
for row in reader:
name, ip_address_ranges, category, tag, isp_name = row
request_data = create_request_data(name, ip_address_ranges, category, tag, isp_name)
if records:
# Existing records were retrieved from your tenant
record = create_update_rule(name, ip_address_ranges, category, tag, isp_name, records, request_data)
record_id = record['_id']
else:
# No existing records were retrieved from your tenant
response = requests.post(f"{IP_RANGES_BASE_URL}{IP_RANGES_CREATE_SUFFIX}", json=request_data, headers=HEADERS)
if response.status_code == http.HTTPStatus.OK:
record_id = json.loads(response.content)
print('Rule created:', request_data)
else:
print('Error creating rule. Request data:', request_data, ' Response:', response.content)
if OPTION_DELETE_ENABLED:
# Remove CSV file record from tenant records.
if record_id:
for record in records:
if record['_id'] == record_id:
records.remove(record)
if OPTION_DELETE_ENABLED:
# Delete remaining tenant records, i.e. records that aren't in the CSV file.
for record in records:
requests.delete(f"{IP_RANGES_BASE_URL}{record['_id']}/", headers=HEADERS)
if __name__ == '__main__':
main()
Nächste Schritte
Wenn Probleme auftreten, helfen wir Ihnen gerne weiter. Um Unterstützung oder Support für Ihr Produktproblem zu erhalten, öffnen Sie bitte ein Supportticket.