Freigeben über


Verwalten von IP-Adressbereichen mithilfe der API

Sie können die Datenanreicherungs-APIs verwenden, um IP-Adressbereiche zu verwalten.

So verwenden Sie das Skript zum Verwalten von IP-Adressbereichen

  1. Erstellen Sie eine CSV-Datei mit den folgenden erwarteten Feldern: Name, IP_Address_Ranges, Category, Tag(id) und Override_ISP_Name.
    Hier sehen Sie ein Beispiel für den Inhalt der CSV-Datei:

    name, ip_address_ranges, category, tag(id), isp_name
    Test 1,200.200.200.200/24 201.201.201.201/24,1, ,
    Test 2,1.1.1.5/32 31.31.31.4/24,1,000000290000000000000000 0000002d0000000000000000  ,
    Test 3,2.2.2.2/32,1,0000002d0000000000000000,
    Test 4,5.6.5.4/32,2,,test
    
  2. Aktualisieren Sie die Werte für die folgenden Skriptvariablen: OPTION_DELETE_ENABLED, IP_RANGES_BASE_URL, CSV_ABSOLUTE_PATH, YOUR_TOKEN

    Wichtig

    Wenn Sie OPTION_DELETE_ENABLED auf True festlegen, werden alle IP-Adressbereiche, die in Ihrem Mandanten definiert sind, aber nicht in den CSV-Dateien vorhanden sind, vom Skript aus dem Mandanten gelöscht. Wenn Sie diese Option verwenden, stellen Sie sicher, dass die CSV-Datei alle IP-Adressbereiche definiert, die Sie in Ihrem Mandanten verwenden möchten.

  3. Führen Sie das Skript aus, um neue Datensätze zu erstellen und vorhandene Regeln mit dem entsprechenden Namen zu aktualisieren.

Anforderungstextparameter

  • "filters": Filtert Objekte mit allen Suchfiltern für die Anforderung. Weitere Informationen finden Sie unter Filter für Die Datenanreicherung . Um zu vermeiden, dass Ihre Anforderungen gedrosselt werden, stellen Sie sicher, dass Sie eine Einschränkung für Ihre Abfrage einschließen.
  • "limit": Ganze Zahl. Im Scanmodus zwischen 500 und 5000 (Standardwert 500). Steuert die Anzahl der Iterationen, die zum Überprüfen aller Daten verwendet werden.

Antwortparameter

  • "data": die zurückgegebenen Daten. Enthält eine maximale Anzahl von Datensätzen bei jeder Iteration. Wenn weitere Datensätze abgerufen werden sollen (hasNext=true), werden die letzten Datensätze gelöscht, um sicherzustellen, dass alle Daten nur einmal aufgelistet werden.
  • "hasNext": Boolesch. Gibt an, ob eine weitere Iteration der Daten erforderlich ist.
  • "nextQueryFilters": Wenn eine weitere Iteration erforderlich ist, enthält sie die aufeinanderfolgende JSON-Abfrage, die ausgeführt werden soll. Verwenden Sie dies als Parameter "filters" in der nächsten Anforderung.

Im folgenden Python-Beispiel wird der Inhalt einer CSV-Datei verwendet, um IP-Adressbereiche in Ihrer Defender for Cloud Apps-Umgebung zu verwalten (erstellen, aktualisieren oder löschen).

import csv
import http
import requests
import json
 
OPTION_DELETE_ENABLED = False
IP_RANGES_BASE_URL = 'https://<tenant_id>.<tenant_region>.portal.cloudappsecurity.com/api/v1/subnet/'
IP_RANGES_UPDATE_SUFFIX = 'update_rule/'
IP_RANGES_CREATE_SUFFIX = 'create_rule/'
CSV_ABSOLUTE_PATH = 'rules.csv'
YOUR_TOKEN = '<your_token>'
HEADERS = {
  'Authorization': 'Token {}'.format(YOUR_TOKEN),
  'Content-Type': 'application/json'
}
 
# Get all records.
def get_records():
  list_request_data = {
    # Optionally, edit to match your filters
    'filters': {},
    "skip": 0,
    "limit": 20
  }
  records = []
  has_next = True
  while has_next:
    response = requests.post(IP_RANGES_BASE_URL, json=list_request_data, headers=HEADERS)
    if response.status_code != http.HTTPStatus.OK:
      raise Exception(f'Error getting existing subnets from tenant. Stopping script run. Error: {response.content}')
    content = json.loads(response.content)
    response_data = content.get('data', [])
    records += response_data
    has_next = content.get('hasNext', False)
    list_request_data["skip"] += len(response_data)
  return records
 
# Rule fields are compared to the CSV row.
def rule_matching(record, ip_address_ranges, category, tag, isp_name, ):
  new_tags = sorted([new_tag for new_tag in tag.split(' ') if new_tag != ''])
  existing_tags = sorted([existing_tag.get('id') for existing_tag in record.get('tags', [])])
  rule_exists_conditions = [sorted([subnet.get('originalString', False) for subnet in record.get('subnets', [])]) !=
  sorted(ip_address_ranges.split(' ')),
  str(record.get('category', False)) != category,
  existing_tags != new_tags,
  bool(record.get('organization', False)) != bool(isp_name) or
  (record.get('organization', False) is not None and not isp_name)]
  if any(rule_exists_conditions):
    return False
  return True
 
def create_update_rule(name, ip_address_ranges, category, tag, isp_name, records, request_data):
  for record in records:
    # Records are compared by name(unique).
    # This can be changed to id (to update the name), it will include adding id to the CSV and changing row shape.
    if record["name"] == name:
    # request_data["_tid"] = record["_tid"]
      if not rule_matching(record, ip_address_ranges, category, tag, isp_name):
        # Update existing rule
        request_data['_id'] = record['_id']
        response = requests.post(f"{IP_RANGES_BASE_URL}{record['_id']}/{IP_RANGES_UPDATE_SUFFIX}", json=request_data, headers=HEADERS)
        if response.status_code == http.HTTPStatus.OK:
          print('Rule updated', request_data)
        else:
          print('Error updating rule. Request data:', request_data, ' Response:', response.content)
          json.loads(response.content)
        return record
      else:
        # The exact same rule exists. no need for change.
        print('The exact same rule exists. no need for change. Rule name: ', name)
        return record
  # Create new rule.
  response = requests.post(f"{IP_RANGES_BASE_URL}{IP_RANGES_CREATE_SUFFIX}", json=request_data, headers=HEADERS)
  if response.status_code == http.HTTPStatus.OK:
    print('Rule created:', request_data)
  else:
    print('Error creating rule. Request data:', request_data, ' Response:', response.content)
    # added record
    return record
 
# Request data creation.
def create_request_data(name, ip_address_ranges, category, tag, isp_name):
  tags = [new_tag for new_tag in tag.split(' ') if new_tag != '']
  request_data = {"name": name, "subnets": ip_address_ranges.split(' '), "category": category, "tags": tags}
  if isp_name:
    request_data["overrideOrganization"] = True
    request_data["organization"] = isp_name
  return request_data
 
def main():
  # CSV fields are: Name,IP_Address_Ranges,Category,Tag(id),Override_ISP_Name
  # Multiple values (eg: multiple subnets) will be space-separated. (eg: value1 value2)
  records = get_records()
  with open(CSV_ABSOLUTE_PATH, newline='\n') as your_file:
    reader = csv.reader(your_file, delimiter=',')
    # move the reader object to point on the next row, headers are not needed
    next(reader)
    for row in reader:
      name, ip_address_ranges, category, tag, isp_name = row
      request_data = create_request_data(name, ip_address_ranges, category, tag, isp_name)
      if records:
      # Existing records were retrieved from your tenant
        record = create_update_rule(name, ip_address_ranges, category, tag, isp_name, records, request_data)
        record_id = record['_id']
      else:
        # No existing records were retrieved from your tenant
        response = requests.post(f"{IP_RANGES_BASE_URL}{IP_RANGES_CREATE_SUFFIX}", json=request_data, headers=HEADERS)
        if response.status_code == http.HTTPStatus.OK:
          record_id = json.loads(response.content)
          print('Rule created:', request_data)
        else:
          print('Error creating rule. Request data:', request_data, ' Response:', response.content)
      if OPTION_DELETE_ENABLED:
        # Remove CSV file record from tenant records.
        if record_id:
          for record in records:
            if record['_id'] == record_id:
              records.remove(record)
  if OPTION_DELETE_ENABLED:
    # Delete remaining tenant records, i.e. records that aren't in the CSV file.
    for record in records:
      requests.delete(f"{IP_RANGES_BASE_URL}{record['_id']}/", headers=HEADERS)
 
if __name__ == '__main__':
  main()

Nächste Schritte

Wenn Probleme auftreten, helfen wir Ihnen gerne weiter. Um Unterstützung oder Support für Ihr Produktproblem zu erhalten, öffnen Sie bitte ein Supportticket.