Procedury uruchamiania i kalibracji 3m 5009054

Procedura uruchamiania i kalibracji 3m 5009054 jest prosta i polega na wykonaniu kilku kroków. W pierwszej kolejności należy przygotować panel sterowania 3m 5009054, w tym podłączenie go do prądu i uruchomienie go. Następnie należy skonfigurować parametry, w tym czułość, precyzję i szybkość przetwarzania danych. Po tym kroku należy wykonać kalibrację narzędzia 3m 5009054, w tym ustawienie odpowiednich położeń referencyjnych i podanie odpowiednich wzorów. Po zakończeniu kalibracji należy sprawdzić, czy narzędzie działa prawidłowo, a następnie uruchomić procedurę testowania. Po jej zakończeniu wszystkie parametry powinny być odpowiednio ustawione, a narzędzie 3m 5009054 gotowe do pracy.

Ostatnia aktualizacja: Procedury uruchamiania i kalibracji 3m 5009054

Uruchamianie pakietu SSIS z działaniem procedury składowanej — Azure - Azure Data Factory | Microsoft LearnPrzejdź do głównej zawartości

Ta przeglądarka nie jest już obsługiwana.

Przejdź na przeglądarkę Microsoft Edge, aby korzystać z najnowszych funkcji, aktualizacji zabezpieczeń i pomocy technicznej.

  • Artykuł
  • Czas czytania: 8 min

DOTYCZY: Azure Data Factory Azure Synapse Analytics (wersja zapoznawcza)

W tym artykule opisano sposób uruchamiania pakietu usług SSIS w potoku Azure Data Factory pr Synapse Pipelines przy użyciu działania Procedury składowanej.

Wymagania wstępne

Azure SQL Database

Przewodnik w tym artykule korzysta z usługi Azure SQL Database do hostowania katalogu usług SSIS. Możesz również użyć Azure SQL Managed Instance.

Data Factory

Do zaimplementowania tego przewodnika będzie potrzebne wystąpienie Azure Data Factory. Jeśli nie masz jeszcze aprowizowanej fabryki danych, możesz wykonać kroki opisane w przewodniku Szybki start: tworzenie fabryki danych przy użyciu Azure Portal i programu Azure Data Factory Studio.

Azure SSIS Integration Runtime

Na koniec będziesz również wymagać środowiska Azure-SSIS Integration Runtime, jeśli nie masz go, wykonując instrukcję krok po kroku w samouczku : wdrażanie pakietów usług SSIS.

Tworzenie potoku z działaniem procedury składowanej

W tym kroku użyjesz interfejsu użytkownika usługi Data Factory do utworzenia potoku. Jeśli nie przejdziesz już do programu Azure Data Factory Studio, otwórz fabrykę danych w witrynie Azure Portal i kliknij przycisk Otwórz program Azure Data Factory Studio, aby go otworzyć.

Następnie dodasz działanie procedury składowanej do nowego potoku i skonfigurujesz je do uruchamiania pakietu SSIS przy użyciu procedury składowanej sp_executesql.

  1. Na stronie głównej kliknij pozycję Orkiestruj:

  2. W przyborniku Działania wyszukaj procedurę składowaną i przeciągnij i upuść działanie Procedury składowanej na powierzchni projektanta potoku. com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/drag-drop-sproc-activity. png" alt="Działanie procedury składowanej przeciągania i upuszczania" data-linktype="relative-path"/>

  3. Wybierz działanie Procedury składowanej, które właśnie dodano do powierzchni projektanta, a następnie kartę Ustawienia, a następnie kliknij pozycję + Nowy obok połączonej usługi. Utworzysz połączenie z bazą danych w usłudze Azure SQL Database, która hostuje katalog usług SSIS (baza danych SSIDB). com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/new-linked-service-button. png" alt="Przycisk Nowa połączona usługa" data-linktype="relative-path"/>

  4. W oknie Nowa połączona usługa wykonaj następujące czynności:

  5. Wybierz pozycję Azure SQL Database w polu Typ.

  6. Wybierz domyślną wartość AutoResolveIntegrationRuntime, aby nawiązać połączenie z bazą SSISDB danych Azure SQL hostujących bazę danych.

  7. Wybierz bazę danych Azure SQL, która hostuje bazę danych SSISDB dla pola Nazwa serwera.

  8. Wybierz pozycję SSISDB w polu Nazwa bazy danych.

  9. W polu Nazwa użytkownika wprowadź nazwę użytkownika, który ma dostęp do bazy danych.

  10. W polu Hasło wprowadź hasło użytkownika.

  11. Przetestuj połączenie z bazą danych, klikając przycisk Testuj połączenie.

  12. Zapisz połączoną usługę, klikając przycisk Zapisz. com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/azure-sql-database-linked-service-settings. png" alt="Zrzut ekranu przedstawiający proces dodawania nowej połączonej usługi. " data-linktype="relative-path"/>

  • Po powrocie do okna właściwości na karcie Ustawienia wykonaj następujące kroki:

  • Wybierz pozycję Edytuj.

  • W polu Nazwa procedury składowanej wprowadź wartość sp_executesql.

  • Kliknij pozycję + Nowy w sekcji Parametry procedury składowanej.

  • Jako nazwę parametru wprowadź wartość stmt.

  • Jako typ parametru wprowadź ciąg.

  • Jako wartość parametru wprowadź następujące zapytanie SQL:

    W zapytaniu SQL określ odpowiednie wartości parametrów folder_name, project_name i package_name.

    DECLARE @return_value INT, @exe_id BIGINT, @err_msg NVARCHAR(150) EXEC @return_value=[SSISDB]. [catalog]. [create_execution] @folder_name=N'<FOLDER name in SSIS Catalog>', @project_name=N'<PROJECT name in SSIS Catalog>', @package_name=N'<PACKAGE name>. dtsx', @use32bitruntime=0, @runinscaleout=1, @useanyworker=1, @execution_id=@exe_id OUTPUT EXEC [SSISDB]. [set_execution_parameter_value] @exe_id, @object_type=50, @parameter_name=N'SYNCHRONIZED', @parameter_value=1 EXEC [SSISDB]. [start_execution] @execution_id=@exe_id, @retry_count=0 IF(SELECT [status] FROM [SSISDB]. [executions] WHERE execution_id=@exe_id)<>7 BEGIN SET @err_msg=N'Your package execution did not succeed for execution ID: ' + CAST(@exe_id AS NVARCHAR(20)) RAISERROR(@err_msg, 15, 1) END

  • Aby zweryfikować konfigurację potoku, kliknij pozycję Weryfikuj na pasku narzędzi. Aby zamknąć okno Raport weryfikacji potoku, kliknij pozycję >>. com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/validate-pipeline. png" alt="Weryfikowanie potoku" data-linktype="relative-path"/>

  • Opublikuj potok w usłudze Data Factory, klikając przycisk Opublikuj wszystko. com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/publish-all-button. png" alt="Publikowanie" data-linktype="relative-path"/>

    Uruchamianie i monitorowanie potoku

    W tej sekcji wyzwolisz uruchomienie potoku, a następnie go będziesz monitorować.

  • Aby wyzwolić przebieg potoku, kliknij pozycję Wyzwól na pasku narzędzi, a następnie kliknij pozycję Wyzwól teraz. com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/trigger-now. png" alt="Wyzwól teraz" data-linktype="relative-path"/>

  • W oknie Uruchomienie potoku wybierz pozycję Zakończ.

  • Przejdź do karty Monitorowanie po lewej stronie. Zobaczysz przebieg potoku i jego stan wraz z innymi informacjami (takimi jak Czas uruchamiania). Aby odświeżyć widok, kliknij przycisk Odśwież. com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/pipeline-runs. png" alt="Zrzut ekranu przedstawiający uruchomienia potoku" data-linktype="relative-path"/>

  • Kliknij link Wyświetl uruchomienia działania w kolumnie Akcje. Zobaczysz tylko jedno uruchomienie działania, ponieważ potok ma tylko jedno działanie (działanie procedury składowanej). com/pl-pl/azure/data-factory/media/how-to-invoke-ssis-package-stored-procedure-activity/activity-runs. png" alt="Zrzut ekranu przedstawiający uruchomienia działań" data-linktype="relative-path"/>

  • Możesz uruchomić następujące zapytanie względem bazy danych SSISDB w SQL Database, aby sprawdzić, czy pakiet został wykonany.

    select * from catalog. executions

    Azure PowerShell

    W tej sekcji użyjesz Azure PowerShell do utworzenia potoku usługi Data Factory z działaniem procedury składowanej, która wywołuje pakiet SSIS.

    Zainstaluj najnowsze moduły Azure PowerShell, postępując zgodnie z instrukcjami w temacie Jak zainstalować i skonfigurować Azure PowerShell.

    Tworzenie fabryki danych

    Możesz użyć tej samej fabryki danych, która ma Azure-SSIS IR lub utworzyć oddzielną fabrykę danych. Poniższa procedura zawiera kroki tworzenia fabryki danych. Potok jest tworzony przy użyciu działania procedury składowanej w tej fabryce danych. Działanie procedury składowanej wykonuje procedurę składowaną w bazie danych SSISDB w celu uruchomienia pakietu SSIS.

  • Zdefiniuj zmienną nazwy grupy zasobów, której użyjesz później w poleceniach programu PowerShell. Skopiuj poniższy tekst polecenia do programu PowerShell, podaj nazwę grupy zasobów platformy Azure w podwójnych cudzysłowach, a następnie uruchom polecenie. Na przykład: "adfrg".

    $resourceGroupName = "ADFTutorialResourceGroup";

    Jeśli grupa zasobów już istnieje, możesz zrezygnować z jej zastąpienia. Przypisz inną wartość do zmiennej $ResourceGroupName i ponownie uruchom polecenie.

  • Aby utworzyć grupę zasobów platformy Azure, uruchom następujące polecenie:

    $ResGrp = New-AzResourceGroup $resourceGroupName -location 'eastus'
  • Zdefiniuj zmienną nazwy fabryki danych.

    Ważne

    Zaktualizuj nazwę fabryki danych, aby była unikatowa w skali globalnej,

    $DataFactoryName = "ADFTutorialFactory";
  • Aby utworzyć fabrykę danych, uruchom następujące polecenie cmdlet Set-AzDataFactoryV2, używając właściwości Location i ResourceGroupName ze zmiennej $ResGrp:

    $DataFactory = Set-AzDataFactoryV2 -ResourceGroupName $ResGrp. ResourceGroupName -Location $ResGrp. Location -Name $dataFactoryName

    Pamiętaj o następujących kwestiach:

    • Nazwa fabryki danych Azure musi być globalnie unikatowa. Jeśli zostanie wyświetlony następujący błąd, zmień nazwę i spróbuj ponownie.

      The specified Data Factory name 'ADFv2QuickStartDataFactory' is already in use. Data Factory names must be globally unique.
    • Aby utworzyć wystąpienia usługi Data Factory, konto użytkownika używane do logowania się na platformie Azure musi być członkiem roli współautora lub właściciela albo administratorem subskrypcji platformy Azure.

    • Aby uzyskać listę regionów platformy Azure, w których obecnie jest dostępna usługa Data Factory, wybierz dane regiony na poniższej stronie, a następnie rozwiń węzeł Analiza, aby zlokalizować pozycję Data Factory: Produkty dostępne według regionu. Magazyny danych (Azure Storage, Azure SQL Database itp. ) i jednostki obliczeniowe (HDInsight itp. ) używane przez fabrykę danych mogą mieścić się w innych regionach.

      Tworzenie połączonej usługi Azure SQL Database

      Utwórz połączoną usługę, aby połączyć bazę danych hostujących wykaz usług SSIS z fabryką danych. Usługa Data Factory używa informacji w tej połączonej usłudze do nawiązywania połączenia z bazą danych SSISDB i wykonuje procedurę składowaną w celu uruchomienia pakietu SSIS.

    • Utwórz plik JSON o nazwie AzureSqlDatabaseLinkedService. json w folderze C:\ADF\RunSSISPackage o następującej zawartości:

      Przed zapisaniem pliku zastąp <ciąg nazwa_serwera, <nazwa> użytkownika> i <hasło> wartościami bazy danych Azure SQL Database.

      {"name": "AzureSqlDatabaseLinkedService","properties": {"type": "AzureSqlDatabase","typeProperties": {"connectionString": "Server=tcp:<servername>. database. windows. net, 1433;Database=SSISDB;User ID=<username>;Password=<password>;Trusted_Connection=False;Encrypt=True;Connection Timeout=30"}}}
    • W Azure PowerShell przejdź do folderu C:\ADF\RunSSISPackage.

    • Uruchom polecenie cmdlet Set-AzDataFactoryV2LinkedService, aby utworzyć połączoną usługę: AzureSqlDatabaseLinkedService.

      Set-AzDataFactoryV2LinkedService -DataFactoryName $DataFactory. DataFactoryName -ResourceGroupName $ResGrp. ResourceGroupName -Name "AzureSqlDatabaseLinkedService" -File ". \AzureSqlDatabaseLinkedService. json"

      Tworzenie potoku z działaniem procedury składowanej

      W tym kroku utworzysz potok z działaniem procedury składowanej. Działanie wywołuje procedurę składowaną sp_executesql, aby uruchomić pakiet SSIS.

    • Utwórz plik JSON o nazwie RunSSISPackagePipeline. json w folderze C:\ADF\RunSSISPackage o następującej zawartości:

      Przed zapisaniem pliku zastąp ciąg <NAZWA FOLDERU>, <NAZWA PROJEKTU>, <NAZWA> PAKIETU nazwą folderu, projektu i pakietu w katalogu usług SSIS.

      "name": "RunSSISPackagePipeline","activities": [{"name": "My SProc Activity","description":"Runs an SSIS package","type": "SqlServerStoredProcedure","linkedServiceName": {"referenceName": "AzureSqlDatabaseLinkedService","type": "LinkedServiceReference"},"storedProcedureName": "sp_executesql","storedProcedureParameters": {"stmt": {"value": "DECLARE @return_value INT, @exe_id BIGINT, @err_msg NVARCHAR(150) EXEC @return_value=[SSISDB]. [create_execution] @folder_name=N'<FOLDER NAME>', @project_name=N'<PROJECT NAME>', @package_name=N'<PACKAGE NAME>', @use32bitruntime=0, @runinscaleout=1, @useanyworker=1, @execution_id=@exe_id OUTPUT EXEC [SSISDB]. [executions] WHERE execution_id=@exe_id)<>7 BEGIN SET @err_msg=N'Your package execution did not succeed for execution ID: ' + CAST(@exe_id AS NVARCHAR(20)) RAISERROR(@err_msg, 15, 1) END"}}}}]}}
    • Aby utworzyć potok: RunSSISPackagePipeline, uruchom polecenie cmdlet Set-AzDataFactoryV2Pipeline.

      $DFPipeLine = Set-AzDataFactoryV2Pipeline -DataFactoryName $DataFactory. ResourceGroupName -Name "RunSSISPackagePipeline" -DefinitionFile ". \RunSSISPackagePipeline. json"

      Oto przykładowe dane wyjściowe:

      PipelineName: Adfv2QuickStartPipelineResourceGroupName: <resourceGroupName>DataFactoryName: <dataFactoryName>Activities: {CopyFromBlobToBlob}Parameters: {[inputPath, Microsoft. Management. DataFactory. Models. ParameterSpecification], [outputPath, Microsoft. ParameterSpecification]}

      Tworzenie uruchomienia potoku

      Użyj polecenia cmdlet Invoke-AzDataFactoryV2Pipeline, aby uruchomić potok. Polecenie cmdlet zwraca identyfikator uruchomienia potoku w celu monitorowania w przyszłości.

      $RunId = Invoke-AzDataFactoryV2Pipeline -DataFactoryName $DataFactory. ResourceGroupName -PipelineName $DFPipeLine. Name

      Monitorowanie działania potoku

      Uruchom następujący skrypt programu PowerShell, aby stale sprawdzać stan uruchomienia potoku do momentu zakończenia kopiowania danych. Skopiuj/wklej poniższy skrypt w oknie programu PowerShell i naciśnij klawisz ENTER.

      while ($True) {$Run = Get-AzDataFactoryV2PipelineRun -ResourceGroupName $ResGrp. ResourceGroupName -DataFactoryName $DataFactory. DataFactoryName -PipelineRunId $RunIdif ($Run) {if ($run. Status -ne 'InProgress') {Write-Output ("Pipeline run finished. The status is: " + $Run. Status)$Runbreak}Write-Output "Pipeline is running... status: InProgress"}Start-Sleep -Seconds 10}

      Tworzenie wyzwalacza

      W poprzednim kroku wywołano potok na żądanie. Możesz również utworzyć wyzwalacz harmonogramu, aby uruchomić potok zgodnie z harmonogramem (co godzinę, codziennie itp. ).

    • Utwórz plik JSON o nazwie MyTrigger. json w folderze C:\ADF\RunSSISPackage o następującej zawartości:

      "name": "MyTrigger","type": "ScheduleTrigger","recurrence": {"frequency": "Hour","interval": 1,"startTime": "2017-12-07T00:00:00-08:00","endTime": "2017-12-08T00:00:00-08:00"}},"pipelines": [{"pipelineReference": {"type": "PipelineReference","referenceName": "RunSSISPackagePipeline"},"parameters": {}}]}}
    • Uruchom polecenie cmdlet Set-AzDataFactoryV2Trigger, które tworzy wyzwalacz.

      Set-AzDataFactoryV2Trigger -ResourceGroupName $ResGrp. DataFactoryName -Name "MyTrigger" -DefinitionFile ". \MyTrigger. json"
    • Domyślnie wyzwalacz jest w stanie zatrzymania. Uruchom wyzwalacz, uruchamiając polecenie cmdlet Start-AzDataFactoryV2Trigger.

      Start-AzDataFactoryV2Trigger -ResourceGroupName $ResGrp. DataFactoryName -Name "MyTrigger"
    • Upewnij się, że wyzwalacz został uruchomiony, uruchamiając polecenie cmdlet Get-AzDataFactoryV2Trigger.

      Get-AzDataFactoryV2Trigger -ResourceGroupName $ResourceGroupName -DataFactoryName $DataFactoryName -Name "MyTrigger"
    • Uruchom następujące polecenie po następnej godzinie. Jeśli na przykład bieżąca godzina to 3:25 UTC, uruchom polecenie o godzinie 16:00 CZASU UTC.

      Get-AzDataFactoryV2TriggerRun -ResourceGroupName $ResourceGroupName -DataFactoryName $DataFactoryName -TriggerName "MyTrigger" -TriggerRunStartedAfter "2017-12-06" -TriggerRunStartedBefore "2017-12-09"

      Następujące zapytanie można uruchomić względem bazy danych SSISDB w SQL Database, aby sprawdzić, czy pakiet został wykonany.

      Następne kroki

      Potok można również monitorować przy użyciu Azure Portal. Aby uzyskać instrukcje krok po kroku, zobacz Monitorowanie potoku.

  • Dodatkowe zasoby

    Procedury uruchamiania i kalibracji 3m 5009054

    Bezpośredni link do pobrania Procedury uruchamiania i kalibracji 3m 5009054

    Starannie wybrane archiwa oprogramowania - tylko najlepsze! Sprawdzone pod kątem złośliwego oprogramowania, reklam i wirusów

    Ostatnia aktualizacja Procedury uruchamiania i kalibracji 3m 5009054