Метод oracle bpel services datacontrol data dataobjectmap approve не поддерживается

Обновлено: 04.07.2024

Я использую оракул 10g и жабу 11.5. Я пытаюсь вызвать api из анонимного блока.

Если я перекомпилирую api после добавления dbms_output.put_line , а затем попытаюсь выполнить анонимный блок, он отобразит ошибку как

Однако, если я завершаю текущий сеанс и открываю новый сеанс, анонимный блок будет выполнен с ошибкой.

Из-за этой проблемы, я вынужден повторно подключать сеанс каждый раз, когда я вношу изменения в API. Может ли кто-нибудь помочь, если эта проблема может быть решена путем создания любых конфигураций на уровне жабы или базы данных.

ОТВЕТЫ

Ответ 1

Я подозреваю, что вы сообщаете только о последней ошибке в стеке:

Если это так, потому что ваш пакет неактивен:

Значения переменных, констант и курсоров, которые пакет объявляет (в своем описании или в своем теле) его пакет состояние. Если пакет PL/SQL объявляет хотя бы одну переменную, константу, или курсором, тогда пакет stateful; в противном случае это безстоящий.

При перекомпиляции состояние теряется:

Если тело экземпляра, пакет с сохранением состояния перекомпилирован (либо явно, с выражением "ALTER PACKAGE Statement", или неявно), следующий вызов подпрограммы в пакете вызывает Oracle Database отказаться от существующего состояния пакета и повысить исключение ОР-04068.

После того, как PL/SQL вызывает исключение, ссылка на пакет вызывает База данных Oracle для повторной инициализации пакета, который повторно инициализирует это.

Вы не можете избежать этого, если ваш пакет имеет состояние. Я думаю, что довольно редко нужно, чтобы пакет был сдержанным, поэтому вы должны пересмотреть все, что вы заявили в пакете, но вне функции или процедуры, чтобы увидеть, действительно ли это необходимо на этом уровне. Так как вы на 10g, это включает в себя константы, а не только переменные и курсоры.

Но последний абзац из цитированной документации означает, что в следующий раз, когда вы ссылаетесь на пакет в том же сеансе, вы не получите ошибку, и она будет работать как обычно (пока вы не перекомпилируете снова).

Ответ 2

похоже, что открытие нового сеанса - это ключ.

Ответ 3

Основываясь на предыдущих ответах. Я решил проблему, удалив глобальную переменную на уровне пакета до процедуры, поскольку в моем случае не было никакого воздействия.

Оригинал script был

Переписал то же самое без глобальной переменной V_ERROR_NAME и перешел на процедуру под уровнем пакета как

Измененный код

Ответ 4

Я перекомпилировал спецификацию пакета, хотя изменение было только в теле пакета. Это решило мою проблему

Все началось в один прекрасный день, когда я получил ссылку на Oracle BPEL и указание его исследовать. Для тех кто не в курсе — BPEL — это язык описания бизнес-процессов, Oracle BPEL — это кроме всего прочего еще и workflow-движок. Все начиналось хорошо, установка прошла без проблем, все вроде запускалось, но не хватало одной функции, без которой жить просто нельзя.


Покопавшись по форумам, я обнаружил, что нас спасет патч к нашей версии. Патч ставился странно, в документации по установке патча были описаны какие-то папки, которых у меня просто не было. What's the f**ck? После долгих танцев с бубном меня почему-то озарила идея зайти снова на сайт с файлами для скачивания. Для меня было откровением, что изначально я ставил не то. Нужно было скачать файл с похожим длинным именем, но без слова BPEL, т.е. решить задачу от противного.

Эта штука называлась просто SOA — Service Oriented Application, она содержала BPEL и даже кое-что еще (я устанавливал раньше SOA BPEL). Установив новый продукт и патч, я обрадовался, увидев начальную страницу в браузере. Но не тут-то было. Задачи после запуска куда-то пропадали. Потыкав мышкой туда-сюда и их обнаружил, но с ними ничего нельзя было сделать.

Опять приуныв, начал танцы с бубном и обнаружил ругань на NLS — National Language Settings. Я попытался заставить систему забыть навсегда о русском языке, но она не хотела, русские корни давали о себе знать. Пришлось устанавливать английскую версию windows. Как я и ожидал, это помогло, но не до конца. Почему-то система ругалась на отсутствие памяти, хотя памяти было достаточно. Пришлось разрешить использовать памяти побольше.

После таких мытарств Oracle BPEL стал работать. Думаете, это конец? Вовсе нет. Дальше начались проблемы с API. Очень бедная документация заставляет обращаться на форум Oracle за поиском нужной информации. Часто я наталкивался на аналогичные проблемы, что и у меня и часто там не было ответа.

Что можно сказать об Oracle BPEL, если он все-таки у вас заработает как нужно? Это язык для настоящих программистов. Вы должны знать XPath, и разбираться в вызовах веб-сервисов. Нельзя делать произвольные переходы между задачами. Видимо BPEL писали люди, которые очень любят структурное программирование и ненавидят оператор GOTO. А нормальный workflow как раз должен иметь хитрые переходы типа goto.

Вдобавок система в целом нестабильна и по ходу работы обнаруживаются ошибки, которые решаются путем перезапуска, либо переустановки. Возможно это происходило из-за того, что я использовал Oracle Express Edition вместо обычного Oracle Server.
Еще забыл сказать, что есть возможность ставить Oracle Lite, но с ним пропатченный BPEL вообще не работает.

При работе были использованы версии:
Oracle SOA Suite 10g 10.1.3.1, patch 10.1.3.5
Oracle Express Edition 10.2.0.1

Если нужно перенести объекты схемы из одной базы в другую, то проще всего это сделать с помощью технологии Oracle Data Pump.

Прежде чем вникать в детали работы с Data Pump, давайте уточним: у нас есть физические резервные копии и логические дампы.

В физическую резервную копию включаются файлы данных (Data Files), в которых в виде блоков хранятся все данные Oracle.

Логический дамп содержит объекты БД (таблицы, индексы, процедуры, пакеты и т. д.) и другую информацию (привилегии пользователей, статистику и т.д.).

Логический дамп — это бинарный файл, который создаётся специальной утилитой экспорта. В последующем другой утилитой — импорта — из этого бинарного файла можно восстановить объекты схемы и данные.

Экспорт-импорт происходит на уровне объектов базы. т.е. работа происходит с определениями объектов (DDL) и данными, которые в них содержатся.

Логические дампы применяются главным образом для переноса данных из одной базы в другую, а также для миграции базы на другую платформу.

Также их удобно использовать для восстановления данных редко изменяемых таблиц. Например, когда пользователь ошибочно выполняет обновление или удаление строк.

До версии Oracle 10g существовали только утилиты экспорта-импорта (exp и imp). Они работали как на сервере, так и на клиенте Oracle. В версии 10g и более поздних версиях утилиты остались, но считаются устаревшими.

Начиная с версии 10g появилась технология Oracle Data Pump.

Особенность утилиты в том, что она работает только на сервере.

С помощью Oracle Data Pump можно:

  • либо создать один или несколько файлов логического дампа БД в директории на сервере
  • либо перенести данные напрямую из одной БД в другую через dblink.

По сравнению с оригинальными утилитами exp/imp технология Data Pump значительно более быстрая. Имеет более гибкие настройки. Может вызываться, как из командной строки (утилиты), так и из PL/SQL с помощью пакетов DBMS_DATAPUMP и DBMS_METADATA.

Для вызова Data Pump из командной строки используются утилиты expdp и impdp

В общем, сейчас уже нет необходимости использовать оригинальные утилиты exp/imp, кроме случая, когда у вас нет доступа к файловой системе сервера Oracle.

Экспорт в Oracle Data Pump

Data Pump Export может работать в 5-ти режимах:

  1. Full Mode — выгрузка всей БД.
  2. Schema Mode — выгрузка выбранных схем.
  3. Table Mode — выгрузка отдельных таблиц.
  4. Tablespace Mode — выгрузка выбранных табличных пространств.
  5. Transportable Tablespace Mode — экспорт табличного пространства для переноса на другой сервер.

Пример вызова Data Pump Export в "Table Mode":

> expdp hr TABLES=employees DIRECTORY=DPUMP_DIR1 DUMPFILE=employees.dmp


Файлы дампа создаются в директории, на которую указывает объект базы данных Directory. По умолчанию параметр DIRECTORY=DATA_PUMP_DIR.

Если вы хотите выгрузить в другую директорию, то вам нужно:

  1. Cоздать другую directory с помощью команды (CREATE DIRECTORY .. AS '. ')
  1. Указать ее в параметре DIRECTORY=dpump_dir1 или перед именем файла дампа DUMPFILE=dpump_dir1:employees.dmp.

Экспорт может производиться не из текущей базы данных, а из удаленной базы по dblink. Для этого нужно указать существующий dblink на базу данных — источник, используя параметр NETWORK_LINK.

> expdp hr TABLES=employees DIRECTORY=DPUMP_DIR1 DUMPFILE=employees.dmp NETWORK_LINK=S101


Во-первых, можно создавать задания фильтры по метаданным, т.е. отбирать для экспорта объекты базыд данных как по типу, так и по имени. Для этого используются параметры: CONTENT, INCLUDE, EXCLUDE.

Во-вторых, можно выполнить фильтрацию строк выгружаемых таблиц с помощью параметра QUERY.

Импорт в Oracle Data Pump

Теперь перейдем к импорту.

Аналогично экспорту Data Pump Import также имеет 5 режимов:

  1. Full Mode — загрузка всего дампа.
  2. Schema Mode — загрузка выбранных схем.
  3. Table Mode — загрузка отдельных таблиц.
  4. Tablespace Mode — загрузка выбранных табличных пространств.
  5. Transportable Tablespace Mode — импорт табличного пространства.

Например, команда для полной загрузки дампа:

> impdp hr FULL=Y DIRECTORY=DPUMP_DIR1 DUMPFILE=employees.dmp


По-умолчанию выставлен параметр FULL=YES, то есть будет загружено все содержимое файла дампа. Но вы, также как и при экспорте, можете использовать параметры CONTENT, INCLUDE, EXCLUDE, QUERY для выбора нужных объектов и данных для загрузки.

Если при импорте вы указываете параметр NETWORK_LINK, то данные будут загружаться по указанному dblink напрямую из базы данных источника. В этом случае указывать файл дампа не нужно, а директория будет указывать только на размещение лога импорта.

> impdp hr TABLES=employees DIRECTORY=DPUMP_DIR1 NETWORK_LINK=S101


Итак: технология Oracle Data Pump позволяет быстро переносить данные из одной базы данных в другую как через файлы (дампы), так и напрямую по сети.

И конечно, создаваемые дампы могут использоваться и как резервные копии, особенно при небольших размерах базы данных. Но нужно учитывать следующее: если во время экспорта данные изменялись пользователями, то данные таблиц в дампе могут оказаться несогласованными.

Нюансы создания резервных копий базы дынных Oracle — это отдельная тема, которую рассмотрим в следующий раз.

Сергей Греховодов,
автор курсов по обучению Oracle

Похожие статьи:

Чтобы после сбоя в системе (например, отказа жесткого диска) восстановить базу нужно иметь под рукой резервную копию. (Нет резервной копии — прощай работа )) Чем свежее копия, тем лучше. Более того: резервная копия базы должна быть полной и непротиворечивой.

Если в таблице много записей, то порой достаточно выбрать первый десяток. В других СУБД для этого изначально были специальные конструкции в языке SQL. В Oracle всё это появилось гораздо позже. Есть несколько популярных способов.

Умеете делать резервную копию оракловой базы? Вопрос далеко-далеко не праздный (если вы уже знаете, как делать копию, то, наверное, догадываетесь, о чём пойдёт речь, правильно — о времени). Тема резервного копирования для администраторов оракла — одна из ключевых.

Oracle PL/SQL для администраторов баз данных
Толковая книга по PL/SQL. Читать и применять!

Джоэл. И снова о программировании (файл PDF) Всё знают Джоэла. Легенда. А это его сборник статей.

SQL и реляционная теория
Как грамотно писать код на SQL. Много примеров и советов по написанию SQL-запросов.

Пионеры программирования
Диалоги с создателями наиболее популярных языков программирования.

В состав технологии Data Pump входят утилиты: Data Pump Export (expdp) и Data Pump Import (impdp).

Data Pump Export – выгружает данные в файлы операционной системы, называемые файлами дампа (dumps files), в специальном формате, который может понимать только утилита Data Pump Import.

Получить справку по утилитам можно выполнив команды:

Если необходимо выполнить экспорт схемы или ее объектов, воспользуйтесь правами данной схемы. Использовать полномочия учетных записей sys и system не рекомендуется (по той причине, что для импорта могут потребоваться права sys и system соотвестственно).

Файл параметров экспорта схемы.

JOB_NAME - имя задания, чтобы при необходимости задание можно было бы идентифицировать по имени.

DUMPFILE - каталог для дампа LOGFILE - каталог для логов

dplogs - ссылка в базе данных на каталог в котором должны будут сохраниться логи результата выполнения экспорта схемы базы данных.

dpdumps - ссылка в базе данных на каталог в котором должны будут сохраниться файл дампа базы данных.

dplogs и dpdumps должны ссылаться на реальные каталоги операционной системы с достаточным набором прав на запись.

Создание ссылки в базе данных на катлоги операционной системы

Посмотреть уже имеющиеся каталоги для datapump:

Мне не нравится каталог по умолчанию. Предпочитаю его удалить

Делегирую права на запись в данную директорию пользователю scott

Если необходимо предоставить возможность экспорта данных в указанные каталоги для любых схем:

Экспорт схемы с использованием файла параметров:

В некоторых случаях необходимо явно указать SID базы данных.

Экспорт можно выполнить одной командой без использования файла параметров:

Технология Data Pump состоит из трех главных компонентов:

  • Пакет DBMS_DATAPUMP – это главный механизм для осуществления загрузки и выгрузки метаданных словаря данных. В пакете DBMS_DATAPUMP содержится основополагающие элементы технологии Data Pump в виде процедур, которые в действиельности приводят в действие задания по загрузке и выгрузке данных. Содержимое этого пакета отвечает за работу как утилиты Data Pump export, так и утилиты Data Pump Import.
  • Пакет DBMS_METADATA – для извлечения и изменения метаданных Oracle.
  • Клиенты с интерфейсом командной строки – impdbp и expdp

Режимы утилиты Data Pump Export

Data Pump Export поддерживает несколько режимов для выполнения заданий.

  • Режим экспорта всей базы данных. Позволяет выполнять экспорт всей базы данных за один сеанс экспорта с помощью параметра FULL. Для использования этого режима, необходимы привилегии EXPORT_FULL_DATABASE.
  • Режим схем. Позволяет выполнять экспорт данных и/или объектов только конкретного пользователя с помощью параметра SCHEMAS.
  • Режим табличных пространств. Позволяет выполнять экспорт всех таблиц, которые содержатся в одном или нескольких табливчных пространствах, с помощью параметра TABLESPACES или только метаданных тех объектов, которые содержатся в одном или нескольких табличных пространствах, с помощью параметра TRANSPORT_TABLESPACES. Выполнять экспорт табличных пространств между базами данных можно, чначала выполнив экспорт метаданных, затем скопировав файлы табличного пространства на целевой сервер, а потом импортировав метаданные в целевую базу данных.
  • Режим таблиц. Позволяет выполнять экспорт только одной или нескольких конкретных таблиц с помощью параметра TABLES.

По умолчанию для выполнения заданий Data Pump Export и Data Pump Import используется режим схем.

Параметры фильтрации экспортируемых данных.

Параметр CONTENT - позволяет выполнять фильтрацию тех данных, которые должны помещаться в файл дампа при экспорте. Он может принимать следующие значения:

  • ALL – указывает, что требуется экспортировать как данные таблиц, так и определения этих таблиц и других объектов (метаданных);
  • DATA_ONLY – указывает, что требуется экспортировать только строки таблиц.
  • METADATA_ONLY – указывает, что требуется экспортировать только метаданные.

Парамтеры ECLUDE и INCLUDE

Параметры EXCLUDE и INCLUDE – это два взаимоисключающих параметра, которые можно применять для выполнения так называемой фильтрации метаданных (metadata filtering). Фильтрация метаданных позволяет выборочно исплючать или наоборот включать определенные типы объектов во время выполнения задания Data Pump Export или Data Pump Import. В преджней утилите экспорта для указания того, требуется ли экспортировать такие объекты, применялись параметры CONSTRAINTS, GRANTS и INDEXES. За счет использования параметров EXCLUDE и INCLUDE теперь стало можно включать и исключать объекты и многих других видов помимо тех четырех, фильтарцию которых можно было осуществлять ранее. Например, если необходимо сделать так, тобы во время экспорта не экспортировались никакие пакеты, такое поведение задается с помощью параметра EXCLUDE.

Проще говоря, параметр EXCLUDE помогает пропускать определенные типы объектво базы данных во время операции экспорта или импорта, а параметр INCLUDE наоборот – включать в эти операции только определенный набор объектов. Ниже показано, как в общем случае выглядит синтаксис этих параметров:

Параметры EXCLUDE и INCLUDE являются взаимоисключащими. Поэтому во время выполенния одного и того же задания применять можно толкьо какой-то один из них; использовать тот и другой одновременно нельзя.

Как для параметра EXCLUDE, так и для параметра INCLUDE, элемент конструкцияимени является необязательным. Как известно, некоторые объекты в базе данных, например, таблицы, индексы, пакеты и процедуры, обладают именами, а некоторые, напримре, объекты GRANTS – нет. Элемент конструкцияимени в параметре EXCLUDE или INCLUDE позволяет приенять SQL-функцию для фильтрации именованных объектов.

Ниже приведен простой пример исключения всех таблиц, имя которые начинается с ECMP.

В этом примере ”LIKE ‘EMP%’” пре конструкцию имени.

Элемент конструкция_имени является необязательным в параметрах EXCLUDE и INCLUDE. Он представляет собой просто средство фильтрации, позволяющее более точно определять тип подлежащих исключению или включению объектво (индексов, таблиц и т.д.). В случае его пропуска включаться или исключаться будут все объекты указанного типа.

В следующем примере Oracle исключит из операции экспорта все индексы, потому в элементе конструкция_имени не было указано никакого значения, требующего, чтобы исключались только определенные индексы:

Вдобавок параметр EXCLUDE может применяться для исключения целой схемы, как показано в следующем примере:

Параметр INCLUDE является противоположностью параметру EXLCUDE и позволяет принудительно включать в операцию экспорта только определенный набор объектов. Как и в случае параметра EXLCUDE, для указания того, какие точно объекты требуется экспортировать, вместе с INCLUDE тоже можно использовать элемент конструкция_имени.

Ниже приведены три примера, демонстрирующие примеение элемента конструкция_имени для ограничения выбираемых объектов:

В первом примере параметр INCLUDE указывает, что в процессе экспорта должны приниать участие только две таблицы: ECMPLOYEES и DEPARTMENTS, во втором – только процедуры, а в третьем – только индексы, причем лишь те, имя у которых начинается с EMP.

В следующем примере показано, как использовать символ косой черты для отмены двойных кавычек:

При выполнении фильтрации метаданных за счет применения параметра EXCLUDE и INCLUDE нужно помнить о том, что все объекты, которые зависят от какого-то из фильтуемых объектов, будут обрабатываться тем же образом, что и сам этот фильтруемый объект. Например, в случае использвоания параметра EXCLUDE для исключения некоторой таблицы также автоматичеки будут исключаться индексы, граничения, триггеры и прочие зависящие от этой тблицы объеекты.

Существует еще множество всевозможных параметров в т.ч. и шиврование, компрессиия и д.р.

Data Pump Import

Иногда, (в моем случае при неудачном импорте) можно вытащить из файла дампа весь код DDL.

Для этого можно воспользоваться параметром SQLFILE.

Создается файл scott.sql с DDL.

Параметры фильтрации

Параметр CONTENT применяться в Data Pump Import, как и в Data Pump Export, для указания того, должны ли загружаться только строки (CONTENT=DATA_ONLY), строки и метаданные (CONTENT=ALL), либо только метаданные (CONTENT=METADATA_ONLY). Параметры EXLCUDE и INCLUDE имеют в Data Pump Import точно такое же предназначение, как и в Data Pump Export, и явялются взаимоисключающими, а в частности:

  • Параметр INCLUDE используется для перечиления объектов, которые необходимо импортировать;
  • Параметр EXCLUDE применятьтся для перечисления объектов, которые имортировать не требуется.

Ниже приведент простой пример использования параметра INCLUDE. В этом примере импорт ограничивается только объектами таблиц. В результате импортирована будет только таблица PERSONS.

Для импорта только тех таблиц, имя у которых начинается с букв PER, можно использоть конструкцию INCLUDE=TABLE:”LIKE ‘PER%’”. Вдобавок параметр INCLUDE можно применять и отрицательным образом, указывая то, что все объекты с оперделенным синтаксисом должны игнорироваться: INCLUDE=TABLE:”NOT LIKE ‘PER%’”

Обратите внимаение на то, что в случае установки для параметра CONTENT занчения DATA_ONLY, использовать во время импорта ни параметр EXCLUDE ни параметр INCLUDE нельзя.

Параметр TABLE_EXISTS_ACTION позволяет указывать Data Pump Import, что следует делать в случае, если таблица уже существует. Для этого параметра можно устанавливать четыре разных значения:

  • SKIP – (значение по умолчанию) – пропукать таблицу, если таковая уже существует;
  • APPEND – присоединять строки к таблице;
  • TRUNCATE – усекать таблицу и загружать данные из экспортного файла дампа.
  • REPLACE – удалять таблицу, если таковая сущствует, создавать ее заново и снова загружать в нее данные.

Параметры переопределения

Параметр REMAP_TABLE

Параметр REMAP_TABLE позволяет переименовывать таблицу при выполнении операции импорта с сипользованием метода переноса табличных пространств.

В этом примере параметр REMAP_TABLE указывает, что при выполнении операции импорта имя таблицы hr.employees должно быть изменено на hr.emp

Параметр REMAP_SCHEMA

Параметр REMAP_SCHEMA позволяет перемещать объекты из одной схемы в другую. Задается этот параметр примерно так:

В этом примере параметр REMAP_SCHEMA указывает, что при выполнении операции импорта требуется перемесить все объекты из исходной схемы HR в целевую схему OE. Утилита Data Pump Import может даже создать схему OE, если таковой в целевой базе данных не существует.

Параметр REMAP_TABLESPACE

Иногда бывает нужно, чтобы табличное пространство, в которое выполняется импорт даннных, отличалось от используемого в исходной базе данных. Параметр REMAP_TABLESPACE позволяет осуществлять во время импорта перемещение объектов из одного табличноо пространства в другое.

Параметр REMAP_DATAFILE

При перемещении баз данных между двумя различными платформами, на каждой из которых используетс свое соглашие по именованию фалов, параметр REMAP_DATAFIE приходится очень кстати, поскольку позволяет изменять формат именования файлов. Ниже приведен пример, показывающий, как с помощью этого параметра указать утилите Data Pump Import, что вместо формата фаловой системы Windows, требуется использовать формат файловой системы UNIX. После этого при обнаружении в экспортном файле дампа людой ссылки на файл с именем в формате файловой истемы Windows, утилита Data Pump Import будет автоматически изменять имя файла в соответствии с форматом файловой системы UNIX.

Параметры TRANSFORM

Предположим, что требуется импортировать таблицу из другой схемиы или даже другой азы данных и не импортироват при этом другие атрибуты хранения объектов, т.е. необходимо просто перенести содержациеся в таблице данные. Параметр TRASNSFORM позволяет указать утилите Data Pump Import не импортировать оперделенные атрибуты хранения и атрибуты других видов. За счет применения параметра TRANSFORM можно исключать из таблицы или индекса конструкции STORAGE и TABLESPACE или только конструкции STORAGE. При выполнении импорта с помощью Data Pump Oracle создает объекты с использованием DDL-операторов, которые находит в экспортных файлах дампа. Параметр TRANSFORM, по сути, указывает утилите Data Pump Import изменять приводящие к созданию объектов операторы DDL оперделенным образом.

В целом синтаксис параметра TRANSFORM выглядит так:

Ниже приведено краткое описание того, что собой представляет кадый элемент.

1) Название_трансовармации. Существуют всего четыре опции, которые могут указываться на месте этого элемента. Эти опции позволяют, соответственно, изменять четыре основных вида характеристик объекта.

  • SEGMENT ATTRIBUTES. Эта опция позволяет влиять на атриуты сегмента, в число которых вхдят физические атрибуты, атрибуты хранения, табличные пространства и журанлы. Принуждать Data Pump Import включать все эти атрибтуы можно, указав на месте название_трансформации этой опции со значением Y (SEGMENT_ATTRIBUTES=Y), которое является для этого параметра значением по умолчанию. В таком случае Data Pump Import будет включать все четыре атрибута сегмента вместе с их операторами DDL.
  • STORAGE. За счет указания на месте название_трансформации опции STORAGE со значением Y (STORAGE=Y), представляющее собой значение по умолчанию, можно получать лишь атрибуты хранения тех объектов, которые являются частью задания Data Pump Import.
  • OID. В случае указания на месте название_трансформации опции OID со значением Y (OID=Y), которое является для нее значением по умолчанию, объектым таблицам во время импорта будет приваиваться новй OID.
  • PCTSPACE. За счет указания на месте название_трансформации опции PCTSPACE с положительным числом в качестве значения можно увеличивать выделяемый под объекты и файлы данных объем пространства на соответствующее количество процентов.

2) Значение. На месте элемента значение в параметре TRANSFORM может указываться либо значение Y (да), либо значение N (нет). Как упоминалось выше, для первых трех опций, которые могут указываться на месте название_трансформации, по умолчанию устанавливается занчение Y. Это означает, что по умолчанию Data Pump предусмативает выполнение импорта как атрибутов сегмента, так и атрибутов хранения объекта. В качестве альтернативного варианта, для этих опций можно устанавивать значение N и тем самым указывать Data Pump не импортировать исходные атрибуты сегмента и/или хранения. Что касается опции PCTSPACE, то для нее на месте элемета занчение можнет задваться только какое-то число.

3) Типобъекта.</strong> На месте элемета типобъекта можно указывать утилите Data Pump Import, объекты какого типа необходимо трансформировать. Это могут быть таблицы, индексы, табличные пространсва, типы, кластеры, граничения и прочие обхекты, в зависимости от опций, указываемых на месте название_транформации. В случае не указания типа подлежащих транформаци обхектов при использовании опции SEGMENT_ATTRIBUTES и STORAGE, эти опции будут применяться ко всем таблицам и индексам, которые являются частью операции импорта.

Ниже приведен пример применения параметра TRANSFORM:

В этом примере для SEGMENT_ATTRIBUTES установлено занчение N, а в качестве типа объекта указана таблица. В такой спецификации параметр TRANSFROM указывает утилите Data Pump Import не импортировать существующие атрибуты хранения ни для каких таблиц.

Мониторинг выполнения заданий Data Pump

Наиболее важными для мониторинга за выполнением заданий Data Pump являются представления DBA_DATAPUMP_JOBS и DBA_DATAPUMP_SISSIONS.

Представление DBA_DATAPUMP_JOBS позволяет получать сводную информацию обо всех выполняющихся в текущий момент заданиях Data Pump.

Представление DBA_DATAPUMP_SESSIONS позволяет выяснять, какие пользователькие сеансы в текущий момент подключены к заданию Data Pump Export или Data Pump Import

Просмотр информации о ходе выполненния заданий Data Pump

Ниже приведен типичный сценарий, который можнро использовать для получения информаци о том, сколько времени осталось до завершения выполнения задания Data Pump:

Службы Reporting Services получают через модульный и расширяемый уровень данных, где работают модули обработки данных. Для получения данных отчета из источника данных необходимо выбрать модуль обработки данных, поддерживающий как тип источника данных, так и версию программного обеспечения источника данных и его платформу (32-разрядная или 64-разрядная x64).

При развертывании служб Службы Reporting Servicesнабор модулей обработки данных, предоставляющих доступ к различным типам источников данных, автоматически устанавливается и регистрируется как в системе создающего отчеты клиента, так и на сервере отчетов. Службы Reporting Services устанавливают следующие типы источников данных.

Microsoft SQL Server

Microsoft SQL Server Службы Analysis Services для многомерных выражений, расширений интеллектуального анализа данных, Microsoft Power Pivot и табличных моделей;

Microsoft База данных SQL Azure

Например, модуль обработки данных Службы Analysis Services представляет собой OLEDB-MD.

Поддержка платформ источников данных отчета

Источники данных, которые вы можете использовать в развертывании служб Службы Reporting Services , различаются в зависимости от выпуска SQL Server , версии служб Службы Reporting Services и платформы. Дополнительные сведения о компонентах см. в статье Компоненты Reporting Services, поддерживаемые выпусками SQL Server. Приведенная далее в разделе таблица содержит сведения о поддерживаемых источниках данных в зависимости от версии и платформы.

Требования к платформам для источников данных служб Службы Reporting Services различаются для системы клиента, создающего отчеты, и сервера отчетов.

На системе клиента, создающего отчеты

SQL Server SQL Server Data Tools — Business Intelligence — это 32-разрядное приложение. SQL Server Data Tools — Business Intelligence не поддерживается на платформе Itanium. На платформе x64 для изменения и предварительного просмотра отчетов в конструкторе отчетов необходимо наличие 32-разрядных версий поставщиков данных, установленных в каталоге платформы (x86).

На сервере отчетов

При развертывании отчета в 64-разрядной версии сервера отчетов на нем должны быть установлены 64-разрядные версии поставщиков данных, скомпилированные в машинном коде. Упаковка 32-разрядной версии поставщика данных в 64-разрядные интерфейсы не поддерживается. Дополнительные сведения см. в документации по поставщику данных.

Поддерживаемые источники данных

В следующей таблице перечислены поставщики данных и модули обработки данных Microsoft , которые могут использоваться для получения данных для наборов данных и моделей отчетов. Дополнительные сведения о модуле обработки данных или поставщике данных можно получить, перейдя по ссылке во втором столбце. Столбцы таблицы содержат следующие сведения:

Источник данных отчета. Тип данных, к которым осуществляется доступ. Например, реляционная база данных, многомерная база данных, неструктурированный файл или XML-файл. Этот столбец отвечает на вопрос: "Данные каких типов может использовать Службы Reporting Services в отчете служб?"

Имя модуля обработки данных или поставщика данных. Модуль обработки данных служб Службы Reporting Services или другой поставщик данных, отвечающий выбранному типу источника данных служб Службы Reporting Services. Этот столбец отвечает на вопрос: "Какой модуль обработки данных или поставщик данных используется при выборе данного типа источника данных?"

Версия базового поставщика данных (необязательно). Некоторые типы источников данных поддерживают более одного поставщика данных. Это могут быть как разные версии одного и того же поставщика, так и разные реализации этого типа поставщика данных от сторонних производителей. Имя этого поставщика зачастую появляется в строке соединения после настройки источника данных. Этот столбец отвечает на вопрос: "Какой поставщик данных можно выбрать в диалоговом окне Свойства соединения после выбора типа источника данных?"

Источник данных <platform> : Платформа источника данных, поддерживаемая модулем обработки данных или поставщиком данных для данного целевого источника данных. Этот столбец отвечает на вопрос: "Может ли этот модуль обработки данных или поставщик данных получать данные из источника данных на платформе этого типа?"

Версия источника данных. Версия целевого источника данных, поддерживаемая модулем обработки данных или поставщиком данных. Этот столбец отвечает на вопрос: "Может ли этот модуль обработки данных или поставщик данных получать данные из этой версии источника данных?"

Типы источников данных

данных отчета Тип источника данных служб Reporting Services Имя модуля обработки данных или поставщика данных Версия базового поставщика данных

на платформе x86 Данные

на платформе x64 Версия источника данных Сервер отчетов

на платформе x86 Сервер отчетов

Для моделей на основе Oracle требуются клиентские компоненты Oracle.

Службы Analysis Services

Oracle 9.2.0.3 или более поздней версии

Сведения об использовании внешних источников данных см. в разделе Добавление данных из внешних источников данных (службы SSRS).

Модули обработки данных служб Reporting Services

Вместе со службами Службы Reporting Services и средой SQL Server Data Tools — Business Intelligenceавтоматически устанавливаются следующие модули обработки данных. Дополнительные сведения, а также сведения по проверке установки см. в разделах Файл конфигурации RSReportDesigner и Файл конфигурации RsReportServer.config.

Модуль обработки данных служб SQL ServerСлужбы Integration Services не поддерживается в настоящее время.

Дополнительные сведения о модулях обработки данных, поддерживаемых построителем отчетов, см. в статье Create data connection strings - Report Builder & SSRS (Создание строки подключения к данным в построителе отчетов и SSRS).

Модуль обработки данных Microsoft SQL Server

В среде SQL Server Data Tools — Business Intelligence конструктор запросов, связанный с этим модулем данных, называется визуальным конструктором инструментов для создания баз данных. Если конструктор запросов используется в графическом режиме, запрос анализируется и, возможно, переписывается. Текстовый конструктор запросов можно использовать при необходимости четкого управления синтаксисом Transact-SQL в запросе. Дополнительные сведения см. в статье Graphical Query Designer User Interface.

В построителе отчетов конструктор запросов, связанный с этим модулем данных, называется конструктором реляционных запросов.

Модуль обработки для базы данных SQL Microsoft Azure

В среде SQL Server Data Tools — Business Intelligence графическим конструктором запросов, связанным с этим модулем обработки данных, является конструктор реляционных запросов, а не визуальный конструктор инструментов для создания баз данных, который используется с типом источников данных Microsoft SQL Server.

Среда SQL Server Data Tools — Business Intelligence автоматически различает типы источников данных Microsoft Azure База данных SQL и Microsoft SQL Server и открывает графический конструктор запросов, связанный с типом источника данных.

Если конструктор запросов используется в графическом режиме, запрос анализируется и, возможно, переписывается. Текстовый конструктор запросов также доступен для написания запросов. Текстовый конструктор запросов можно использовать при необходимости четкого управления синтаксисом Transact-SQL в запросе.

Получение данных из База данных SQL, Azure Synapse Analytics и SQL Server выполняется аналогично, однако существует ряд требований, относящихся только к База данных SQL. Дополнительные сведения см. в разделе Тип соединения SQL Azure (SSRS).

Модуль обработки данных параллельного хранилища данных Microsoft SQL Server

Этот источник данных является нерекомендуемым. Для подключения к Microsoft Analytics Platform (APS) используйте тип источника данных SQL Server.

Модуль обработки данных служб Microsoft SQL Server Analysis Services

При использовании источников данных Azure Analysis Services и набора данных Power BI Premium обратите внимание, что многофакторная проверка подлинности должна быть отключена для учетных данных, используемых для подключения к источнику данных. Если в вашей среде необходимо включить многофакторную проверку подлинности, обратитесь к разделу Условный доступ Azure Active Directory, чтобы узнать, как отключить многофакторную проверку подлинности для учетных данных, используемых в источнике данных.

При использовании в качестве источника данных набора данных Power BI Premium поддерживаются только режим импорта и DirectQuery.

При соединении с источником данных Службы Analysis Services модуль обработки данных Microsoft SQL Server Службы Analysis Services поддерживает параметры с несколькими значениями и сопоставляет свойства ячеек и элементов с расширенными свойствами, поддерживаемыми Службы Reporting Services. Дополнительные сведения см. в разделе Расширенные свойства поля для базы данных служб Analysis Services (SSRS).

Вы можете также создавать модели на основе источников данных SQL Server Службы Analysis Services.

OLE DB Data Processing Extension

Модуль обработки данных OLE DB требует выбора дополнительного уровня поставщика данных в зависимости от версии источника данных, который необходимо использовать в отчете. Если конкретный поставщик данных не выбран, предоставляется поставщик по умолчанию. Выберите конкретный поставщик данных в диалоговом окне Свойства соединения, открыть которое можно, нажав кнопку Изменить в диалоговых окнах "Источник данных" или "Общий источник данных".

OLE DB для SQL Server

Дополнительные сведения см. в разделе Тип соединения OLE DB (службы SSRS).

OLE DB для OLAP 7.0

Поставщик OLE DB для служб OLAP Services 7.0 не поддерживается.

OLE DB для Oracle

Модуль обработки данных OLE DB для Oracle не поддерживает следующие типы данных Oracle: BLOB, CLOB, NCLOB, BFILE, UROWID.

Поддерживаются безымянные параметры, зависящие от позиции. Именованные параметры этим модулем не поддерживаются. Для работы с именованными параметрами используйте модуль обработки данных Oracle .

Дополнительные сведения о настройке Oracle в качестве источника данных см. в разделе Как использовать службы Reporting Services для настройки источника данных Oracle и доступа к нему. Сведения о дополнительной настройке разрешений см. в статье Как добавить разрешения для субъекта безопасности NETWORK SERVICE базы знаний Microsoft .

Несмотря на то, что поставщик данных может поддерживать предварительный просмотр отчета на системе клиента, создающего отчет, не все поставщики данных OLE DB поддерживают отчеты, опубликованные на сервере отчетов.

ODBC Data Processing Extension

Несмотря на то, что поставщик данных может поддерживать предварительный просмотр отчета на системе клиента, создающего отчет, не все поставщики данных ODBC поддерживают отчеты, опубликованные на сервере отчетов.

Несмотря на то, что поставщик данных может поддерживать предварительный просмотр отчета на системе клиента, создающего отчет, не все поставщики данных ODBC поддерживают отчеты, опубликованные на сервере отчетов.

Модуль обработки данных Oracle

При выборе типа источника данных Oracle вы выбираете модуль обработки данных Службы Reporting Services, который использует поставщик данных Oracle напрямую и больше не использует объявленный нерекомендуемым поставщик Microsoft System.Data.OracleClient. Чтобы получить данные отчета из базы данных Oracle, администратор должен установить клиентское программное обеспечение Oracle версии 11g или более поздней. Оно должно быть установлено в системе клиента, создающего отчеты, для предварительного просмотра отчетов, и на сервере отчетов для просмотра опубликованных отчетов.

Сведения об установке клиентского программного обеспечения Oracle см. в статье Тип соединения Oracle (SSRS).

Этот модуль поддерживает именованные параметры. Oracle версии 11g или более поздней поддерживает параметры с несколькими значениями. Для работы с безымянными параметрами, зависящими от позиции, используйте модуль обработки данных OLE DB с поставщиком данных Microsoft OLE DB для Oracle. Дополнительные сведения о настройке Oracle в качестве источника данных см. в разделе Как использовать службы Reporting Services для настройки источника данных Oracle и доступа к нему. Сведения о дополнительной настройке разрешений см. в статье Как добавить разрешения для субъекта безопасности NETWORK SERVICE базы знаний Microsoft .

Можно получить данные из хранимых процедур с несколькими входными параметрами, но эти процедуры должны возвращать только один выходной курсор. Дополнительные сведения см. в разделе Returning results with Oracle REF CURSORs (Возвращение результатов при помощи Oracle REF CURSOR) в статье "Retrieve data using a DataReader" (Получение данных с помощью DataReader).

Дополнительные сведения см. в разделе Тип соединения Oracle (службы SSRS). Дополнительные сведения о соответствующем конструкторе запросов см. в разделах Пользовательский интерфейс графического конструктора запросов.

Также можно создавать модели на основе базы данных Oracle.

Модуль обработки данных Teradata

Для проектов сервера отчетов не существует графического конструктора запросов для этого модуля. Для создания запросов используйте текстовый конструктор запросов.

Этот модуль поддерживает многозначные параметры. Макросы могут быть указаны в запросе с использованием команды EXECUTE в режиме запроса TEXT.

Модуль обработки списка данных SharePoint

Службы Reporting Services включает модуль обработки списка данных SharePoint служб Microsoft SQL Server Службы Reporting Services, поэтому списки SharePoint могут быть использованы в качестве источника данных в отчете. Данные списка можно получить из следующих источников:

SharePoint Server 2019

SharePoint Server 2016

SharePoint Server 2013

Существует три способа реализации поставщика данных списка SharePoint.

Из среды создания отчетов, такой как построитель отчетов или конструктор отчетов в среде SQL Server Data Tools — Business Intelligenceили сервера отчетов, настроенного для работы в собственном режиме, данные списка приходят из веб-службы Lists.asmx для сайта SharePoint.

На сервере отчетов, работающем в режиме интеграции с SharePoint, данные списка приходят либо из соответствующей веб-службы Lists.asmx, либо из программных вызовов SharePoint API. В этом режиме можно получить данные списка из фермы SharePoint.

Для SharePoint Server 2013 и SharePoint Server 2016 надстройка Microsoft SQL Server Службы Reporting Services для технологий Microsoft SharePoint позволяет получать данные списка из веб-службы Lists.asmx для сайта SharePoint либо с сайта SharePoint, который является частью фермы SharePoint. Этот сценарий также известен как локальный режим , поскольку сервер отчетов для этого не требуется.

Указываемые учетные данные зависят от реализации, которую использует клиентское приложение. Дополнительные сведения см. в разделе Тип подключения к списку SharePoint.

Модуль обработки XML-данных

Службы Reporting Services включают модуль обработки данных XML, что позволяет использовать их в отчете. Данные могут быть получены из XML-документа, веб-службы или из веб-приложения, доступ к которым осуществляется с помощью URL-адреса. Дополнительные сведения см. в разделе Тип соединения XML (службы SSRS). Дополнительные сведения о соответствующем конструкторе запросов см. в разделе о текстовом конструкторе запросов статьи Пользовательский интерфейс графического конструктора запросов.

Модуль обработки данных SAP BW

Службы Службы Reporting Services включают модуль обработки данных, позволяющий использовать в отчетах данные из источника данных SAP BW.

Модуль обработки данных Hyperion Essbase Business Intelligence

Службы Reporting Services включают модуль обработки данных, позволяющий использовать в отчетах данные из источника данных Hyperion Essbase .

Дополнительные сведения см. в разделе Тип соединения Hyperion Essbase (службы SSRS). Дополнительные сведения о соответствующем конструкторе запросов см. в разделе Hyperion Essbase Query Designer User Interface.

Читайте также: