Exportar un dataflow

Exportar un dataflow

Vamos a detallar los pasos a seguir para exportar un dataflow entre dos tenants diferentes o dentro de un mismo tenant entre dos espacios de trabajo diferentes, el caso es el mismo.

En este caso se trata de un dataflow cuyas conexiones son todas on cloud, por lo que no reguieren puerta de enlace.

En primer lugar hay que exportar el archivo .json que contiene todas las tablas del dataflow:

En segundo lugar, nos vamos al nuevo espacio de trabajo donde queremos importar el dataflow, le damos a crear dataflow y en la pantalla de creación le damos a Importar Modelo:

Seleccionamos el archivo .json exportado anteriormente y directamente nos va a crear el nuevo flujo de datos:

Editamos las credenciales y ya lo tenemos listo, así de simple.

Actualizamos el flujo de datos y así carga la información de las entidades.

Si en el dataflow tenemos alguna query nativa, nos dará un mensaje de error como el siguiente:

Para salvar este error es sencillo. Abrimos el archivo .json con un editor como por ejemplo Notepad++ y le decimos que busque y reemplace la siguiente cadena:

Pero solo debemos reemplazarla cuando venga predecida de “AllowNativeQuery”, el resto de trues que nos encontremos no hay que cambiarlos.

De esta forma ya se carga correctamente:

Con estos sencillos pasos podremos exportar e importar nuestros flujos de datos según lo necesitemos.

Francisco Mullor Cabrera

2 comentarios

Jorge Publicado el4:48 pm - 28/09/2021

hola Francisco, gracias por el aporte.
tengo una duda. realicé un data Flow y el tipo de tabla queda como pendiente de validación.

    Francisco Mullor Cabrera Publicado el5:07 pm - 28/09/2021

    No incide en nada en el correcto desarrollo de la actualización. Se supone, según el roadmap del producto, que la validación va a pasar a realizarse en segundo plano y el servicio parece estar preparado para ello, por lo que se puede entender de ese mensaje, pero es un desarrollo que aun no está lanzado.

Deja una respuesta