Recientemente, hemos actualizado Tableau desde la versión 8.0 (32 Bits) a 8.1. 7 (64 Bits) junto con la conexión automática (Single Sign On) y la configuración de PostgreSQL (Acceso a la base de datos del sistema Tableau) . Después de la actualización exitosa de esta aplicación y la configuración de las características con nombre, me gustaría compartir mi experiencia, ya que pueden ser útiles en caso de que enfrente una situación similar.
Clariba recibe la certificación para SAP reconocida experiencia en business intelligence y SAP HANA
10 pasos sencillos: cómo utilizar la autenticación basada en LDAP en SAP BusinessObjects 4.1
Hoy en día, casi todas las empresas almacenan datos como usuarios, correos electrónicos, roles, impresoras, etc., en lo que se denomina servicio de directorio, proporcionando un acceso centralizado a datos relacionados con la empresa que pueden utilizarse en todos sus sistemas. Una de las soluciones más utilizadas es Active Directory de Microsoft, ya que está estrechamente integrado con los sistemas operativos Windows. El LDAP otro, que significa Lightweight Directory Access Protocol, tiene una amplia gama de usuarios también desde el estándar de facto en sistemas basados en Linux.
Inteligencia de negocios para las PYME - tiempo más rápido de valorar y más asequible que nunca
Dada la feroz competencia y las crecientes demandas de los clientes, las pequeñas y medianas empresas (PYMES) necesitan hoy invertir en tener capacidades de BI para mantenerse relevantes y satisfacer estas demandas. Sin embargo, con los escasos recursos disponibles, la alineación de los negocios y las TI es vital para asegurar el éxito, y las nuevas opciones para soluciones de BI alojadas que liberan el flujo de efectivo son opciones atractivas para las PYMES.
Conceptos clave para optimizar la plataforma de BI 4 de SAP BusinessObjects
La Plataforma de BI 4 de SAP BusinessObjects (BO) ha venido con muchas mejoras que han hecho al sistema más complejo. Rep-Up-GraphWe, como los administradores de BI 4, están obligados a saber cómo funciona esta aplicación para aplicar las mejoras de optimización adecuadas a la plataforma, cuando sea necesario. En este artículo de blog, cubriremos los conceptos más importantes que deben considerarse como un primer paso para aumentar el rendimiento de la plataforma de BI. Es muy importante que un buen diseñador entienda los niveles conceptuales en la plataforma de BI: nivel de aplicación, nivel de inteligencia y nivel de procesamiento. Nos referiremos a cada uno de ellos y vamos a clavar algunos consejos de optimización.
Manejo de Errores de Fórmula en Web Intelligence
ETL con Microsoft SSIS: Primeros pasos y problemas comunes
Primera impresión al utilizar Microsoft SQL Server Integration Services (SSIS), la primera impresión del desarrollador es que la herramienta proporciona características de gran alcance además es fácil de usar. Aunque esto es verdad, hay algunos errores comunes que pueden hacernos perder nuestro tiempo. El propósito de este artículo del blog es cubrir algunos de estos problemas muy comunes y ahorrar un poco de tiempo al comenzar a desarrollar una solución con Microsoft SSIS.
¿Qué principales tendencias y predicciones de BI y analítica en 2014 hay que tener en cuenta?
¿Está preparada su organización para "After Big Data"?
A recent article in the Harvard Business Review by Thomas Davenport, professor and fellow at MIT, caught my attention. Davenport refers to the beginnings of a new era: “After Big Data” in his article Analytics 3.0. While organizations built around massive data volumes — such as Facebook, LinkedIn, eBay, Amazon and others — may be ready to move to the next wave of analytics, the full spectrum of big data capabilities is yet to be realized in the traditional organizations we work with on a daily basis.
Administración de dependencias ETL con BusinessObjects Data Services (Parte 1)
¿Está satisfecho con la forma en que actualmente gestiona las dependencias en su ETL? Las dependencias entre trabajos (o partes de trabajos) son un aspecto importante de la gestión de ETL. Se refiere a preguntas como: ¿Desea ejecutar el trabajo B si el trabajo A falló? Imagine que tiene un trabajo C con subtarea 1 (tiempo de ejecución habitual: 3 horas) y subproceso 2 (tiempo de ejecución habitual: 2 minutos). Si el subproceso 1 ha sido satisfactorio y ha fallado el subproceso 2, ¿puede reiniciar el trabajo C sin reiniciar el subproceso 1?
Tan pronto como tenga más de 1 trabajo simple, tendrá que administrar sus dependencias. En este artículo (parte 1 de una serie de artículos sobre el manejo de dependencias de ETL) enumeraré primero algunas de las características que busco en un sistema de administración de dependencia ideal. A continuación, echaré un vistazo a algunas de las posibilidades ofrecidas por SAP Data Services 4. En la parte 2 (mi siguiente post), voy a proponer la arquitectura de un posible sistema de gestión de dependencias. En la parte 3, entraré en los detalles de la implementación en Data Services. Terminaré con la parte 4 diciéndole cómo fue la implementación, y si algunas mejoras son posibles.
El sistema de gestión de dependencias ideal
En este post voy a usar la palabra "proceso" para diseñar una serie de ETL operaciones que tienen un significado juntos. Ejemplo: extraer una tabla de origen, crear una dimensión o actualizar una tabla de hechos. El objetivo aquí es administrar las dependencias entre los procesos: la actualización de una tabla de hechos probablemente sólo debería permitirse si la actualización de las dimensiones correspondientes fue exitosa.
Un sistema de gestión de dependencias debería tener al menos las siguientes características:
- Ejecutar un proceso sólo si sus prerrequisitos se han ejecutado correctamente
- Después de un error, ofrezca la opción de volver a ejecutar todos los procesos o sólo los procesos que fallaron
- Trace el resultado de cada proceso (se ejecutó correctamente, falló, no se ejecutó)
- Ejecutar dinámicamente procesos dependientes (en vez de estaticamente, es decir, basados en fecha / hora)
Las posibilidades
Vamos a enumerar algunas de las posibilidades ofrecidas por Data Services, con sus respectivos pros y contras.
1) Un trabajo con todos los procesos dentro. Esto es muy fácil de implementar, dinámico en términos de tiempos de ejecución, pero no permite las ejecuciones simultáneas. Lo que es más importante, significa que los fallos tienen que ser gestionados de manera que el fallo de un proceso no detenga todo el trabajo.
2) Un proceso por trabajo, con trabajos programados en momentos específicos. Esto es muy fácil de implementar, permite ejecuciones simultáneas, pero no es lo suficientemente dinámico. Si las duraciones del proceso aumentan con los meses / años, los trabajos pueden superponerse.
3) One main job calling other jobs (for example with execution commands or Web Services).
4) Un proceso por trabajo, todos los trabajos se están programando en momentos específicos, pero la comprobación en una tabla de control si los pre-requisitos funcionaban bien. De lo contrario sólo dormir por algún tiempo antes de comprobar de nuevo.
5) Use the BOE Scheduler to manage jobs based on events (how-to is well described on the SCN). I’ve not tested it yet, but I like this approach.
De forma predeterminada, las dos primeras posibilidades sólo gestionan el lado de "flujo" de la administración de dependencias (después de A, do B). Pero no manejan el lado condicional de la gestión de dependencias (hacer B sólo si A fue exitoso). En ambos casos, una tabla de control actualizada por secuencias de comandos SQL permitiría al ETL comprobar si los procesos de requisito previo se han ejecutado correctamente.
Lo que realmente no me gusta en las soluciones 2 a 5 es el hecho de que es difcil tener una visión general de lo que está pasando. Realmente no se puede navegar dentro de todo el ETL fácilmente. La solución 1 le da este resumen, pero a costa de tener un trabajo potencialmente enorme (sin la posibilidad de que los procesos se ejecuten simultáneamente).
También tenga en cuenta que las soluciones con varios trabajos necesitarán administrar la inicialización de las variables globales.
Lo que echo de menos en todas estas soluciones es un reinicio óptimo del ETL. Si 10 de mis 50 procesos fallaron, y sólo quiero reiniciar estos 10, ¿debo iniciarlos manualmente?
En mi siguiente post de blog voy a proponer una arquitectura que aborda este reinicio óptimo.
Hasta entonces, por favor, hágamelo saber sus pensamientos sobre cómo manejar sus dependencias de ETL. ¿Alguna de las 5 soluciones antes mencionadas? ¿Una mezcla? ¿Algo más? Y lo bien que funciona para usted.