""

Technical

Cómo configurar la conectividad de SQL Server para WebI desde SAP BusinessObjects BI4. 0 en Linux

Hoy en día hemos notado que algunos de nuestros clientes están siguiendo la tendencia de los productos de código abierto. De hecho, Linux es una gran opción de sistema operativo debido a que es totalmente compatible con SAP BusinessObjects BI 4 y también ayuda a las empresas a reducir costos. Sin embargo, Linux ha conservado la forma en que funciona el clásico sistema operativo Unix y por lo tanto todo se trata de derechos y comandos por lotes. Por lo tanto, un conocimiento técnico Linux avanzado es obligatorio antes de entrar en él.

El propósito de esta entrada de blog es compartir los problemas que enfrentamos en uno de nuestros clientes que ejecutan SAP BusinessObjects BI4 SP4 en una versión de Red Hat Enterprise Linux Server 6.3 usando MySQL 5.1. 61 como base de datos del sistema y cómo Los resolvió.

The issue came out when right after a production database migration (a brand new SQL Server 2008) all their WebI documents stopped running from the SAP BI4 Launchpad with an unusual error "Database Error .[ (IES 10901)" blocking every single WebI to run and the whole core business was jeopardized. Rich Client did not experience any problem in Windows. After the first analysis, we discovered that default SQL Server ODBC driver installation was only configured properly for 32bit connections in the Linux server whereas WebI requires 64bit ODBC driver connectivity for running in the SAP BI4 Launchpad.

When it came to this point we had to apply a couple of OSS notes. The first one was OSS 1607125 "How to configure SQL Server connectivity for WebI from a BI4.0 unix environment". Resolution is:

1. Abrir env.sh bajo / Sap_bobj / setup /

2. Busque la línea siguiente

$ LIBRIR: $ LIBDIR32: $ WCSCOMPONENTDIR: $ PLUGINDIST / auth / secEnterprise: $ {CRPEPATH64}: $ {CRPEPATH}: $ {MWHOME}: $ PLUGINDIST / desktop / CrystalEnterprise.Report: $ {BOBJEDIR} enterprise_xi40 / $ SOFTWAREPATH32 / ras: $ {BOBJEDIR} mysql / lib "

3. Modifique la línea anterior agregando lo siguiente

": $ {BOBJEDIR} enterprise_xi40 / linux_x64 / odbc / lib: $ {BOBJEDIR} enterprise_xi40 / $ SOFTWAREPATH32 / odbc / lib"

La línea debería verse así

LIBRARYPATH="$LIBDIR:$LIBDIR32:$WCSCOMPONENTDIR:$PLUGINDIST/auth/secEnterprise:${CRPEPATH64}:${CRPEPATH}:${MWHOME}:$PLUGINDIST/desktop/CrystalEnterprise.Report:${BOBJEDIR}enterprise_xi40/$SOFTWAREPATH32/ras:${BOBJEDIR}mysql/lib:${BOBJEDIR}enterprise_xi40/linux_x64/odbc/lib:${BOBJEDIR}enterprise_xi40/$SOFTWAREPATH32/odbc/lib”

4. Navegar a Sap_bobjenterprise_Xi40

5. Abra el archivo odbc.ini utilizando vi u otras herramientas del editor de texto.

6. Busque la entrada para Sql Server DSN. La entrada DSN predeterminada en odbc.ini se denomina "[SQL Server Native Wire Protocol]", pero se recomienda crear su propia entrada DSN utilizando los mismos parámetros especificados en el DSN predeterminado.

7. Actualizar la sección "Controlador" del DSN para que apunte a 64 versión de bits de los controladores ODBC de SQL Server

Driver=<install directory>/sap_bobj/enterprise_xi40/linux_x64/odbc/lib/CRsqls24.so

8. Reinicie el SIA

However the issue was not resolved completely. We received a new error with the following description whenever we tried to run a WebI "Receive the error : Database error: [DataDirect][ODBC lib] System information file not found. Please check the ODBCINI environment  variable.. (IES 10901) (WIS 10901)". This is a configuration issue on the Linux operating system with the environment variable ODBCINI.  Please make sure your environment variables are set correctly according to OSS note 1291142 - "Web Intelligence reporting using DataDirect drivers in Unix" (as of today it still applies to BI4). Resolution is:

1. En el perfil Unix del usuario Bobje, agregue / modifique las siguientes variables de entorno y genere el perfil

BOBJEDIR = / odbc export ODBC_HOME ODBCINI = $ BOBJEDIR / odbc.ini exportación ODBCINI LD_LIBRARY_PATH = $ BOBJEDIR / enterprise120 / / dataAccess / RDBMS / connectionServer: $ ODBC_HOME / lib: $ BOBJEDIR / enterprise120 / /: $ LD_LIBRARY_PATH exportar LD_LIBRARY_PATH

NOTA: Reemplace con linux_x86, solaris_sparc, aix_rs6000, hpux_pa-risc, dependiendo de su plataforma específica de Linux. NOTA: Debe establecer / exportar las variables env anteriores en el mismo orden que se muestra.

Asegúrese de utilizar el archivo $ HOME / .odbc.ini como su fuente predeterminada para la configuración de ODBC. Por lo tanto, modifique la variable ODBCINI de la siguiente manera:

ODBCINI = $ HOME / .odbc.ini exportación ODBCINI

2. Modifique el odbc.ini para agregar el DSN

                  [TestDSN] Controlador = / enterprise120 / /odbc/lib/CRmsss23.so Descripción = DataDirect 5.3 Dirección del controlador de protocolo de cable de SQLServer = , Base de datos = QuotedId = Yes AnsiNPW = No

NOTA: Su nombre DSN (TestDSN) debe ser el mismo nombre DSN que utilizó al crear la conexión ODBC en Windows

3. DataDirect proporciona tanto controladores OEM como OEM

Los controladores proporcionados por BI4 son controladores OEM. Básicamente, el WebI depende del ConnectionServer. De forma predeterminada, ConnectionServer está configurado para utilizar controladores NO OEM. Por lo tanto, hemos editado el servidor de conexión para permitir el uso de la marca OEM DD controlador. Los pasos son:

  • Haga una copia de seguridad de $ BOBJEDIR / enterprise120 / /dataAccess/RDBMS/connectionServer/odbc/odbc.sbo
  • Abra odbc.sbo con VI, busque DataDirect, hay 4 entradas una para cada servidor MSSQL que apoyamos.
  • Cambiar todo 4 de No a Sí

 4. Detenga todos los servidores XI

Ejecute ./stopservers, salga completamente de su shell unix y vuelva a iniciar sesión (para asegurarse de que se han configurado nuevas variables de entorno), vuelva a iniciar todos los servidores BI4.

After applying the OSS note we were able to retrieve data from SQL Server 2008 refreshing our WebI documents, however we noticed that CPU was reaching 100% every time we used a WebI in any way. Going through the log files we found errors such as "MS SQL Server 2008 |JobId:61340512 |EXIT SQLGetDiagRec with return code -1 (SQL_ERROR)" .

We took a look at the odbc.ini file and we found out that QWESD entry that was not initially there somehow appeared. As long as we were copying the information from an existing datasource we didn't need it all and we decided to remove the QEWSD= from the ini file.

Finally double check that Yes located at sqlsrv.sbo file in /opt/bi40/sap_bobj/enterprise_xi40/dataAccess/connectionServer/odbc is set to Yes.

Esperamos que nuestra experiencia sea un enfoque rápido de solución de problemas para usted. Si tiene algún consejo o sugerencia para mejorar este artículo, por favor deje un comentario a continuación.

Administración de dependencias ETL con BusinessObjects Data Services (Parte 1)

¿Está satisfecho con la forma en que actualmente gestiona las dependencias en su ETL? Las dependencias entre trabajos (o partes de trabajos) son un aspecto importante de la gestión de ETL. Se refiere a preguntas como: ¿Desea ejecutar el trabajo B si el trabajo A falló? Imagine que tiene un trabajo C con subtarea 1 (tiempo de ejecución habitual: 3 horas) y subproceso 2 (tiempo de ejecución habitual: 2 minutos). Si el subproceso 1 ha sido satisfactorio y ha fallado el subproceso 2, ¿puede reiniciar el trabajo C sin reiniciar el subproceso 1?

Tan pronto como tenga más de 1 trabajo simple, tendrá que administrar sus dependencias. En este artículo (parte 1 de una serie de artículos sobre el manejo de dependencias de ETL) enumeraré primero algunas de las características que busco en un sistema de administración de dependencia ideal. A continuación, echaré un vistazo a algunas de las posibilidades ofrecidas por SAP Data Services 4. En la parte 2 (mi siguiente post), voy a proponer la arquitectura de un posible sistema de gestión de dependencias. En la parte 3, entraré en los detalles de la implementación en Data Services. Terminaré con la parte 4 diciéndole cómo fue la implementación, y si algunas mejoras son posibles.

El sistema de gestión de dependencias ideal

En este post voy a usar la palabra "proceso" para diseñar una serie de ETL operaciones que tienen un significado juntos. Ejemplo: extraer una tabla de origen, crear una dimensión o actualizar una tabla de hechos. El objetivo aquí es administrar las dependencias entre los procesos: la actualización de una tabla de hechos probablemente sólo debería permitirse si la actualización de las dimensiones correspondientes fue exitosa.

Un sistema de gestión de dependencias debería tener al menos las siguientes características:

  • Ejecutar un proceso sólo si sus prerrequisitos se han ejecutado correctamente
  • Después de un error, ofrezca la opción de volver a ejecutar todos los procesos o sólo los procesos que fallaron
  • Trace el resultado de cada proceso (se ejecutó correctamente, falló, no se ejecutó)
  • Ejecutar dinámicamente procesos dependientes (en vez de estaticamente, es decir, basados ​​en fecha / hora)

Las posibilidades

Vamos a enumerar algunas de las posibilidades ofrecidas por Data Services, con sus respectivos pros y contras.

1) Un trabajo con todos los procesos dentro. Esto es muy fácil de implementar, dinámico en términos de tiempos de ejecución, pero no permite las ejecuciones simultáneas. Lo que es más importante, significa que los fallos tienen que ser gestionados de manera que el fallo de un proceso no detenga todo el trabajo.

2) Un proceso por trabajo, con trabajos programados en momentos específicos. Esto es muy fácil de implementar, permite ejecuciones simultáneas, pero no es lo suficientemente dinámico. Si las duraciones del proceso aumentan con los meses / años, los trabajos pueden superponerse.

3) One main job calling other jobs (for example with execution commands or Web Services).

4) Un proceso por trabajo, todos los trabajos se están programando en momentos específicos, pero la comprobación en una tabla de control si los pre-requisitos funcionaban bien. De lo contrario sólo dormir por algún tiempo antes de comprobar de nuevo.

5) Use the BOE Scheduler to manage jobs based on events (how-to is well described on the SCN). I’ve not tested it yet, but I like this approach.

De forma predeterminada, las dos primeras posibilidades sólo gestionan el lado de "flujo" de la administración de dependencias (después de A, do B). Pero no manejan el lado condicional de la gestión de dependencias (hacer B sólo si A fue exitoso). En ambos casos, una tabla de control actualizada por secuencias de comandos SQL permitiría al ETL comprobar si los procesos de requisito previo se han ejecutado correctamente.

Lo que realmente no me gusta en las soluciones 2 a 5 es el hecho de que es difcil tener una visión general de lo que está pasando. Realmente no se puede navegar dentro de todo el ETL fácilmente. La solución 1 le da este resumen, pero a costa de tener un trabajo potencialmente enorme (sin la posibilidad de que los procesos se ejecuten simultáneamente).

También tenga en cuenta que las soluciones con varios trabajos necesitarán administrar la inicialización de las variables globales.

Lo que echo de menos en todas estas soluciones es un reinicio óptimo del ETL. Si 10 de mis 50 procesos fallaron, y sólo quiero reiniciar estos 10, ¿debo iniciarlos manualmente?

En mi siguiente post de blog voy a proponer una arquitectura que aborda este reinicio óptimo.

Hasta entonces, por favor, hágamelo saber sus pensamientos sobre cómo manejar sus dependencias de ETL. ¿Alguna de las 5 soluciones antes mencionadas? ¿Una mezcla? ¿Algo más? Y lo bien que funciona para usted.

Utilice las bibliotecas SDK de Data Services para construir AWTableMetadata en una aplicación Java

Si tiene una aplicación Java que devuelve una tabla y está planeando utilizarla como fuente de información para SAP Data Services, la mejor manera es devolver una tabla con el mismo tipo de datos que la tabla de plantillas de servicios de datos "AWTableMetadata". Voy a explicar cómo hacerlo fácilmente en este artículo.

First you need to go to the libraries folder inside your SAP BusinessObjects installation (…SAP BusinessObjectsData Serviceslib). From this folder we have to import the following libraries to our Eclipse Java project.

  • Acta_adapter_sdk.jar
  • Acta_broker_client.jar
  • Acta_tool.jar

La forma más fácil es colocar estas bibliotecas dentro de la carpeta de bibliotecas Java ext para que la aplicación lo importe automáticamente. Además, si planea implementar esta aplicación en un servidor, debe colocar esta biblioteca dentro de la carpeta de la biblioteca del servidor.

  • ... .Javajdk1. 7.0 jrelibext
  • ... ..Javajre7libext
  • ... ..SAP BusinessObjectsTomcat6lib

Importe estas bibliotecas dentro del proyecto:

Import com.acta.metadata.AWAttribute;

Import com.acta.metadata.AWColumn;

Import com.acta.metadata.AWTableMetadata;

Una vez que nuestras bibliotecas se importan dentro de nuestro proyecto Java, tenemos que asignar el valor de retorno para la función encargada de construir la tabla como el mismo tipo de datos para la tabla.

Public static AWTableMetadata createAWTable () throws Exception {…]

Entonces estamos listos para construir nuestra mesa. Para hacerlo tenemos que:

  1. Declare la tabla:
    1. AWTableMetadata awTable = new AWTableMetadata () ;
    2. AwTable.setTableName ("......");
  2. Asignar filas y columnas
    1. AWAttribute [] attributes = new AWAttribute [2000] ;
    2. AWColumn [] columns = new AWColumn [2000] ;
  3. Asigne los atributos y las columnas a nuestra tabla:
    1. AwTable.setColumns (columnas);
    2. AwTable.setAttributes (atributos);

Finalmente tenemos que hacer la declaración de retorno como "return awTable".

En conclusión, una vez que tengamos nuestra función hecha podremos comunicar e intercambiar datos con servicios de datos a través de nuestra aplicación en este caso con una tabla y poder utilizar nuestra aplicación como Fuente de Datos.

Si tiene alguna duda o sugerencia, por favor deje un comentario a continuación.

Ajustar SAP Rapid Marts XI: Racionalizar las cargas delta

Ha finalizado la implementación estándar de SAP Rapid Marts XI, todo ha ido bien, pero su cliente comienza a tener problemas con respecto al consumo de tiempo de las cargas delta. En este artículo voy a explicar un par de enfoques para lograr un mejor rendimiento en las cargas delta de SAP Rapid Marts.En la imagen de abajo tenemos la infraestructura típica de SAP Rapid Marts, cargando en un solo almacén de datos.

Esta infraestructura tiene pros y contras, pero voy a destacar dos ventajas principales:

  • Evita la duplicación de información
  • Simplifica el mantenimiento desde la perspectiva del cliente

 

1st Approach: One job runs it all

Taking the architecture illustrated above as our basis, the first step to achieve better performance will be to create one single ETL job to run the different SAP Rapid Marts involved in our implementation.

Esta tarea es simple; Sólo cree un flujo de trabajo por SAP Rapid Mart que contenga todos los flujos de trabajo diferentes que forman parte de SAP Rapid Mart. Una vez realizada esta tarea, cree un trabajo ETL con todas las variables globales correspondientes, arrastre y suelte todos los flujos de trabajo y conéctelos para crear una secuencia de ejecución.

Este trabajo también nos permite aprovechar la opción "ejecutar sólo una vez" en SAP Data Services. Esta opción se establece para todos los componentes de SAP Rapid Marts y define que cada componente dentro de la misma ejecución de trabajo ETL se ejecuta sólo una vez. Si se tiene en cuenta cuántos componentes se comparten entre diferentes SAP Rapid Marts este enfoque se vuelve muy interesante.

Además, este enfoque nos permite crear una estrategia de try / catch en el proceso ETL. Algunos entornos de clientes pueden tener problemas intermitentes que pueden bloquear la ejecución de nuestras cargas diarias (es decir, errores de red). Colocaremos las sentencias try y catch para cada flujo de trabajo del trabajo, entonces dentro de la declaración de catch volveremos a colocar el flujo de trabajo que estábamos tratando de ejecutar, la siguiente imagen ilustra la idea:

The try/catch + ”Execute only once” strategy allows you to retry the execution of a component of the ETL job and continue the execution where it stopped. 

Una vez implementada esta idea, la ejecución de SAP Rapid Marts será más robusta y optimizada, pero tal vez no sea suficiente para satisfacer las expectativas de sus clientes ... así que pasemos al segundo paso.

 

2nd Approach: Working around a parallel execution

Al analizar la información de los informes de rendimiento generados en SAP Data Services Management Console después de la ejecución de un trabajo, podrá identificar los componentes con los peores tiempos de ejecución.

Estos componentes pueden variar de una implementación a otra dependiendo del entorno de su cliente; Dentro de los 10 peores tiempos de ejecución se encuentran algunos componentes que generan información de dimensiones y / o tablas de hechos del modelo. Algunos de estos componentes se pueden quitar fácilmente de su ejecución secuencial y colocarlos en un trabajo separado para ejecutarse en paralelo.

Es crítico en esta etapa asegurarse de que estos componentes están completamente eliminados de la ejecución secuencial y que cualquier salida final del componente no se utiliza en otras partes del proceso ETL (es decir, las búsquedas de tabla posteriores). Para garantizar esto, la función "Where is used" del SAP Data Services Designer será extremadamente útil.

En mi experiencia, después de aplicar estos dos pasos deberíamos experimentar una mejora considerable en el rendimiento de ejecución de las cargas delta. Para darle un ejemplo, en una de nuestras implementaciones recientes empezamos con un tiempo de ejecución de 17 horas para cinco SAP Rapid Marts que se ejecutaban secuencialmente, esto se redujo a 6 horas usando los dos enfoques que he descrito en este post.

 

Cavar más profundo

Si incluso después de aplicar los pasos anteriores aún enfrenta un mal rendimiento en componentes aislados, esta situación requerirá más análisis y personalización en un nivel inferior.

Algunos componentes del estándar SAP Rapid Mart intentan ejecutar en el ERP algunos componentes con lógica compleja, lo que puede tardar mucho tiempo (por ejemplo, SAP General Ledger RM + Nota SAP 1557975 o SAP Inventory RM + SAP Nota 1528553 )

En estos casos, la solución es dividir el proceso en varios pasos y tal vez hacer uso de tablas personalizadas en el lado ERP y el aumento de rendimiento será notable. Puedo decirles que en nuestra implementación más reciente uno de los componentes tardaba menos de 12 horas en ejecutarse, pero después de analizar y modificar el comportamiento del componente, para hacer uso de una tabla personalizada en el ERP, este componente No tardó más de 30 minutos en ejecutarse. Este proceso de personalización de un componente tomó 2 días hombre para ser completamente implementado.

Como conclusión, mi experiencia con SAP Rapid Marts es muy positiva. SAP proporciona una solución de despliegue rápido que puede estar en funcionamiento y de extremo a extremo en pocas semanas. Además, proporciona un marco extremadamente fácil de usar para asegurar que su cliente tenga la capacidad de desarrollar cualquier nivel de personalización en pocas semanas. En general, estamos frente a una solución que permitirá a sus clientes crear su propio almacén de datos en semanas en lugar de meses. Si podemos mejorar este problema de rendimiento de carga delta, la solución se vuelve aún más atractiva para sus clientes y ayuda a aumentar los niveles de satisfacción con la herramienta.

¡Eso es todo amigos! Espero que este artículo le ayude a elevar la barra en sus implementaciones SAP Rapid Marts. Si tiene alguna duda, no dude en dejar un comentario a continuación.

Problemas con la desinstalación de los servicios de datos

Me he enfrentado a un problema recientemente y quería compartir la resolución, en caso de que tenga que tratar con el mismo tema. Estaba tratando de actualizar una máquina de servicios de datos siguiendo el procedimiento de SAP (esto es copiar los archivos de configuración desinstalar y luego instalar la nueva versión - no muy sofisticado como se puede ver). Esto no era tan simple como yo primero.

Problema iniciado después de desinstalar el software, la nueva versión se negó a instalar, indicando que primero debería desinstalar la versión anterior. He desinstalado el software de nuevo ... pero Data Services todavía está allí, por lo que desinstalado de nuevo, pero esta vez el proceso falló (tiene sentido ya que el software ya está desinstalado), así que seguí intentando ... reboot ... uninstall ... reboot ... rename old path name ... Reiniciar ... ya ves a dónde va esto ...

Entonces, ¿cómo finalmente solucioné esto?

  1. Inicie el Editor del Registro (escriba regedit en una ventana de comandos o en el cuadro de diálogo Ejecutar).
  2. Take a backup of the current Registry content. To do this, with the top node of the registry (Computer) selected go to File -> Export and select a name for the backup file.
  3. Delete the Key HKEY_LOCAL_MACHINESOFTWAREBusiness ObjectsSuite 12.0EIM (Suite XX.X may vary).  NOTE: You may want to write down the key KEY_LOCAL_MACHINESOFTWAREBusiness ObjectsSuite 12.0EIMKeycode first as it contains the license code.
  4. Go to HKEY_LOCAL_MACHINESOFTWAREMicrosoftWindows CurrentVersionUninstall and look for a KEY which property DisplayName is "BusinessObjects Data Services". This step is to remove the entry for the software in the Uninstall Window’s dialog.
  5. Finally delete the content of the installation directory (typically: C:Program FilesBusiness ObjectsBusiness Objects Data Services)

Ahora puede iniciar el instalador y esta vez debería funcionar.

Espero que esto pueda ayudarle si en caso de que usted está experimentando el mismo problema. Deje los comentarios a continuación si tiene alguna duda o si desea agregar algo.

 

Consejo del día - Tabla y tamaño de índice en Oracle

¿Alguna vez quiso averiguar qué tan grandes son las tablas en su almacén de datos o en su área de almacenamiento ETL? Aquí hay una sugerencia rápida.

Puede obtener el tamaño de cada tabla perteneciente a un usuario específico con el código siguiente:

Seleccione la suma (bytes) / 1048576 Size_MB, nombre_siguiente Nombre_table
de user_extents
donde segment_name en (
     select table_name de all_tables
     where owner = 'OWNER_NAME_HERE')
agrupar por segment_name
ordenar por 1 desc;

Para obtener el tamaño de los índices con los nombres de tabla correspondientes (útiles cuando los índices tienen nombres generados por el sistema), necesitamos otra consulta:

Seleccione suma (u.bytes) / 1048576 Size_MB, u.segment_name index_name, i.table_name
de user_extents u
join all_ind_columns i
     on u.segment_name = i.nombre_index
     y i.column_position = 1
where i.index_owner = 'OWNER_NAME_HERE'
group por u.segment_name, i.table_name
ordenar por 1 desc;
Si tiene alguna duda o sugerencia, deje un comentario a continuación.

Exportación a automatización de texto en Web Intelligence

Los usuarios normalmente necesitan que sus tablas de datos de Web Intelligence (WebI) se exporten automáticamente a archivos de texto para poder utilizarlos en otros módulos de BI de BusinessObjects de SAP. Lamentablemente, SAP BusinessObjects, incluida la más reciente versión de SAP BI 4, no incluye una opción directa para automatizar la exportación de contenido de una pestaña de documento WebI al formato de texto. Con el fin de cubrir esta brecha y lograr la exportación a la función de texto para WebI hemos diseñado un proceso totalmente automatizado que se muestra en este artículo.

El problema

Los usuarios quieren exportar automáticamente las tablas de datos sin procesar desde el archivo WebI al TXT, pero ninguna de las opciones de formato de programación existentes (PDF, XLS y CSV) es satisfactoria porque:

  • Un PDF trae un documento estático que no puede ser reutilizado directamente
  • Un XLS o XLSX tiene la limitación de 65535 o 1 millones de filas, respectivamente
  • CSV no exporta tablas, solo exporta el contenido de la consulta

Los usuarios de versiones anteriores podrían usar el antiguo módulo Desktop Intelligence (DeskI) como una alternativa, pero desafortunadamente se ha interrumpido en la nueva versión de SAP BusinessObjects BI4.

Las consecuencias

Los usuarios ven a WebI como un módulo "limitado" en términos de opciones de intercambio y tamaño de exportación. Por otra parte, los clientes no migrarán al nuevo SAP BI4, especialmente aquellos que hacen pesadamente Query & Analysis y exportan la tabla de resultados al txt usando DeskI. El futuro no parece muy prometedor porque:

  • Incluso si una exportación manual a TXT está disponible desde SAP BI4 FP3, la automatización para ella no está disponible actualmente y SAP no tiene una fecha de lanzamiento para esta característica
  • DeskI no es posible en SAP BI4. Incluso si un complemento DeskI está previsto para las próximas versiones, el futuro de su función de programación es incierto y las empresas no deben permitir DeskI para ser parte de su hoja de ruta de BI.

La solución

El siguiente método describe una forma de programar un informe WebI con la función Exportar a texto e implica el uso de los siguientes elementos:

  1. A 1st WebI document with the table to be exported
  2. Un servicio Web que apunta a esa tabla de documentos como una fuente
  3. A 2nd WebI document with just one query that sits on the Web Service created. No tables nor charts are needed here
  4. A vbs script that adapts the output from this 2nd WebI document

Los pasos detallados a seguir para cada artículo son:

  1. The 1st webI document contains all the development needed (Queries, objects, variables, filters) and a table with the final data you would like to export
  2. This 1st WebI document must be edited with WebI Rich Client. Select the table you want to export -> Right Click -> Publish Block -> Create Web Service
  3. The 2nd WebI document which contains the Web Service based query can be scheduled to run with the following options:
    • Tipo CSV
    • Calificador de texto de comillas dobles, delimitador de columnas de pestañas
    • Exportar a una carpeta de servidor (por ejemplo, D :)
    • Nombre con extensión txt (por ejemplo, Results1.txt)

Vea a continuación una instantánea con el detalle de la configuración de la programación:

Configuración de la programación en WebI para una exportación de txt
Configuración de la programación en WebI para una exportación de txt

Este ejemplo se aplica a sólo 1 tabla para exportar, pero se pueden exportar varias tablas por documento marcando la opción "Generar CSV separado por proveedor de datos".

Una vez ejecutado con éxito, el resultado de este programa será un archivo de texto (Results1.txt) con el contenido delimitado por tabulaciones, pero con un pequeño defecto: el llamado calificador de texto (comillas dobles) aparece en todas partes.

Para eliminar este calificativo de texto molesto (comillas dobles) se puede programar un programa. Usted puede utilizar su estilo libre pero si usted copia y pega el txt siguiente en un archivo llamado "QuoteRemoval.vbs" hará el trabajo:

Set objRe = new RegExp

ObjRE.Pattern = "" ""

ObjRE.Global = Verdadero

StrFileName = "D: Results1.txt"

Set objFS = CreateObject ("Scripting.FileSystemObject")

Set objTS = objFS.OpenTextFile (strFileName)

StrFileContents = objTS.ReadAll

ObjTS.Close

StrNewContents = objRE.replace (strFileContents, "")

Set objWS = objFS.CreateTextFile ("D: Results2.txt")

ObjWS.Write StrNewContents

ObjwS.close

El resultado de este script ejecutado será un archivo Results2.txt perfectamente formateado

Por último, pero no menos importante, puede crear un sistema de eventos que desencadena secuencialmente los distintos elementos o incrustar estos elementos en un paquete de objetos que se puede programar como un todo.

Aplicabilidad y Beneficios

This method enhances the sharing options for the SAP BusinessObjects platform, allowing an unlimited amount of raw data to exit the platform through WebI automatically, and be re-used in Big Data modules like HANA, Visual Intelligence, Explorer or simply for individual consumption.

Seeing even further, this turns WebI into a real ETL (Extraction, Transformation and Load) tool providing integration capabilities to the end users.

Resumiendo, este método:

  • Permite una mejor integración de SAP BusinessObjects con los procesos de BI corporativos mejorando la eficiencia y la eficacia
  • Facilita a las empresas optar por una migración a la versión SAP BI4, con todos los beneficios que aporta la nueva plataforma

Si tiene preguntas sobre este método, o si desea compartir su experiencia o sugerencias, no dude en dejar un comentario.

Convierta los datos en información actualizable con BI

Tomar mejores decisiones basadas en datos

Do you wish you had a clearer view on the performance of your company and feel you lack key information to guide your decisions? All the Data you gather in different departments is just piling up, isolated and useless? Taking your organization through the current fragile economy is already challenging enough to do it without visibility of what happens in your organization. In order to solve issues and take advantage of strengths you need to turn data into actionable insight. SAP business intelligence software solutions give you the visibility you need to make important business decisions based on key data and facts, not guess-work. They allow you to draw information from data, rather than just storing it for the sake of it.

Los paneles de control interactivos y las visualizaciones enriquecidas le ayudan a supervisar el rendimiento de su negocio de un vistazo y las percepciones en tiempo real le permiten ajustar aspectos de su negocio antes de que se conviertan en un problema real.

Los informes le permiten acceder y transformar datos corporativos en informes automáticos y altamente formateados, mientras que los informes interactivos le permiten responder preguntas ad hoc e interactuar con los datos, creando sus propias consultas.

Las soluciones de análisis le ayudan a determinar las tendencias de los datos históricos ya hacer mejores previsiones.

Con las herramientas de exploración de datos puede encontrar respuestas inmediatas a las preguntas de negocios en una forma de motor de búsqueda.

Con las herramientas de diseño de aplicaciones de BI, su departamento de TI podrá crear aplicaciones de BI para audiencias específicas.

It´s not necessarily a matter of implementing each and everyone of the solutions. Depending on your particular needs and user types, you could select the more adequate tool. Take a look at the SAP Business Intelligence Solutions Comparison Matrix to understand a bit more about each product.

Take the example of Vodafone Turkey, they used Excel to manage their several marketing campaigns in the past, but this process was not only susceptible to human error, but also time-consuming. They needed a functional solution to serve multiple users and help them understand campaigns and act according to their results.

Implementaron un tablero central, una solución altamente visual que podría acomodar un gran número de campañas y una variedad de KPIs para campañas nuevas y recurrentes. La Campaign Analytics Solution permite al equipo analizar las campañas existentes y diseñar esquemas para las nuevas basadas en factores claves de éxito. El tablero también ayuda al equipo a entender la tasa de toma neta para cada campaña en comparación con los suscriptores seleccionados. Y más significativamente, los vendedores pueden ahora fácil y definitivamente seguir los ingresos generados por cada campaña.

Si desea saber cómo SAP Business Intelligence Solutions puede ayudar a resolver las necesidades específicas de su empresa, póngase en contacto con nosotros en info@clariba.com o deje un comentario a continuación.

Calidad de los datos - la base para una buena BI

Por lo general, las empresas aprenden sobre la importancia de la gestión de la calidad de los datos de la peor manera posible, tratando los problemas generados por la falta de él y abordando errores de datos, movimiento de datos y datos no estructurados después de muchos problemas costosos. Si sus datos carecen de calidad, todo lo que aprende de él es inútil, ya que no se puede confiar en la información. Sin una visión precisa del cliente y el rendimiento, nunca podrá ver qué áreas de su negocio necesitan mejorar. Las soluciones de gestión de calidad de datos le permiten integrar, transformar, mejorar y entregar datos de confianza que soportan procesos de negocio críticos y que permiten tomar decisiones acertadas. A medida que se expanda a nuevos mercados o desarrolle nuevos productos, esto se volverá aún más importante, ya que cuanto más datos se reúnan, más fácil será que empiecen a surgir problemas.

Con SAP Data Services puede disfrutar de una solución única que abarca la integración de datos, la calidad de datos, el perfil de datos y el análisis de texto. Esto le permitirá entregar datos confiables que soportan procesos críticos de negocio y permiten tomar decisiones acertadas.

To give you an example of the importance of data management, Vodafone Netherlands sought the help of Clariba to implement key reports within a maintainable BI solution while automating report generation and distribution and also to develop a dashboard with key indicators for management. However, the first phase of this project focused on ensuring that trusted data was provided from the current databases to the BI solution. Complex queries were streamlined and redundant data sources consolidated. Subsequently BusinessObjects universes were developed for the central data warehouse and the CDR data mart. Only when the relevant data sources were available, with good quality data, the Clariba team went on to develop the reports and dashboard.

Aprenda cómo SAP Analytics Solutions puede ayudar a su empresa con su gestión de calidad de datos, haciendo de la calidad su objetivo. Póngase en contacto con nosotros en info@clariba.com o deje un comentario a continuación.

Cambio exitoso con SAP Business Intelligence

Entrega de la transformación empresarial

The pace of change, specially due to the rapid deployment of new technology is growing at an incredible pace. For businesses to remain competitive, they need to keep up with these changes almost constantly, it can come from an expansion, restructuring, merger and acquisition, regulatory compliance and more.SAP Business Intelligence Solutions unveils key concepts and processes that are vital to the planning and execution of successful change strategies.  Being aware of happens in your business can optimize organizational change and smooth and speed the transition periods.

Take the example of Doha Bank, when they had to adapt to a new mandate from the Central Bank of Qatar to report key balance-sheet figures on a monthly basis. The timeline was tight and the requirements complex, with the pressure of punitive fines for the non-compliant.

Los informes financieros internos se realizaban previamente manualmente y los datos necesarios para los informes mensuales se distribuían entre varias fuentes. Después de un proceso intensivo de limpieza y consolidación de datos, el Banco recurrió a una solución de SAP Business Intelligence llamada Web Intelligence, que permitió que los informes se produjesen de forma automática y sin errores.

Although we used the example of a big organization, these solutions can also be adopted by the SME. SMEs use their speed of action as competitive advantage to remain in the game with the big players, and they have to constantly adapt to change, be it in the market, in their organization or in their business model.

Descubra cómo sus soluciones SAP Business Intelligence pueden ofrecer una transformación empresarial. Póngase en contacto con nosotros en info@clariba.com, o deje un comentario a continuación.

EspañolEnglish