Blog de Cristian Fiedler

Dedicado a quienes gustan de la tecnología, en especial a la relacionada con La informática, la Inteligencia de Negocios, las telecomunicaciones, etc., etc..

martes, 2 de febrero de 2010

Inteligencia de Negocios, ETL y Modelamiento

Luego de mis primeros pasos en este tema en Sony Chile, la verdad es que me quedó la sensación de que había algo mas que podía ser muy interesante de explotar. Además de mantener y agregar cierta funcionalidad a lo ya existente, me tocó desarrollar algunas cosas con Hyperion y Essbase en conjunto con las áreas de contabilidad de la empresa. Al tener este espectro de alternativas el tema comenzó a interesarme cada vez mas pero dada las labores diarias como Subgerente de TI no pude involucrarme demasiado hasta que a principios del nuevo siglo, ya con otros rumbos, se dio nuevamente la oportunidad. Fue así como en Infonet Chile / E-Money decidimos utilizar las grandes capacidades de manipulación de datos que tenía la combinación “Builder” y “Diver” de CrossTarget para realizar incluso tareas administrativos como por ejemplo la facturación de los consumos por acceso a Internet a través de cuentas discadas. Lo interesante fue que en la demo de la nueva versión, que ya no se llamaba CrossTarget, sino DI-Atlantis, apareció un nuevo componente, el Integrator, que resultó ser un ETL extraordinariamente simple y poderoso.
Fueron tan buenos los resultados, que incluso Infonet Chile llegó a distribuir el producto aunque sin mucho éxito. Durante esta etapa de distribución fue necesario preparar muchas “demos” donde el plato fuerte era el que con la utilización de estas herramientas nosotros podíamos realizar modelos simples en tan solo horas, sin mas información que la que podíamos arrebatar a los usuarios en esas horas. Esto me llevó a desarrollar una serie de herramientas, todas basadas en los mismos productos, que me permiten hasta el día de hoy obtener información acerca de los datos existentes mediante el modelamiento de los mismos datos. La técnica empleada es de por si bastante simple y consiste en tener una batería de scripts de ETL “pre hechos” que permiten extraer de las bases de datos las estructuras de las tablas (columnas, claves, etc.,), relaciones entre ellas, de las descripciones de los archivos planos (leídas de los mismos programas fuentes) los contenidos de los mismos etc., etc. Por supuesto que la batería de scripts no fueron desarrollados en un abrir y cerrar de ojos, pero al cabo de varias “demos” en clientes el número de estos aumentó bastante. Esto me permite hoy día en tan solo algunas horas (contando por supuesto con los privilegios y rutas de acceso a la data) el obtener un tipo de “metadata” que me permite, de cara al cliente, preguntar que es lo que efectivamente se desea crear. En otras palabras, el requisito de entender “al dedillo” el negocio del cliente para esbozar modelos no es absolutamente necesario. El conocimiento previo que se tiene al obtener esta “metadata” abre un camino “express” al conocimiento del negocio facilitando la fase de modelamiento. En la práctica esto se puede realizar con casi cualquier herramienta de ETL, pero el hecho de dominar una en particular hace que la preferencia sea siempre el utilizar la conocida, en mi caso, la suite DI-Solution de Dimensional Insight.

De todo lo expuesto antes hay varios ejemplos de uso práctico, sin embargo hay uno que, a mi juicio, se destaca sobre los demás. Marzo de 2009 recibí una llamada de un distribuidor de DI-Solution de Brasil solicitando ayuda para un cliente muy importante cuya venta podía caerse. La estrategia que se debía seguir era demostrar en la práctica que una persona con conocimientos de modelamiento y dominio de DI-Solution podía implementar una solución sin realmente conocer a cabalidad el negocio, situación en la que yo encajaba a la perfección. Fui invitado a Rio de Janeiro (que mala suerte la mia…) por mi buen amigo Edison Fernandes a participar de una capacitación en terreno con la que pretendía atar todos los cabos sueltos y no dejar escapar al cliente. Los planes originales era hacer varios cursos “hands on” durante 5 días, lo que a mi juicio era demasiado ya que el cliente podía pensar que se trataba de herramientas complejas que requerían mucha dedicación, etc., etc. Con este argumento, bajamos la capacitación a 3 días y ofrecimos un primer modelo funcional al final del tercer día. El cliente, Unimed RJ, era algo así como alguna de nuestras Isapres pero por supuesto, como todo en Brasil, era muchísimo “mais grande”. Para una persona del área de TI como yo la verdad es que tratar con datos relacionados al área de la salud no puede estar mas alejado, lo que hacía que el desafío de tener un modelo funcional al cabo del tercer día fuera algo súper interesante. Se nos dio acceso a sus bases de datos (que eran varias y de volúmenes “a lo Brasil”) y aprovechamos la batería de scripts “pre hechos” para realizar una capacitación “hands on” del ETL Integrator sobre la marcha. Esto era un perfecto 2 x 1 con lo que ganábamos muchas horas. Cuento corto: Al cabo de no mas de “3 a 4” horas de trabajo nuestro conocimiento del modelo de datos nos permitió rápidamente el realizar varios prototipos con los que junto al cliente nos permitió ir esbozando lo que serían nuestros modelos de BI para el fin del tercer día. No se en que está Unimed RJ en estos días en relación a DI-Solution, solo se que Edison me comentó el año pasado que les había vendido algunas licencias mas y horas de soporte con lo que lo que gastó en la invitación pasó a ser una inversión muy rentable. Hasta el día de hoy de cuando en cuando realizó soporte a distancia en este tema, claro que utilizando principalmente herramientas de Dimensional Insight, para clientes de Brasil, EEUU e incluso Alemania.

lunes, 1 de febrero de 2010

Primer acercamiento a la Inteligencia de Negocios

Corría el año 1992 y me tocó participar en un proceso de implementación de todo un sistema administrativo para el control de Inventarios y Ventas de Sony Chile desarrollado con GeneXus para ser explotado en un flamante nuevo AS/400 F35.

Sony Chile hasta esa época tenía sus sistemas basados en un Servidor Netware 3.11 de Novell. Los usuarios accedían a los distintos sistemas desde “flamantes” IBM PS2 modelo 25 que de PS2 no tenían nada ya que no tenían arquitectura MCA (de Microcanal) sino que se trataba de PCs bajo la marca de IBM. Al corto andar pasó lo que era obvio que pasaría: Netware no claudicaba y la contabilidad y otros sistemas permanecían en el mundo DOS mientras que toda la gestión de ventas y clientes se manejaban en sistemas en el AS/400. Por supuesto que este escenario era aun mas complejo ya que adicionalmente había varios usuarios que dominaban a la perfección las planillas Borland Quattro Pro y mantenían verdaderos sistemas de información 100% aislados del resto del mundo. Ante esta situación, que hasta el día de hoy es bastante común, la “alta gerencia” se encontró con dificultades serias a la hora de tomar decisiones ya que consolidar la información era un verdadero caos. La orden no tardó: Construir lo que sea para tener información consolidada. Durante un tiempo, y con la ayuda de un estudiante en práctica nos dedicamos a construir extractores específicos para cada plataforma haciendo uso de toda herramienta posible y llevando todo lo extraído a algún formato común en un ambiente común. Al corto andar teníamos todo tipo de reportes pero no era mas que eso reportes por lo que dimos un segundo giro de tuerca para buscar como hacer “presentable” los reportes. La solución que encontramos al dilema era “leer” estos reportes con herramientas gráficas disponibles en esos tiempos en plataforma Apple Macintosh (GQL y otras).

El problema es que los costos de estas bellezas eran muy superiores a la de los PCs pero la verdad es que ya la misma estética hacía una diferencia. Gracias a que el modelo de estación de trabajo seleccionado venía con monitor “Sony Trinitron” (bajo la marca Apple eso si) no fue tan difícil lograr su compra, aun cuando la decisión fue larga y tediosa. Finalmente a 3 gerentes se les instaló un Mac con Ethertalk en vez de un PS2 o PC y los resultados fueron de dulce y agraz. La verdad era que las aplicaciones eran muy fáciles de utilizar pero requería algún grado de interacción con los usuarios ya que los “Queries” eran dinámicos. Se suponía que cada usuario confeccionaría los suyos pero en la práctica ocurría que había que dedicar tiempo a cada usuario para crearle las consultas lo que no era nada agradable ya que se perdía el concepto de autoservicio. Esta situación no mejoró hasta que Apple nos facilitó una caja cuyo contenido era un producto llamado CrossTarget de Dimensional Insight que se suponía simplificaría el concepto de autoservicio. Dado que se trataba de un producto NO comercializado ni representado por Apple, fue un verdadero “Do it yourself kit”. El producto resultó ser una verdadera joya y se basaba en un concepto muy simple y fácil de comprender sobre todo para aquellos que ya se hubieran enfrentado al mundo de obtener datos de miles de fuentes diversas. Por una parte había un componente que corría en DOS llamado “Builder” y por otro lado un componente “cliente” llamado “Diver” (buzo) que tenía la particularidad de correr tanto en DOS como Mac. Esta fue realmente la solución buscada, ya que “Builder” construía “Modelos” con miles de cálculos “prehechos” y a través de Diver, los usuarios realmente se podían “zambullir” en un cúmulo de datos a velocidades increíbles y transformarlos en información valiosa. Fue tal el éxito de esta combinación que se nos solicitó llevar esto un paso mas adelante y confeccionar un “tablero” que permitiera mostrar en un monitor algunos indicadores de gestión (típicos hoy día pero no a principio de los 90) a todos quienes pasaran frente a dicho monitor. No se cuantos años existió este “Dashboard” pero no fueron 2 ni 3 sino varios mas.