Marzo 2008
Newsletter de Business Intelligence
N°2

En este Newsletter...

Temas abordados en esta edición:

- Activity Based Costing / Management

- ETL (Extract, Transform and Load)

- Data Integration
El resurgimiento del Activity Based Costing

En el contexto actual las empresas comienzan a interesarse nuevamente en sus costos. Algunos factores macroeconómicos contribuyen a ello. Por un lado, el crecimiento de la producción local de bienes y servicios favorecido por la mejora en los términos de intercambio con el resto del mundo. Hoy se observa una mayor actividad económica orientada a la transformación de recursos en productos en comparación a lo que sucedía algunos años atrás.

Otro factor relevante es la aceleración de la inflación y los continuos cambios en los precios relativos. Consecuentemente las empresas necesitan conocer con mucha mayor precisión y velocidad cómo impactan los cambios de precios de sus insumos sobre el valor de sus productos.

El interés en los costos ha llevado a un resurgimiento de la metodología denominada Activity Based Costing o Activity Based Management (ABC/M) impulsada por Robert S. Kaplan de la Harvard Business School y por el Consortium of Advanced Management International, organización que promueve el desarrollo y estandarízación de las prácticas de cost management. Esta metodología es generalmente considerada como la forma más moderna y precisa de asignar costos, en particular en lo que se refiere a los llamados costos indirectos. Es decir, aquéllos que no tienen una relación evidente con el bien o servicio final que produce la empresa (como, por ejemplo, el costo de las áreas de soporte como administración y finanzas, sistemas o recursos humanos). A nivel global se observa que los costos indirectos son cada vez más pesados en términos relativos debido al incremento de la complejidad y la automatización en las empresas.

Una de las ventajas de ABC/M es que se trata de una metodología bastante simple y clara. No hace falta estudiar ingeniería o tener una especialización en costos para comprenderla. ABC/M apunta a hacer un mapeo preciso de los costos desde su origen hasta su destino, haciendo uso del concepto de Actividad. Las Actividades son las grandes tareas que se realizan dentro de una organización. Están estrechamente relacionadas con otro término muy difundido que es el de Proceso. Un Proceso puede ser definido como un flujo de Actividades que es ejecutado con un objetivo determinado. Por ejemplo, en forma simplificada el Proceso de Venta puede descomponerse en las siguientes grandes Actividades: Investigar el Mercado, Tomar Pedidos, Procesar Pedidos, Producir, Entregar, Facturar y Cobrar.

ABC/M utiliza el concepto de Actividad para hacer una distribución de costos en dos instancias. La primera instancia va de los Recursos a las Actividades. Toda Actividad implica el consumo de Recursos (mano de obra, insumos, energía, etc.) Los Recursos pueden ser asimilados a las cuentas contables de gastos. Por lo general, la contabilidad de una empresa nos permite identificar los Recursos consumidos mediante la apertura de sus cuentas de pérdidas, y el sector que los consumió a través de la apertura de sus centros de costos. Esta información suele ser suficiente como punto de partida. En la primera instancia de ABC/M se define la asignación de los Recursos a las Actividades y los Drivers de Recursos que son las bases de distribución que permiten cuantificar dicha asignación.

Una vez que los “baldes” de las Actividades se han llenado con sus costos, la segunda instancia va de las Actividades a los Objetos de Costo. Un Objeto de Costo puede ser entendido como cualquier entidad cuyo costo se desea conocer y medir. El Objeto de Costo puede ser un producto (bien o servicio), un cliente, un canal de distribución, etc. Todo Objeto de Costo demanda la realización de Actividades. Retomando el ejemplo comentado más arriba, un Producto o Cliente requiere Tomar Pedidos, Producir, Entregar, Facturar y Cobrar. En la segunda instancia de ABC/M se define la asignación de las Actividades a los Objetos de Costo definidos y los Drivers de Actividades que permiten cuantificar dicha asignación. En general, los Drivers de Actividades suelen ser sus indicadores de output. Por ejemplo, la Actividad Facturar tiene un output que es la cantidad de facturas emitidas. Se sabe cuántas facturas se emitieron para un determinado Producto o Cliente. En consecuencia, tomando el porcentaje sobre el total, podemos determinar qué proporción del “balde” Facturar fluye hacia cada Producto o Cliente. Es interesante observar que un mismo modelo de ABC/M puede servir para calcular los costos de diferentes Objetos de Costo, como pueden ser los Productos o Clientes.

Los modelos de ABC/M son hoy una realidad gracias a las herramientas informáticas que permiten soportarlos. Los productos de software son necesarios tanto para el cálculo del modelo como para su alimentación. Por un lado, los cálculos son complejos, ya que aun en un modelo simple puede haber múltiples Drivers o bases de distribución. Por otro lado, la alimentación del modelo desde la contabilidad y otros sistemas fuente requiere un proceso automático. En caso contrario, el trabajo manual de alimentar y calcular el modelo puede ser muy engorroso y transformarse en un serio obstáculo para su utilización. La buena noticia es que hoy en día existen en el mercado productos de software de ABC/M que están al alcance de cualquier empresa.

Un proyecto de ABC/M puede descomponerse, a grandes rasgos, en las siguientes etapas: 1) Diseño del Modelo, en la que se define el modelo en forma conceptual. En ella se identifican los Recursos, Actividades, Objetos de Costo, Asignaciones, Drivers, etc. 2) Construcción del Modelo, en la que se construye el modelo en la herramienta informática seleccionada y los procesos de alimentación desde los sistemas fuente. 3) Utilización del Modelo, en la que se generan y ajustan los reportes e indicadores de acuerdo a las necesidades de los usuarios.

Los modelos de ABC/M tienen múltiples usos potenciales y beneficios. Permiten por ejemplo:

  • Analizar el costo de un producto, servicio, cliente, etc. con el fin de tomar decisiones de reducción de costos o de pricing.
  • Conocer el costo de las actividades para identificar oportunidades de mejora y tomar decisiones respecto de hacer internamente o tercerizar.
  • Hacer simulaciones para analizar qué pasaría si aumentase el costo de un insumo, y cómo impactaría sobre el costo de una Actividad, Producto o Cliente.
  • Recorrer el flujo de costos en forma inversa desde los Objetos de Costo hacia los Recursos con fines de presupuestación.

Links de interés:

En el principio fue ETL pero ahora es Data Integration

En un comienzo se pensaba que la clave del éxito de las tareas de Business Intelligence (BI) era seleccionar e implementar una buena herramienta de ETL (Extract, Transform and Load). Esta permitiría seleccionar las fuentes dispares de datos que servirían para alimentar las tareas de BI, transformarlas en forma apropiada y finalmente almacenarlas en estructuras adecuadas llamadas data warehouses o data marts. Muchos proyectos de ETL fracasaron, principalmente porque además de la herramienta correcta se necesita una sólida metodología de diseño, desarrollo e implementación, algo que algunos descubrieron tarde y duramente.

No mucho tiempo después, comenzó a advertirse que el proceso de ETL era sólo el primer paso de un proceso mucho más amplio de integración y administración de los datos, y de esta manera empezó un verdadero festival de siglas y herramientas. Data Integration representa la convergencia de diversas tecnologías previamente existentes y el surgimiento de otras nuevas para incorporar todo tipo de datos de una empresa en un todo unificado que sustente los procesos operativos, los mantenga en sincronía, y alimente también de una forma eficaz las tareas analíticas y de BI.

Los programas de integración de datos actuales pueden clasificarse en:

  • Limpieza y enriquecimiento de datos. La creciente automatización del procesamiento de datos, el incremento del volumen de los mismos, su utilización en tareas diversas, operativas y estratégicas, hace indispensable garantizar que estos sean exactos y se encuentren representados de un modo estándar y único en toda la organización. Los costos originados en una calidad de datos inadecuada pueden ser una parte significativa de los costos de información de una empresa.
  • Data Warehousing/Data Marts (ETL). La centralización y organización de los datos de una empresa en repositorios apropiados para su explotación analítica fue uno de los primeros pasos en la integración de datos. A pesar de esto, muchas empresas todavía no utilizan los métodos y/o herramientas apropiados para esta tarea. Sus emprendimientos de ETL son sumamente rudimentarios.
  • Sincronización de datos. Las actividades de una empresa y sus clientes generan permanentemente nuevos datos y cambios en los existentes. Estos cambios se producen en distintos sectores de la empresa y fácilmente pueden provocar inconsistencias que pueden tener costos importantes para ella. La única forma de evitarlos es automatizar procesos de sincronización junto con procesos de data quality que aseguren que no se propaguen datos incorrectos.
  • Migración/consolidación de datos (sistemas legacy, ERP, RDBMS). Los permanentes cambios tecnológicos y el inestable panorama de los vendors de tecnología informática no hacen aconsejable para las empresas quedar atrapados (presos) en una tecnología o marca. Para esto, además de herramientas adecuadas se requieren frecuentes programas de migración y consolidación que mejoren la posición de las empresas respecto de los recursos tecnológicos existentes.
  • Administración de datos maestros (MDM). Esta área es tal vez la más novedosa. Se trata de generar una única “visión” de los datos de una empresa. Esto requiere construir un “mapeo” de definiciones dispares pertenecientes a múltiples sistemas en una vista homogénea capaz de alimentar tareas y sistemas diversos. Los intentos de CDI, PDI y otros son implementaciones restringidas de MDM. El manejo y administración de metadatos es fundamental para esta tarea, al igual que una arquitectura orientada a servicios (SOA).

Los programas de DI requieren la utilización de herramientas de por lo menos las siguientes clases:

  • ETL: Estas herramientas son básicas para soportar el proceso de integración de datos y van más allá de su aplicación usual en la construcción de datawarehouses o datamarts.
  • Data Quality: Herramientas apropiadas de data quality son fundamentales en casi cualquier programa de DI, dado que las consecuencias de problemas (errores, no estandarización, múltiples versiones, etc.) pueden amplificarse en un ambiente integrado.
  • Data Federation: Estas herramientas permiten que los datos permanezcan en sus sitios originales, pero se integren apropiadamente y puedan ser utilizados cuando se necesitan.
  • Sincronización de datos; Herramientas de colas de mensajes, captura de cambios, etc. Permiten mantener los datos sincronizados en sistemas dispares a pesar de los cambios.
  • Mapeo de metadatos; Dado que gran parte de la integración y federación de los datos se realiza mediante herramientas que acceden a conocimiento sobre ellos (metadatos), la manipulación de los metadatos y especialmente su mapeo en los casos de sistemas diversos, migraciones, cambios en sistemas de información y otros es esencial.

La integración de datos tiene sentido en un sistema cuya arquitectura esté basada en aplicaciones distribuidas que utilizan diversos servicios para realizar sus tareas, provistos por servidores dedicados. SOA es una de estas arquitecturas. Los servicios necesarios son muy diversos: de scheduling, de conectividad, de administración, de enriquecimiento de datos, de movimiento de datos, de parsing de datos, de limpieza de datos, de auditoría de datos, de profiling de datos, de transformación, de matching de datos, etc.

La cuestión de las herramientas y metodologías apropiadas para un proyecto de integración de datos no es en absoluto trivial y será tratada en un futuro newsletter.

Siglas utilizadas:

Super temperament contrast color silk scarf small square replica handbags uk, showing the feminine elegance and gucci replica , red and white, hermes replica , fashionable and handbags replica, the body is very white, the biggest highlight is the silk on the strap Towels can be used for a replica handbags .
  • ETL: Extract, Transform and Load
  • DI: Data Integration
  • EAI: Enterprise Application Integration
  • CDI: Customer Data Integration
  • EII: Enterprise Information Integration
  • MDM: Master Data Management
  • SOA: Service-oriented architecture
  • DF: Data Federation
  • PDI: Product Data Integration

Links de interés:

Si no quiere seguir recibiendo este Newsletter por favor enviar un mail de respuesta colocando "EXCLUIR" en su título.
Copyright © 2008 MAySA Consultores. Todos los derechos reservados.