En los capítulos anteriores se han tratado los principales conceptos de la inteligencia de negocio: data warehouse, procesos ETL, análisis OLAP, reporting y cuadros de mando. Los conceptos introducidos permiten iniciarse en las bases consolidadas y maduras de la inteligencia de negocio.
Sin embargo, como ya se ha comentado en el capítulo 1, la inteligencia de negocio aúna múltiples estrategias, tecnologías y metodologías. De la misma forma que la tecnología, la sociedad y los modelos de negocio han evolucionado, la inteligencia de negocio ha cambiado y madurado drásticamente para responder y adaptarse a dichos cambios.
Por otro lado, la madurez del mercado propició en el periodo 2005-2007 una fuerte consolidación del mercado tradicional de la inteligencia de negocio, que en el año 2010 ha vuelto a iniciarse con la consolidación de soluciones de Master Data Management (MDM). Por lo que, en la actualidad, el mercado Business Intelligence se halla segmentado de la siguiente manera:
• Grandes agentes externos que han complementado su portafolio de soluciones para empresas con las soluciones de BI. En este ámbito, las principales marcas son: Oracle, que recientemente ha adquirido Hyperion; SAP, que ha adquirido Business Objects; IBM, que se ha hecho con el control de Cognos.
• Empresas tradicionales del mercado que se mantienen con un portafolio especializado. Como, por ejemplo, Information Builders o Microstrategy.
• Empresas de nicho especializadas en un ámbito concreto de la inteligencia de negocio, como, por ejemplo, data warehouse (Teradata, Netezza, Vertica...), la integración de datos (Informatica, Talend...), análisis visual (Panopticon...), análisis dinámico y flexible (QlikView, Tableau...), etc.
• Empresas open source que cubren todo el stack tradicional de la inteligencia de negocio y ofrecen soluciones con TCO (Total Cost Ownership) reducido.
Aunque pudiera parecer extraño, las sinergias de la consolidación no han provocado que la innovación desaparezca del mercado BI, sino que se ha trasladado de los grandes actores a las empresas pequeñas que basan su competencia en la innovación.
Es necesario destacar que además que el mercado de inteligencia de negocio es uno de los pocos que ha seguido creciendo en el año 2009 aunque de forma más moderada.
Según Gartner, las ventas han crecido un 4,2% respecto a los 9,3 Billones de dólares en 2010.
Este hecho refuerza la idea de la importancia de la inteligencia de negocio en las organizaciones.
A lo largo de este capítulo, hablaremos de diferentes tendencias actuales en este mercado. El objetivo es presentar cómo están evolucionando los sistemas actuales, las necesidades del mercado y las principales tendencias que marcarán el futuro.
Como ya se ha comentado anteriormente, a pesar de los signos de madurez del mercado Business Intelligence, éste sigue siendo una fuente relativa de crecimiento e innovación. Esto es así debido a que en la inteligencia de negocio confluyen diversos factores. Entre ellos destacamos los siguientes:
La computación ubicua se caracteriza principalmente por tres factores: por una proliferación de tecnología embebida en dispositivos de múltiple naturaleza, por la integración de la informática en el ámbito personal (de forma que los ordenadores no se perciban como objetos diferenciados), y por el hecho de que nuestros datos o aplicaciones estén disponibles desde cualquier lugar. Esta tendencia está dando lugar a lo que se conoce como the internet of things, donde los objetos son capaces de comunicarse a través de sensores conectados a redes que usan el protocolo de internet. Es decir, el mundo físico se está convirtiendo en un tipo de sistema de información, y estas redes permiten crear nuevos modelos de negocio, mejorar procesos y reducir costes y riesgos. Un punto a destacar es el emergente uso de procesos y de datos contextualizados en el tiempo y el espacio; este tipo de dispositivos se usan de manera natural en todo tipo de situaciones y circunstancias.
Uno de los resultados naturales de esta tendencia es un incremento desproporcionado de la cantidad de datos relacionados con nuestro modelo de negocio. Este incremento produce la necesidad natural, por parte de los usuarios finales, de captar, entender y analizar esta información en tiempo real y a través de mecanismos naturales y sencillos.
Cloud Computing es un nuevo paradigma[20] que consiste en ofrecer servicios a través de internet. En los últimos años, este tipo de servicios se ha generalizado entre los principales fabricantes para formar parte de las opciones disponibles de su portafolio de servicios, e incluso en algunos casos para ser la forma predominante o totalitaria de los mismos. Por ejemplo, Google, que ofrece todos sus servicios en la red (desde el buscador hasta aplicaciones para empresas que incluyen correo, editor de documentos, calendario...), Amazon (que ofrece un servicio de almacenamiento), Salesforce (que ofrece un CRM on-demand), Microsoft (que ofrece una plataforma de cloud computing llamada Azure) o Abiquo (empresa española que ofrece una solución para gestionar entornos corporativos virtualizados desplegados en la nube).
En la computación en la nube existen diferentes capas:
• SaaS (Software as a Service): es la capa externa y es un modelo de despliegue de software en el que una aplicación es alojada como un servicio ofrecido a los clientes. Como ejemplo más claro tenemos el CRM On-Demand[21] de SalesForce.
• PaaS (Platform as a Service): es la capa intermedia. Nace a partir del modelo de distribución de aplicaciones SaaS. El modelo PaaS hace que todas las utilidades necesarias para el ciclo de vida completo de construir y distribuir aplicaciones web estén disponibles en internet, sin descargar software o requerir instalación por parte de desarrolladores, responsables de informática o usuarios finales. También es conocido como cloudware. Como ejemplo más claro tenemos Google App Engine.
• IaaS (Infraestructure as a Service): es la capa núcleo del servicio. Se refiere al acceso a recursos computacionales que típicamente son poseídos y operados por un proveedor externo, de forma consolidada, en centros de proceso de datos. Los clientes de los servicios de computación en nube compran capacidad computacional on-demand y no se preocupan de la tecnología subyacente usada para conseguir el incremento en capacidad del servidor. Como ejemplo más claro tenemos Amazon Web Services.
Se considera que Cloud Computing es una evolución natural de ASP[22] dado que actualmente existe el nivel de tecnología adecuado.
Cabe comentar que este servicio puede ser público (manejado por terceros) o privado (manejado por la organización) o híbrido (combinación de los anteriores).
En los últimos años la cantidad de información, tanto relevante como irrelevante, a la que tienen acceso los usuarios no para de crecer. Se presenta una situación de infoxicación, como apunta Alfons Cornellà, que acuña este término como:
Exceso informacional, intoxicación informacional, cuando tienes más información de la que humanamente puedes procesar y, como consecuencia, surge la ansiedad (técnicamente, information fatigue syndrome). En inglés el término es information overload (sobrecarga informacional).
Por lo que es necesario exigir relevancia a la información, que debe ser obtenida además de forma inmediata. Por poner un ejemplo, Google proporciona respuesta de una búsqueda en apenas unos segundos (o incluso antes) ordenada por relevancia. Por lo que sólo aquella información que sea relevante, rápida y de calidad será capaz de conseguir su cuota de atención.
Este problema de atención puede ser resumido, desde la óptica de Michael H. Goldhaber, de la siguiente manera:
El ancho de banda de datos e información que recibe la gente se está incrementado de forma continua principalmente por dos motivos: la tecnología permite enviar más en menos tiempo y hay más emisores. Podemos entender por banda ancha la cantidad de información que alguien recibe por unidad de tiempo. Por otro lado es posible entender la atención personal como la cantidad de tiempo que una persona puede dedicar a cada información que recibe. De ambos conceptos se deduce que a mayor ancho de banda, menor capacidad de atención personal.
La única solución pasa por centrarse en la información relevante para no caer en cuello de botella sistémico.
La evolución de las tecnologías de la información ha propiciado que la gran mayoría de procesos o bien sean digitales o bien puedan monitorizarse mediante sistemas de información. Por otro lado, estamos en la era de la computación ubicua. Por ello, se genera una gran cantidad de datos que frecuentemente es difícil de comprender, controlar, monitorizar y analizar de forma conjunta. Este incremento de datos guardados es producto de diversos factores, entre los cuales podemos destacar la reducción del precio y el aumento de la capacidad de las componentes de almacenaje de datos así como una evolución de los protocolos y los sistemas de información que son capaces de soportar los procesos de negocio.
Este fenómeno se conoce como Big Data; en él, lo importante no es la gran cantidad de datos que se producen y se guardan, sino lo que se hace con esos datos. Es decir, qué aportan los datos a nuestro modelo de negocio.
El mercado global en el que participan todas las empresas funciona a una velocidad mucho mayor que antaño gracias a las tecnologías de la información y su aceptación en la sociedad. Por ello, empresas, organizaciones e instituciones deben reaccionar mucho más rápidamente a las necesidades de los clientes, a las acciones de la competencia y a los cambios sociales, tanto positivos como negativos, mediante la incorporación de tecnologías, tanto las que son consideradas una commodity[23] como las que no lo son.
Es decir, teniendo en cuenta la reflexión que hace Nicholas Carr en su famoso artículo “Does IT Matter?”, debemos tener presente que la tecnología no es el fin sino el medio a través del cual una empresa consigue ventaja competitiva en el mercado. Esta ventaja se puede obtener de diferentes formas –por ejemplo automatizando procesos, entendiendo mejor el comportamiento de los clientes, tomando mejores decisiones–, todas ellas soportadas por la tecnología.
Las empresas tienen relaciones con partners, proveedores, clientes, competencia e inversores. Todas estas relaciones generan datos de valor a incorporar en la toma de decisiones que permiten comprender de una forma mucho mejor los procesos de negocio. Por ejemplo, conocer los precios y los productos de la competencia y compararlos con los propios nos permite posicionarnos y saber si nuestra empresa es competitiva a nivel de prestaciones y precios.
Este enfoque de considerar que el ámbito de una empresa incluye todos los elementos que interactúan con la misma es lo que se conoce como empresa extendida.
Tanto en el contexto de una organización como en la sociedad, las personas están identificando la necesidad de información de valor para la toma de decisiones del día a día. Es decir, necesitan información de valor no sólo las decisiones estratégicas, sino también las tácticas y operativas. Es por ello que se buscan mecanismos para desplegar procesos que democraticen la información y soporten las acciones de los usuarios de forma no intrusiva.
Desde hace bastantes años el open source no es una tendencia emergente, sino que afecta a los procesos de producción de software de forma profunda. Tiene y tendrá, en los años venideros, una presencia importante en todos los sectores, tal y como comenta Gartner:
En 2012, el 80% del SW comercial incluirá algún componente open source. Incluir componentes open source en los productos para abaratar costes es considerado la mínima estrategia que las compañías pueden llevar a cabo para mantener su ventaja competitiva en 5 años.
Las empresas y organizaciones open source han ido evolucionando para ofrecer una respuesta adecuada a las demandas del mercado teniendo en cuenta los siguientes factores:
• Existen unos costes ocultos en la implantación de software open source. Es necesario contratar o formar personal especializado que dé soporte en la evaluación, en la integración, en la corrección de errores y en el ciclo de vida del producto, y que participe en la comunidad para que conozca la evolución de la aplicación. Tales costes inciden en horas, dinero o ambos.
• Ausencia de soporte y de un roadmap claro y preciso por parte de la organización que desarrolla el producto.
• Ciertas licencias open source no son business-friendly (limitando el uso a ámbitos académicos o organizaciones no comerciales).
Estas empresas cumplen los principios del movimiento open source:
• Abierto: la comunidad tiene libre acceso, uso y participación del código fuente, así como la posibilidad de usar foros para proporcionar feedback.
• Transparencia: la comunidad tiene acceso a roadmap, documentación, defectos y agenda de las milestones.
• Early & Often: la información se publica de manera frecuente, y pronto a través de repositorios públicos (incluyendo el código fuente).
Otros principios que persiguen estas empresas encarados a ofrecer confianza y fiabilidad son:
• Búsqueda de la excelencia a nivel de servicios, tanto cuando hablamos del desarrollo del producto como del trato con el cliente.
• Apuesta por la innovación generando grandes sinergias que pueden derivarse en motor de ideas de negocio.
No todas las organizaciones que desarrollan soluciones open source (como empresas, por ejemplo Pentaho, MySQL –ahora Oracle–, Openbravo, Eclipse, Mozilla) tienen la misma aproximación al modelo de negocio presentado, si bien tienen puntos comunes.
En el seno de las organizaciones han aparecido nuevos modelos de trabajo. A destacar el siguiente: la cultura open source en las organizaciones puede ser incluida dentro del fenómeno denominado Commons-Based Peer Production (CBPP), acuñado por Yochai Benkler. Este término define una nueva forma dentro del contexto de la producción de información o bienes culturales. A grandes rasgos (y desde la perspectiva de la teoría económica), los individuos trabajan de manera más eficiente porque eligen qué tareas realizar en base a sus propias preferencias y habilidades en un ambiente de colaboración, donde los resultados de la producción son puestos en el dominio público. En otras palabras, la principal baza del CBPP (a diferencia de otros mecanismos de producción “propietarios”) es la “autoselección” como mecanismo de asignación de los recursos relacionados con el talento y la creatividad humana. Dado que quienes mejor conocen sus aptitudes y habilidades son los propios individuos, ellos deciden en qué tareas participar. Es más, al quedar sus contribuciones en el dominio público se evita la pérdida de eficiencia que supone la “exclusividad de derechos” impuesta por las licencias típicamente utilizadas en otros contextos productivos más tradicionales.
Las principales características que permiten distinguir las organizaciones que utilizan el CBPP son:
• La estructura interna suele ser aplanada, con jerarquías bastante diluidas, lo que permite un flujo rápido de conocimiento y de información. Muchos proyectos open source suelen girar en torno al fundador o fundadores o a las personas que dieron el paso inicial, aunque no es un requisito imprescindible. En su mayoría poseen una junta directiva (Directors Board) y jefes de proyectos (Project Management Committees Chairs ofcers). Estas figuras son las encargadas de tomar las decisiones y de representar a la organización frente a terceros. Sin embargo, el rasgo distintivo del CBPP y las iniciativas OS es que funcionan como una meritocracia, lo que quiere decir que aquellos individuos que muestren tener mejores capacidades a través de aportaciones significativas son invitados a formar parte de la comunidad de desarrollo. En otras palabras, se adquiere mayor poder de decisión dependiendo de la calidad de su trabajo.
• Se emplean licencias abiertas (aproximadamente existen 59 tipos de licencias diferentes). El factor común en todas las organizaciones es que para la utilización del bien protegido no es necesario pagar royalties ni otro tipo de cargas. El producto final es puesto en el dominio público y cualquiera puede hacer uso de él o copiarlo, y en muchos casos se permite al consumidor modificar y mejorar el producto, con la condición de que también sea puesto en el dominio público.
• La metodología o sistema de producción de los proyectos, generalmente tiene un grado alto de modularidad, granularidad, y es de carácter asincrónico. Esto significa que las diferentes actividades que componen un determinado proceso pueden romperse en pequeñas tareas ejecutables en diferentes momentos y desarrollarse sin requerir una cantidad muy elevada de tiempo o esfuerzo para los individuos.
• Una particularidad muy importante son los incentivos por los que los agentes deciden participar en la producción. A diferencia de los entornos tradicionales, los participantes no están influenciados directamente por razones monetarias. Entre otros, los incentivos que intervienen son: beneficio del uso individual (own-use), complementariedad con otros bienes, señalización en el mercado laboral (motivos profesionales), educación, formación. Y también otros motivos de carácter psicológico, como el simple altruismo, el sentido del deber para con la comunidad, y retos intelectuales (lo que se denomina learn and fun).
• Otra característica relevante es el ambiente de colaboración en el que se desarrolla el CBPP. Al ser los propios individuos quienes deciden qué tareas realizar, se realiza un mejor reparto de los incentivos; es lo que Benkler denomina self-identication. Para él, esto último representa una ventaja significativa con respecto a los modelos tradicionales de empresa, donde es el supervisor el encargado de decidir qué tareas son llevadas a cabo por quién. De esta manera se soluciona el problema de asimetría de información entre el empleado y el superior que se da en esas situaciones, y se obtiene lo que en teoría de la agencia se denomina information gains.
Social Media son medios de comunicación social donde el contenido es creado por los usuarios mediante el uso de tecnologías de fácil uso y acceso a través de tecnologías de edición, publicación e intercambio. Estos medios de comunicación pueden adoptar muchas formas diferentes: foros de internet, blogs, wikis, podcasts, fotos y vídeo. En un medio social se generan conversaciones basadas en un propósito común, y, por lo tanto, la calidad y proyección depende principalmente de las interacciones de las personas y la riqueza del contenido generado. Así, a través de estos canales se genera la oportunidad del uso de la inteligencia colectiva de los usuarios. Entre los social media más destacados están Twitter, Facebook, YouTube o Flickr.
Open Knowledge es una nueva filosofía heredera del open source y que tiene como objetivo compartir datos, información y conocimiento. Últimamente han aparecido diferentes organizaciones para dar a conocer esta iniciativa y facilitar un entorno –tanto tecnológico como legal– para compartir información, como por ejemplo The Open Knowledge Foundation (http://www.okfn.org/), The Open Data Foundation (http://www.opendatafoundation.org/), o el portal de proyectos de Open Knowledge llamado KnowledgeForge (http://knowledgeforge.net/).
El acceso masivo a internet, el uso extendido de las redes sociales y la eclosión de los dispositivos inteligentes está redefiniendo el puesto de trabajo en las organizaciones y, por extensión, cómo se toman las decisiones en el seno de las organizaciones.
La movilidad ha reducido las fronteras del dónde, cuándo y cómo habilitando nuevos lugares de trabajo, la capacidad de acceder a recursos de empresa en cualquier lugar, momento o a través de cualquier dispositivo.
Esto está generando el amanecer de una nueva economía basada en la información en la cada empleado necesita tener:
• La capacidad de tomar decisiones de forma colaborativas (los empleados como red) y automatizadas (mejora de la eficiencia)
• La capacidad de tomar acciones en tiempo real y tener registro de dichas acciones.
• La capacidad de seguir la decisiones de forma ubicua (en linea con la flexibilidad del puesto de trabajo) y continua (monitorización / seguimiento de la decisión efectuada).
Los factores anteriormente comentados, junto con la evolución de la tecnología subyacente, el refinamiento de la metodología y la madurez de las empresas y los usuarios en lo relativo a sistemas de Business Intelligence ya existentes, nos permiten determinar algunas de las principales tendencias del mercado:
La necesidad de democratizar la información entre los usuarios de una organización para mejorar la competitividad, ofrece nuevas oportunidades de negocio. Tradicionalmente, las soluciones de inteligencia de negocio han cubierto las necesidades estratégicas y tácticas de las empresas focalizando el servicio en la capa de dirección. La democratización conduce a responder a las necesidades operacionales y consiste en incrustar análisis en los procesos de negocio para poder proporcionar respuestas basadas en información confiable. Esta tendencia es conocida como BI Operacional.
Los factores apuntan a un crecimiento desproporcionado de datos. A mayor cantidad de datos, mayores problemas con los mismos. Es por ello que una de las necesidades básicas es incrementar la calidad de los datos a través de procesos de data quality.
La calidad de datos es sólo una de las iniciativas a tener en cuenta respecto a los datos. Es necesario desplegar políticas de data governance y Master Data Management (MDM).
Data governance aúna personas, procesos y tecnología para cambiar la forma en que los datos son adquiridos, gestionados, mantenidos, transformados en información, compartidos en el contexto de la organización como conocimiento común, y sistemáticamente obtenidos por la empresa para mejorar la rentabilidad.
Es decir, estamos hablando de una disciplina en la que convergen conceptos como data quality, data management, business process management y risk management.
MDM consiste en un conjunto de procesos y herramientas que define y gestiona de forma consistente las entidades de datos no transaccionales de una organización. Busca, por lo tanto, asegurar la calidad y la persistencia, recopilar, agregar, identificar y distribuir los datos de forma uniforme en dicho contexto.
MDM se compone de tareas como:
• Identificar las fuentes de origen de los datos.
• Identificar los productores y consumidores de datos maestros, como pueden ser la información de clientes, productos, proveedores...
• Recopilar y analizar metadatos sobre los datos maestros recopilados en el primer paso.
• Determinar los responsables (administradores) de los datos maestros.
• Implementar un programa de data governance (y, de forma consecuente, tener un grupo responsable de dicho programa).
• Desarrollar el modelo de metadatos maestros.
• Escoger una solución o conjunto de soluciones como medio para mejorar la calidad de datos.
• Diseñar la infraestructura necesaria para gestionar los datos maestros.
• Generar y testear los datos maestros.
• Modificar los sistemas consumidores y productores de información para tener un sistema de gestión de datos maestros y para que las aplicaciones que lo necesiten hagan uso de los mismos.
• Implementar un proceso de mantenimiento.
Uno de los principales puntos discutidos en la implantación de soluciones de inteligencia de negocio es la dificultad inherente asociada a estos sistemas en varios aspectos:
• Despliegue.
• Mantenimiento.
• Uso.
Cada vez más, los compradores son capaces de analizar el mercado antes de tomar una decisión de compra ante este tipo de sistemas y, por lo tanto, buscan y demandan una menor complejidad en las soluciones BI.
Esto provoca que los fabricantes estén apostando por desarrollar un portafolio de soluciones que buscan incrementar el ROI (Return On Investment) más rápido asociado a un despliegue, mantenimiento y uso más ágil.
De esta forma nos encontramos:
• Uso de máquinas virtuales o appliances para el despliegue de soluciones de Business Intelligence. Estas soluciones conjugan software (suite BI + base de datos + sistema operativo) y/o hardware optimizado para tareas de inteligencia de negocio. Este tipo de despliegue facilita la gestión y el crecimiento de los sistemas.
• Aparición de BI SaaS. Poco a poco van apareciendo soluciones BI que ofrecen parte o toda su funcionalidad en modalidad SaaS. Aún quedan por resolver ciertos retos, como los relacionados con la integración de datos y la confianza.
• Mejora e inclusión de las soluciones de análisis predictivo (que son una evolución de las herramientas de minería de datos) como uno de los módulos básicos en las suites de inteligencia de negocio.
• Enfoque pragmático respecto a las hojas de cálculo. Uno de los principales problemas en el contexto de las organizaciones es el uso de Excel como herramienta de análisis. Este tipo de herramienta fomenta la aparición de silos de información así como problemas de integridad de datos. Algunos fabricantes optan por un enfoque en el que gestionan de forma eficiente el uso de Excel como interfaz de trabajo.
• Inclusión de algoritmos avanzados de gestión de grandes cantidades de datos en los motores del data warehouse. Entre los diferentes enfoques tenemos:
1. Uso de técnicas de consulta en paralelo de estructuras grid.
2. Uso de bases de datos en columnas.
3. Uso de motores in-memory combinados con soluciones de compresión de datos para reducir la huella de éstos.
4. Uso de sistemas de almacenamiento no relacional provenientes de las empresas de social media como LinkedIn, Facebook o incluso Google. Entre estas soluciones tenemos protocolos como Hadoop o Map Reduce. Este tipo de enfoques se combinan con los anteriores para mejorar la escalabilidad.
5. Uso de sistemas motores Complex Event Processing (CEP) que permiten detectar eventos importantes a nivel de negocio y que permiten enlazar las soluciones de inteligencia de negocio con la operativa a un nivel de eficacia mucho mayor.
Desde hace muchos años existen soluciones de inteligencia de negocio open source, y eso puede parecer sorprendente dado que el eco mediático destacable se sitúa en los últimos cuatro o cinco años.
Actualmente existe un variado panorama en el que destacan las soluciones de compañías como Pentaho, Actuate BIRT, JasperSoft, Talend, Infobright, SpagoBI, Ingres o PALO, por sólo nombrar algunas de las más conocidas y maduras que cubren desde reporting hasta data mining.
Hagamos un ejercicio de recapitulación de los inicios del Open Source Business Intelligence. ¿Dónde nos deberíamos situar? A la mente me vienen dos hitos destacables:
• En 2001, Teodor Danciu inició el desarrollo de JasperReports, la primera solución de reporting open source. Actualmente es uno de los productos que standalone o integrado ofrece JasperSoft.
• En 2003, Julian Hyde inició el desarrollo de Mondrian, el motor ROLAP open source por excelencia. Actualmente forma parte de Pentaho, pero se encuentra presente en la gran mayoría de suites open source de mercado.
Las características comunes a todas estas soluciones son:
• El producto se ofrece en un formato open source.
• Presentan una comunidad que participa activamente en el producto y que incluso guía y lidera partes de su desarrollo.
• Tanto los productos como las empresas detrás de ellos presentan modelos y servicios maduros que pueden proporcionar el mismo nivel de confianza que soluciones comerciales.
Detrás de estas compañías hay profesionales del mundo del Business Intelligence con largas trayectorias, que conocen claramente las necesidades de negocio de los usuarios finales y que se dieron cuenta de que crear productos open source era una magnífica forma de cubrir dichas necesidades.
¿Qué es lo que cambia en un mercado cuando existen soluciones open source? Para poder responder a dicha pregunta, primero es necesario entender qué es lo que puede ofrecer una herramienta OSBI.
• Una solución open source puede identificarse claramente como una herramienta con TCO (Total Cost Ownership) reducido. Claro: si inicialmente dicha solución no cubre las necesidades de los clientes, no hay por qué preocuparse. Pensamiento de la competencia. Pero... ¿qué pasa cuando a lo largo del tiempo dichas soluciones maduran cada vez más hasta que dan respuestas solventes? Pensad, por ejemplo, en el caso Firefox e Internet Explorer. En este caso, las versiones iniciales del Firefox no eran estables ni se diferenciaban de Internet Explorer. Posteriormente, por el hecho de que Firefox cumplía los estándares de W3C y por la introducción de innovaciones como la navegación por pestañas, empezó a ganar cuota del mercado.
Es el lugar donde nos encontramos justo ahora. Y en este punto es cuando en el mercado podemos observar diferentes situaciones:
• Existen otras soluciones con TCO reducido, que principalmente han reducido el precio de sus licencias o bien han surgido con precios ya bajos y competitivos. Por ejemplo, QlikView.
• Algunas empresas ofrecen soluciones gratuitas que presentan una funcionalidad acotada gracias a la modularidad de sus soluciones, mientras que venden módulos y otros servicios.
• Otras empresas han apostado por soluciones innovadoras que no cubren ni las soluciones comerciales ya existentes en el mercado ni las soluciones open source.
Además, la madurez de las propias soluciones se ha conjugado con la situación económica desfavorable para gastos desproporcionados en IT. Esto hace la entrada de las soluciones OSBI en los procesos de evaluación mucho más sencilla, y facilita que sea la solución escogida. Esto último es fácil de comprobar por las últimas y frecuentes noticias por parte de las empresas OSBI y sus partners.
Hemos visto algunos de los impactos resultantes de las sinergias open source así como lo que sucede en el contexto actual. En estos tiempos es natural esperar, por lo tanto, un crecimiento no sólo lineal, sino de alguna magnitud superior para las soluciones del mercado OSBI.
Las empresas han identificado que la inteligencia de negocio es una necesidad crítica para la estrategia de negocio. Por ello actualmente están ejerciendo una influencia positiva sobre la tecnología para cubrir sus necesidades. Por ejemplo, en:
• Mejorar la capacidad de análisis.
• Facilitar el análisis de grandes volumetrías de datos mediante técnicas visuales.
• Demandar capacidades de integración de datos corporativos estructurados con todo tipo de datos, ya sean estructurados o no.
• Aparición de soluciones que permitan el desarrollo de elementos de análisis de forma colaborativa.
Dichas necesidades hacen que en el contexto de una organización sea necesario que existan organismos que regulen el proceso de madurez del sistema de inteligencia de negocio; por lo tanto, aparece la necesidad de crear centros de competencia (BICC, Business Intelligence Competency Center). La existencia de este tipo de centros demanda de la participación de especialistas con talento para desplegar dichas iniciativas. De manera que la búsqueda de talento se convierte en una primera necesidad y se establece como prioritario identificar y contratar personal especializado tanto en herramientas a nivel de usuario como en conocimientos.
ASP Application Service Provider
BI Business Intelligence
BICC Business Intelligence Competency Center
CBPP Commons-Based Peer Production
CRM Customer Relationship Management
IaaS Infraestructure as a Service
MDM Master Data Management
OLAP On-Line Analytical Processing
OS Open Source
PaaS Platform as a Service
ROI Return On Investment
SaaS Software as a Service
SW Software
TCO Total Cost Ownership
“Gartner Magic Quadrant for BI Platforms, 2009”. Gartner.
“Gartner Magic Quadrant for Data Integration, 2009”. Gartner.
“Gartner Magic Quadrant for Data Warehouse, 2009.” Gartner.
“Gartner Magic Quadrant for BI Platforms, 2010”. Gartner.
“Gartner Magic Quadrant for Data Integration, 2010”. Gartner.
“Gartner Magic Quadrant for Data Warehouse, 2010”. Gartner.
“The Forrester Wave: BI, Q4 2009”. Forrester Research.
“The Forrester Wave: Data Warehouse, Q4 2009”. Forrester Research.
[20]. Un paradigma es, desde fines de la década de 1960, un modelo o patrón en cualquier disciplina científica u otro contexto epistemológico.
[21]. On-demand: servicio o característica que responde a la necesidad del usuario de gratificación instantánea e inmediata en el uso. En la mayoría de casos la proposición de valor de un servicio on-demand está constituida sobre el hecho de que el usuario o cliente del servicio evita una inversión inicial fuerte y en su lugar participa en un modelo paga-conforme-lo-usas (pay-as-you-go), que habitualmente hace que los servicios on-demand sean más asequibles para los usuarios.
[22]. ASP (Application Service Provider): es un negocio que ofrece servicios basados en ordenadores a través de una red. El software ofrecido bajo el modelo ASP es llamado en ocasiones Software On-Demand o Software como Servicio (SaaS). El sentido más limitado de este término es ofrecer acceso a una aplicación particular (como facturación médica) utilizando un protocolo estándar como HTTP. No debe confundirse con ASP.NET, el lenguaje de programación de Microsoft.
[23]. Commodity significa mercancía, y mercancía es todo “lo que se puede vender, comprar o intercambiar por otro bien o cosa”. Un commodity es un producto genérico, básico, sin mayor diferenciación entre sus variedades, y destinado a uso comercial.