Your SlideShare is downloading. ×
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Utility computing
Upcoming SlideShare
Loading in...5
×

Thanks for flagging this SlideShare!

Oops! An error has occurred.

×
Saving this for later? Get the SlideShare app to save on your phone or tablet. Read anywhere, anytime – even offline.
Text the download link to your phone
Standard text messaging rates apply

Utility computing

1,460

Published on

Published in: Technology
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total Views
1,460
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
39
Comments
0
Likes
1
Embeds 0
No embeds

Report content
Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
No notes for slide

Transcript

  • 1. Utility Computing 1 - Concepto El pago en la medida cierta Pagar sólo por aquello que se usa o consume en Tecnología de la Información (TI). Esto es lo que promete el modelo de Utility Computing que puede entenderse como servicios utilitarios o computación de ventajas. El término viene de las llamadas utilities, que en inglés son las empresas públicas que tienen como modelo de negocios el cobro de lo que se consume. Para ejemplificar el concepto, nada mejor que comparar el mecanismo de uso y pago del Utility Computing con el modelo de negocios y cobro de las cuentas de agua, luz y teléfono. Al permitir la adquisición de la capacidad temporaria de procesamiento y almacenamiento de datos, esta tecnología potencia la optimización de la infraestructura de hardware, software y servicios reduciendo costos fijos por capacidad no utilizada. Para tratar de explicarlo, Utility Computing es un modelo de negocios donde se paga al proveedor del producto o al prestador de servicios, sólo lo que fue utilizado. Para los clientes, la industria señala como ventaja la adquisición de una arquitectura flexible y una reducción de costo de alrededor de un 20%. Frente a esto, Utility Computing llega como una excelente alternativa para las compañías que tienen como meta la economía y el control del uso de activos de informática y telecomunicaciones. Para reforzar, un ejemplo bastante simple de funcionamiento de este modelo que viene tomando cuerpo con el pasar del tiempo, es la comparación con la forma de cobro de teléfono celular, de gas y de energía eléctrica que, normalmente, se pagan de acuerdo con el consumo efectuado. Adquirir un equipamiento o un software para que sea usado sólo en determinados periodos del año y dejarlos inactivos el resto del tiempo, ya es cosa del pasado. Nadie o ninguna empresa puede darse ese lujo. El modelo tiende a tornarse en mucho más que una herramienta de control de gastos y ser una estrategia de negocio de la empresa. Los servidores, por ejemplo, permanecen durante mucho tiempo en desuso dentro de la empresa para cumplir la función de garantizar el pleno funcionamiento de los sistemas y cumplir la demanda en periodos picos. El promedio de uso de servidores sobresalientes es de 15% del uso de su capacidad, factor que contribuye con el aumento de los costos de una corporación. Al optar por el uso bajo demanda, un comercio minorista, por ejemplo, que en diciembre tiene un pico gigantesco de uso con ventas de navidad y en enero el uso casi llega a cero, pagará de manera diferenciada el valor proporcional por los recursos de TI.
  • 2. El modelo Utility Computing ya es una realidad en el universo de TI debido a una combinación de factores asociados, focalizados en tercerización (outsourcing) y en hospedaje (hosting), en tecnologías emergentes, como por ejemplo, Grid Computing.y también en potencialidades más robustas de seguridad y en la experiencia de los modelos de comercialización conocidos como ASP (Application Service Provider), o proveedores de aplicaciones. Sin embargo, el concepto no es una novedad para los profesionales de tecnología, si se considera que su surgimiento ya cuenta con aproximadamente veinte años, a pesar de ello, frente a la falta de más recursos tecnológicos y de cultura de mercado, no ha conquistado muchos adeptos. Impulso con nuevas tecnologías Este modelo de negocio mediante el cual se paga sólo lo que se utiliza retomó sus fuerzas con la masificación de la banda ancha y con las nuevas tecnologías de Grid Computing, nomenclatura que define la división del trabajo a ser realizado entre los recursos computacionales disponibles. Con el decorrer del tiempo, Grid Computing se acrecentará a muchas infraestructuras corporativas y traerá un gran crecimiento de la potencia de CPU para tareas que exigen computación intensiva. En realidad, el concepto de virtualización torna posible bajo demanda la capacidad de red, permitiendo que aplicaciones corporativas tales como automatización de la fuerza de ventas y administración de recursos corporativos pasen ser adquiridas por el modelo ASP. La tendencia para este segmento todavía se caracteriza por la oferta y definición de servicios que le permitirá al mercado optar entre varios modelos de negocio tales como tercerización total, ASP o administración de servicios. Para abordar el asunto y pasar la idea de venta de acuerdo con el uso del mercado comprador, la industria adopta diferentes nomenclaturas para esta infraestructura de TI. Tal vez el término más conocido sea on demand (bajo demanda), adoptado por IBM. Oracle optó por usar el término Grid y HP usa la terminología empresa adaptativa. Existen, obviamente, variaciones en el abordaje, en el formato y en la venta de la tecnología de una empresa a otra, sin embargo, la base es la misma en todas ellas, es decir, todas mantienen la premisa de ofrecer y cobrar por los productos y servicios utilizados. Esos players ven la infraestructura a ser ofertada como componentes automatizados, módulos que el cliente compra de acuerdo con su necesidad momentánea. Estos módulos son complementarios y siguen las orientaciones de la gobernanza corporativa y de sus mejores prácticas. Otras gigantes del segmento de TI adhirieron al modelo. EDS invirtió USD 2 mil millones de
  • 3. dólares en lo que dio en llamar Agile Enterprise, que busca ofrecer el formato de Utility Computing para las áreas de infraestructura, aplicaciones y BPO (Business Process Outsourcing). La empresa encabeza un grupo de empresas tales como Cisco, Dell, EMC, Microsoft, Oracle, SAP, Siebel, Sun Microsystems, Towers Perrin y Xerox. Todas estas empresas también están empeñadas en la divulgación y adhesión de la oferta de Utility Computing en Brasil e involucradas en las investigaciones, desarrollo y gestión del portfolio de ofertas al mercado. Cada una de ellas entra con sus particularidades y potencialidades y EDS alínea los servicios que serán prestados. Estrategia de negocios Desde hace un buen tiempo, el segmento de tecnología de la Información está en busca de fórmulas para reducir costos fijos y gastos con sistemas legados y nuevas adquisiciones, sean de hardware, software o servicios. Las tecnologías emergentes, los nuevos sistemas, el hardware de última generación, la necesidad de aumentar la seguridad de los datos y planes de contingencia demandan altas inversiones. Y no resulta fácil justificar todo ese gasto a la alta administración de la compañía. Las crisis económicas, reglamentaciones tales como Sarbane Oxley (SOx) y Basiléia II, para citar unos ejemplos, obligaron al mercado a cortar todo tipo de gastos y de recortar el presupuesto para conquistar metas y equilibrar el ritmo de la corporación con el nuevo orden mundial. Con todo esto sucediendo, los ejecutivos buscan nuevas fórmulas y caminos alternativos. Una serie de medidas que busca economizar y ajustar el presupuesto de las corporaciones, está en la mira de los ejecutivos. Algunas de esas medidas son: reducción del TCO, o total coast operation, que es la disminución del costo total de propiedad, así como la búsqueda por el retorno de las inversiones (ROI) y otras tantas iniciativas que ahora tienen como aliado el pago de acuerdo con el uso de recursos de TI. La alta administración de las empresas le exige constantemente a los profesionales de informática que ajusten sus presupuestos, de manera tal que el departamento de tecnología muestre un resultado satisfactorio y no sea el área que sólo consume recursos, sino que colabore con las metas financieras de la empresa. Esta premisa ha sido destacada en las cuestiones relacionadas con la gobernanza corporativa y de TI (Tecnología de la Información), tema que se encuentra colocado entre los primeros en la lista de orden del día. Frente a la realidad de que las corporaciones y los responsables por el área de tecnología buscan maximizar sus inversiones y obtener rápidos retornos, se percibe, aunque de manera incipiente,
  • 4. pero de forma gradual, un aumento en la oferta y en la búsqueda de servicios utilitarios (Utility Computing) como forma de reducir costos. De acuerdo con analistas de mercado, existe una gran preocupación por parte de los usuarios en la búsqueda de prestadores de servicios que ofrezcan soluciones en el ámbito de las infraestructuras de TI redes de comunicación, desktops y administración. La tendencia a adquirir servicios de TI como un conjunto de Utility Computing, se ha desarrollado más durante estos últimos cinco años. De acuerdo con los datos de la Intrnational Data Corporation (IDC), la computación, como utilidad, tiene como potencial la capacidad de alterar radicalmente la forma como la tecnología de la información servirá los negocios. Sin embargo, todavía esta jornada está en el comienzo y existen pasos graduales e importantes que tomar antes de migrar hacia una infraestructura on demand o bajo demanda. Evolución constante Utility Computing se encuentra entre las tecnologías y soluciones que presentarán los mayores índices de desarrollo hasta el 2006, según un estudio realizado por IDC. Los tres factores que surgen en buena posición y que contribuyen con el crecimiento del segmento de TI son, además de Utility Computing, Web Services, movilidad y home computing. Para el instituto, el concepto de Utility Computing es una de las soluciones más promisorias del mercado y describe esta tecnología como el modelo de computación en el que los recursos computacionales y de gestión se adaptan a las necesidades de las empresas, permitiendo que los colaboradores accedan a los sistemas en cualquier local. Después de haber mantenido un crecimiento continuo durante cuatro años consecutivos, el mercado de tecnología llegó a su ápice en el 2000, incorporándose en ese contexto, el impulso logrado en función del Bug del Milenio. Después, las dificultades se acentuaron con demostrativos financieros poco satisfactorios por parte de la mayoría de las empresas. Este hecho provocó en las industrias y en los gestores, iniciativas para sacar a TI (y, por supuesto, a las empresas) de la curva descendente que presentan. Y es frente a la necesidad que el ser humano se torna más creativo. De allí surgen soluciones como Utility Computing que tiene como propósito el control de los costos con relación al pago de lo que se consume. En su análisis, IDC llega a la conclusión de que Utility Computing todavía se encuentra en una fase inicial y que le queda un largo camino por recorrer hasta estar apto para corresponder a la gran propuesta de no sólo reducir costos sino sobretodo, de ser una excelente estrategia de negocios. Mientras tanto, ya ha avanzado desde el momento que ha conquistado el tope de la
  • 5. lista de las tecnologías más necesarias y deseadas. Por estar todavía el concepto en proceso de consolidación, tendrá que pasar por las fases de automatización y virtualización, pasos que ya se iniciaron pero que todavía no se concluyeron. A lo largo de todo el proceso (pasando por las fases de automatización y virtualización), hasta el 2006, surgirán innumerables y ventajosas oportunidades de negocio para los involucrados en este segmento. La fase de compartición, que permite que todos los recursos de TI de una compañía se dividan y automáticamente se alquilen para tareas específicas, deberá ser lo más rentable del área de Utility Computing después que el proceso haya madurado, es decir, después del 2006. Los cuidados al momento de elegir Con el uso de Utility Computing, o el pago de acuerdo con el consumo, es posible que el departamento de tecnología logre redirigir y promover la expansión de toda o parte de la infraestructura. Al estar alineada con la filosofía de la corporación, actuará a medida que las necesidades del negocio crezcan y se modifiquen, permitiéndoles a los usuarios la compartición de energía, almacenamiento de datos, base de datos y otros servicios en tiempo real. La propuesta es que, con esa forma de abastecimiento y de pago, el área de Tecnología de la Información se ponga en línea mejor con las metas de la empresa y con las otras unidades, controlando los costos y activos al alquilarlos para proyectos o departamentos específicos de la organización. Utility Computing es una herramienta imprescindible para atender las exigencias de TCO (costo total de propiedad), con un tiempo y gastos reducidos. El concepto podrá tornarse mucho más que una herramienta de reducción de costos y pasará a formar parte de la estrategia de negocios de la empresa. Desde el punto de vista de la industria proveedora, la manera de vender conforme el uso, puede aplicarse en la más variada gama de software así como en sistemas de bancos de datos y servidores de aplicaciones, por ejemplo. La oferta de productos como utility también beneficia a las pequeñas y medianas empresas por no tener que responsabilizarse con la manutención de un equipo interno para cuidar de la tecnología. Existen diversas formas para contratar el concepto de Utility Computing. El cliente elige si quiere dejar la solución almacenada en la empresa proveedora o dentro de la casa. Normalmente, en ambos casos, la administración total corre por cuenta de la proveedora. El usuario podrá optar entre varios modelos de negocio tales como tercerización total, ASP o administración de servicios.
  • 6. Adaptación de los Data Centers Una de las formas de proveer productos y servicios bajo demanda es por medio de data center centros de altísima tecnología, totalmente equipados y preparados para aplicaciones pesadas y en donde los sistemas pueden compartirse con seguridad y confiabilidad. Todavía hay desconfianza en este modelo y el hecho de que el gerente de informática no cuente con una máquina a su alance para administrarla, aún incomoda a algunos profesionales. En la otra modalidad, el cliente opta por dejar el servidor en la propia empresa y hacer todo, desde la administración hasta las actualizaciones con el equipo interno. Pueden observarse algunos cambios en los data center, que pasan a ejercer un nuevo modelo de negocios respondiendo satisfactoriamente al modelo de pago bajo demanda. Estos mecanismos de oferta de productos y servicios centralizados evolucionan y dejan de ser meros proveedores de TI pasando a cubrir toda una infraestructura de producción. Aunque todavía es reciente, esta evolución se caracteriza por el concepto de empresa extendida, modelo que garantiza la adopción de otro concepto: el ecosistema global. La base para la infraestructura de TI de la empresa extendida será la gestión de cambios. Con el modelo de negocio de empresa extendida, resulta viable la creación de un ambiente con sistemas seguros, a pesar de que el profesional de TI tiene como desafío, ofrecer un nivel de servicio adaptable. Con esto, la infraestructura deja de ser vista como una maraña de cables, máquinas y software. Para los analistas, lo importante es abordar la arquitectura de la empresa adaptativa holísticamente, no como una preocupación tecnológica. La empresa se tornará adaptativa después de un tiempo y de haber tomado una serie de decisiones con relación a la arquitectura tecnológica. El departamento de tecnología de una corporación debe ser el mayor facilitador de cambios, teniendo en vista que la flexibilidad es el resorte propulsor de este mercado. Por lo tanto es preciso trabajar en conjunto con otras unidades de la empresa como marketing y recursos humanos, además de de estar siempre muy cerca de los tomadores de decisión de la compañía. Los integradores de tecnología respondieran en masa a algunas de las nuevas alternativas existentes en el mercado, abrazándolas como soluciones enteramente emergentes o migrando de las exhaustivas implementaciones de administración de red de años atrás. Un estudio de Thinkstrategies y de MSP Alliance indicó que la receta de la inmensa mayoría de los socios del canal de distribución creció en los últimos doce meses. Además de eso, el estudio previó que esa
  • 7. tendencia aumentará en la medida en que Utility Computing se torne predominante. Cuando los clientes precisan servicios administrados, quieren saber con absoluta certeza de que son capaces de resolver sus problemas en cuestión de horas o días, no de semanas o meses. En el ambiente de TI actual, los servicios administrados que puedan ser adquiridos bajo demanda, tienen sentido. En busca del éxito El secreto del éxito de las empresas de tecnología está en efectuar una oferta frente a las diferentes necesidades de los clientes que más se acerque a sus motivaciones y estrategias. Lo importante es tener en mente que, a pesar del entusiasmo que pueden provocar las nuevas tecnologías, las organizaciones no se deben desviar de las necesidades de sus clientes, que no están motivados por la tecnología. Si para el mercado consumidor, la conveniencia, la simplicidad y el entretenimiento son factores que motivan la adquisición, para las empresas lo determinante es el valor que la adopción de nuevas tecnologías puede agregar al negocio. El papel del profesional responsable del departamento de TI es, al momento de proporcionar la adopción de Utility Computing, estar atento a los beneficios y a los riesgos que asumirá la empresa; hecho que criará impactos directos en el valor generado tanto para el cliente como para el accionista. 2 - Escenario EL concepto vuelve al escenario de TI En realidad, el concepto de Utility Computing no es nuevo. Podemos decir que es una evolución del modelo de comercialización denominado ASP Application Service Provider o proveedores de soluciones. La forma de comercialización en TI, que prevé solamente el pago de hardware o aplicativos que se utilizan, es una alternativa para empresas que buscan economía y control en el uso de sus recursos de TI. Mediante la automatización tecnológica, las empresas simplifican la
  • 8. prestación de servicios, activando o desactivando recursos de acuerdo con el nivel de la demanda. Lo que transforma a Utility Computing en una tecnología tan interesante es el hecho de permitir que el empresario planifique su estructura de una forma más flexible y simplemente utilice sólo los servicios que le interesan en el momento apropiado. Utility Computing funciona de la misma manera que las actuales cuentas de teléfono celular, en las cuales pagamos solamente por la cantidad de minutos utilizados y pre definidoss. Resumiendo, este concepto reduce los gastos con hardware y costos operacionales, igual que el área de TI con las iniciativas del negocio y disminuye el tiempo para disponer nuevos recursos (o adicionales) a los usuarios. La base para la forma de uso actual de Utility Computing viene de los ASPs (que tuvo sus primeros adeptos en Brasil a finales del año 2000) y es definido como el mecanismo mediante el cual las empresas alquilan sistemas y pagan por su uso, en lugar de comprarlos. Es decir, ASP es un sistema con una estructura computacional centrada, capaz de atender a varias empresas con un único software o hardware. De esta forma, las empresas no precisarían obtener el parque tecnológico (servidores, software, sistemas completos y backbone) necesario para montar su propia infraestructura. Un ejemplo de modelos ASP, que son la base del concepto de Utility Computing, son las operadoras de telefonía, que tienen que preocuparse en ofrecer la mejor tecnología al usuario que, por su parte, tiene que preocuparse sólo en utilizar el aparato telefónico. Uno de los grandes beneficios de este sistema es hacer llegar a los clientes la tranquilidad de estar utilizando un programa que estará siempre actualizado, sin tener que pagar por eso. Uno de los fundamentos del ASP es librar a los clientes de la preocupación por el desarrollo de la tecnología y por la pérdida de tiempo con asuntos que no son foco de su propio negocio, considerando que ofrece la posibilidad de usar tecnologías en forma de servicios, sin riesgos en el desarrollo.
  • 9. ASP rumbo al Utility Computing En 2001, la empresa Vale.com, que es el brazo digital de la compañía Vale do Rio Doce, tuvo la primera experiencia de uso de un ASP en su totalidad. Este proyecto pionero fue implementado por Aspix, empresa de ASP de Xerox, la cual se comprometió a seguir los mandamientos básicos del ASP de forma inflexible. En aquella época, los proveedores del servicio en Brasil cobraban, en general, por la licencia de uso de software. Este hecho daba como resultado un alto costo para utilizar, por ejemplo, programas para administración (ERP). El costo de implementación de un software ERP en una empresa de pequeño porte giraba en torno de R$ 10000. Con el transcurrir del tiempo, los proveedores de soluciones fueron observando que la necesidad del mercado corporativo era proyectar sus ventas en el mundo e-business y, con base en la creciente demanda y en la tendencia tecnológica del e-commerce, fueron alterando la visión en lo que se refería a modelos de negocios, orientándola para el ASP. Una de las ventajas de las aplicaciones utilizadas en el modelo ASP está en su estructura tecnológica, que es compartida por todos los clientes, que las alquilan por valores mensuales. Estos valores están lejos de los elevados costos de adquisición y mantenimiento de hardware y software. En 2003, la mayoría de las compañías todavía sufría con las inversiones exigidas por el bug del milenio y no se registraba interés por nuevos equipamientos de TI. Entonces se intentó resucitar el mercado, que tenía un nuevo comportamiento en respuesta a los cambios en tecnología, como así también alteraciones en la forma de cómo las empresas pasaron a ver a TI. Algunos factores llevaron a una reevaluación y a un cambio en el modelo de negocios por parte de las empresas usuarias. Esto desencadenó la adaptación de los fabricantes y proveedores de soluciones de TI, que buscaban una forma de ofrecer un mejor desempeño a un costo menor. El cambio tecnológico más perceptible fue el aumento de potencia y la disminución del costo de hardware. En el período comprendido entre los años 1993 y 2003, el precio de la capacidad de
  • 10. procesamiento y de almacenamiento cayó de forma considerable. Por otro lado, los gastos con software y mano de obra especializada aumentaron de forma drástica. Diez años antes, el hardware era responsable por la mayor parte de presupuesto del sector de TI. En 2003, ya equivalía a menos del 10%. Existe otro factor que tiene que ser llevado en consideración y es que los ciclos tecnológicos se acortaron, lo que presionó a las empresas a renovar el hardware con más regularidad, además de inhibir el mercado de equipamientos usados. El valor del hardware como activo puede ser despreciado. Como consecuencia, los recursos de leasing pasaron a ser empleados en la compra de proyectos completos, incluyendo licencias de software, elaboración e implementación de sistemas. Antes, frente a la escasez financiera, el financiamiento de tecnología se restringía al hardware de gran porte (mainframe) y midrange. En este momento, TI pasa a ofrecerse como servicio, tendencia que se originó de los desdoblamientos ocurridos en el sentido de la tercerización. La re tomada del uso Cuando se trata de tercerización de procesos de negocios, un único sistema central atiende a varios clientes, que están localizados fuera de la empresa del cliente. En este modelo, las empresas proveedoras ofrecen servicios de instalación y ofrecen nuevos sistemas a cambio del pago de un valor mensual.
  • 11. Es reconocido el hecho de que el concepto de oferta de software como un servicio (ASP) no obtuvo, en aquella época y por diversos motivos, la repercusión y el uso esperados por el mercado. Entre ellos el factor cultural fue bastante importante, considerando que hasta hoy los ejecutivos de TI e inclusive los presidentes de las empresas no se sienten cómodos con el hecho de que los datos confidenciales de sus compañías estén fuera de las mismas. El factor seguridad fue fundamental para que el modelo ASP no fuera acogido. Por otro lado, las facilidades del pay-per-user, o pague por lo que utilice, se mantienen. En Europa, desarrolladores de software de pequeño porte adoptaron este modelo en sus Application Delivery Options. Ellos cobran una tasa mensual, donde los costos con equipamientos, implementación y entrenamiento son embutidos y diluidos a lo largo de un determinado período. Hubo gran dificultad para las empresas que intentaron ofrecer servicios en el modelo ASP, teniendo en cuenta que colocar este sistema en operación acarrea falta de ingresos anticipados. Perfeccionando el concepto Sin este tipo de problemas para enfrentar, gigantes como IBM y HP parten hacia la oferta del concepto pague sólo lo que utiliza. Siempre atentas a las tendencias que el mercado presenta y en busca de una solución para los problemas surgidos en los cambios y necesidades del mercado comprador, las grandes empresas perfeccionaron el modelo, yendo mas allá del objetivo de financiar proyectos en el sector de TI. Ya hace algún tiempo que las organizaciones no están más dispuestas a adquirir tecnologías no solidificadas. No invierten a largo plazo y, por lo tanto, no existen proyectos con duración de diez años. Frente a la necesidad de comprobar el retorno de la inversión (ROI) y de reducir el costo total de propiedad (TCO -Total Cost of Ownership), se hace complicado que los CIOs (Chief Information Office) tracen un plan, inclusive para períodos de dos o tres años. El mercado y las
  • 12. tecnologías se renuevan con tal velocidad que nadie se arriesga a identificar lo que la empresa necesita, ni siquiera para los próximos doce meses. Para resolver situaciones como éstas, las gigantes del segmento de tecnología de la información parten en dirección al desarrollo y mejora de alternativas y funcionalidades como la computación en grilla (Grid Computing), virtualización, tecnologías ASP y redes de banda ancha. Todas estas contribuyen para la viabilidad del concepto de Utility Computing. La gran pregunta de los proveedores interesados en operar en este modelo de comercialización, pero que no poseen una base financiera sólida, es cómo solventar los costos iniciales y asumir los riesgos financieros, ya que son necesarias inversiones pesadas en los sistemas a ser ofrecidos para que, solo después, exista una entrada de dinero con el cobro de la cuota mensual de lo que fue utilizado. Existen empresas que pretenden pasar a proveer soluciones con el concepto de Utility Computing, sin embargo, están imposibilitadas de iniciar el proceso. Todo esto por la cuestión financiera, teniendo en cuenta que el cambio del proceso comercial de recibir una cuota mensual por los servicios utilizados y ya no simplemente la venta de equipamientos es una transición que exige cuidados especiales. Grid Computing para la consolidación
  • 13. Grid Computing es una de las principales bases para la evolución y la consolidación del modelo de comercialización donde se paga por lo que se utiliza. Es una tecnología que permitió la retomada del Utility Computing. Grid Computing surgió hace 36 años y ahora vuelve no sólo en el mercado de TI, sino también en las corporaciones de modo general. Este concepto, que fue ideado en los sistemas en que la energía eléctrica es producida y distribuida según las necesidades, se fue adecuando al segmento de tecnología de la información a lo largo de estos años. Grid, que se traduce como grade o grilla, es definido por Ian Foster, investigador y profesor de ciencias la Computación de la Universidad de Chicago y uno de los mayores divulgadores de estas tecnologías, como una infraestructura de hardware y software que provee de capacidad computacionales consistentes, variables y baratas. Un sistema de computación en grillas interrelaciona y administra funcionalidades y usuarios de diferentes dominios, hecho que permite que el usuario trabaje con recursos de varios servidores, soluciones y bancos de datos. Además, se destaca el uso de protocolos e interfaces padrones, abiertos y de uso general, o sea, un sistema de aplicación específica. Grid Computing está basado en protocolos multipropuesta e interfaces que cuidan de tareas prioritarias, tales como autentificación, autorización, búsqueda de recursos y acceso a datos. Es muy importante que estos protocolos e interfaces tengan un código fuente abierto. Otra definición es que la arquitectura de Grid Computing es una virtualización de los recursos computacionales, incluyendo servidores, redes y almacenamiento. Por colaborar con la reducción del costo total de propiedad (TCO), la computación en grilla se presenta como una tendencia natural para proyectos futuros en las empresas. Como ejemplo, es posible comparar una estación de trabajo con una computadora central y dirigir cuestiones de seguridad, privacidad, pago, etc. La tecnología de grid también puede ser entendida como un sistema local de administración.
  • 14. Los recursos de Grid Computing permiten que las funcionalidades se usen de forma coordinada, para entregar varios servicios de acuerdo con el tiempo de respuesta, rendimiento de procesamiento, disponibilidad, seguridad y colocar múltiples recursos para atender las demandas complejas de los usuarios. La utilidad de un sistema combinado es significativamente mayor que cada una de sus partes. Las caras del Utility Computing Todos estos beneficios y evoluciones, que convergen para el concepto de Utility Computing, hacen que la gran mayoría de los fabricantes de tecnología elija el modelo de pago por lo que se utiliza. Pude ser a través de nuevos productos, como es el caso de IBM y de Oracle, o como en el caso de HP, que estableció una sociedad con la universidad para el desarrollo de grid. Utility Computing se muestra como un modelo de negocios que tiene futuro, después de décadas de discusión y mejoras. En noviembre de 2003, Oracle lanzó en Brasil la base de datos Oracle Application Server 10g, adaptada al concepto. La compañía señala como ventajas de uso de un sistema grid la reducción de costos y la optimización de la capacidad de procesamiento, además de la disminución de ociosidad de procesamiento, utilizando el equipamiento para reducir los estrangulamientos. También en esta época, uno de los destaques estratégicos de IBM ya era el Business on Demand (negocios bajo demanda) El concepto es un sistema que va dentro de la actividad-objetivo del cliente de punta a punta, proporcionando al negocio flexibilidad, agilidad y estructura de acuerdo
  • 15. con la necesidad de quien contrata. El concepto on demand está apoyado en cuatro pilares. El primero es operar en un sistema abierto y padrón. El segundo es que un sistema bajo demanda precisaría desarrollar un método de computación autónoma, o sea, que tenga la capacidad de corregir sus propios errores. Por esto, IBM organizó una red mundial de investigación, que reunió clientes, colaboradores, universidades e inclusive competidores. La complejidad de este sistema de corrección de errores estaba tomando proporciones significativas. El tercer pilar del modelo de IBM está relacionado con las redes, donde el desafío fue identificar una red más inteligente que los modelos existentes y que pudiese beneficiarse de los recursos ociosos. Entonces surgió la recuperación del grid. El cuarto pilar del sistema on demand es conocer el negocio de cada cliente, para proveer soluciones de acuerdo con estas demandas de la forma más adecuada posible. Hubo grandes inversiones de la compañía para la finalización de esta etapa, que culminó con la compra de la empresa de estudios PriceWaterHouse Consulting, por USD 3500 millones. HP actúa efectivamente en dirección al utitlity computing y estrategias regionales de desarrollo de grid. Al identificar entre la comunidad académica de la Universidad Federal de Campina Grande (PB) un interés significativo en Grid Computing, en los trabajos de la facultad de Ciencias de la Computación, la empresa se asoció a la institución y creó el ourgrid. Se trata de un centro de investigación que inició sus actividades en enero de 2003 y trabaja conectada a los proyectos desarrollados por los demás centros de HP en todo el mundo. El primer fruto del trabajo del centro es el MyGrid, que es una solución completa para desarrollo y ejecución de aplicaciones Bag-of-Tasks (aplicaciones paralelas cuyas tareas son independientes) en grids.
  • 16. Adaptive Enterprise, o empresa adaptable, fue el nombre elegido por HP para competir con el modelo de negocios on-demand de IBM y que produjo un cambio de rumbo en su modelo de actuación. Adaptive Enterprise trajo en su planeamiento el lanzamiento de productos, servicios, software, soluciones y una arquitectura de referencia empresarial. El paquete de novedades tuvo como objetivo auxiliar a los usuarios de HP a medir, proyectar y administrar cambios en la estructura de TI, teniendo siempre como meta atender la demanda de negocios. El concepto de HP se apoya en la velocidad de las actualizaciones tecnológicas, que superan la capacidad de adaptación de las empresas usuarias. Todos los productos y servicios del fabricante serán cambiados por el concepto de empresa adaptable, que tiende a la virtualización gradual del procesamiento de aplicaciones, comenzando dentro de las propias empresas. Sin embargo, el objetivo es alcanzar la tercerización total, conforme el caso. Lo que se viene La tercerización u outsourcing forma parte de las tecnologías y conceptos que envuelven al Utility Computing, sistema en que solamente se paga por lo consumido y que puede implementarse en la propia empresa usuaria o fuera de ésta. Así como las otras tecnologías, el outsourcing ha pasado por un proceso evolutivo que actualmente, según la Internacional Data Corporation IDC, se define en tres tipos: El primero consiste en el modelo tradicional, que delega a las empresas prestadoras de servicios la infraestructura, las aplicaciones y la red de voz utilizada por la empresa, por ejemplo. La
  • 17. segunda se conoce como adapting computing y ajusta el pago de los servicios de TI de acuerdo con el uso por parte del contratante. Ya Utility Computing es la tercera fase de este proceso evolutivo y se refiere al uso de los servicios de TI en función de las necesidades de las empresas, tal como se procede con los casos de consumo de agua y de electricidad, por ejemplo. Para el instituto de investigación, la fase que actualmente el mercado está vivenciando es el inicio de la segunda y es posible que demore aproximadamente 10 años hasta que adapting computing sea totalmente aceptado por las corporaciones. La tercera fase todavía es visionaria y puede demorar mucho hasta tornarse realidad, aunque, desde el punto de vista conceptual Utility Computing tiene bastante sentido. Utility Computing y todas las tecnologías que lo están impulsando, tales como banda larga, mejoras en seguridad, ASP y Grid Computing, permiten la transformación de costos fijos en costos variables. Con eso, el mercado está atento a esta tendencia, por proporcionar ganancias de productividad. Utility Computing, como todo indica, es inevitable en las empresas que necesitan reducir costos y justificar inversiones. 3 - Pros y Contras Un paradigma en el modelo de negocios Como ya fue abordado en los módulos anteriores, el mercado también entiende Utility Computing como sinónimo on demand computing, o negocios a medida. En este modelo también existen aspectos positivos y negativos. En el mismo, los recursos tecnológicos y computacionales son dispuestos para una organización que en determinado período tiene necesidad de obtener los recursos computacionales para procesar grandes cantidades de datos, o aún, que necesite recursos adecuados para analizar todos los datos obtenidos. En ese caso, por ejemplo, es posible utilizar servidores externos que provean la capacidad extra de los recursos solamente en los períodos críticos específicos. Es necesario aclarar, y subrayar, que en otro escenario dentro de la propia organización, el concepto de Utility Computing abarca el Grid Computing. Esto ocurre cuando una empresa destina recursos de TI para los usuarios internos de forma individual, en la medida de su necesidad. Por ejemplo, recursos computacionales como ciclos del procesador central,
  • 18. disponibilidad del ancho de banda, aplicaciones y almacenamiento pueden ser canalizados a los usuarios basados en las tareas que están ejecutando en horarios determinados. Si un grupo de usuarios estuviera trabajando con aplicaciones que demandan un gran ancho de banda, el mismo podrá ser dirigido de forma específica, siendo desviado de otros usuarios que no necesiten el ancho de banda en aquel momento. Los recursos a medida pueden ser internos de la empresa, que es el modelo de Grid Computing o la compañía puede tercerizar sus necesidades adicionales momentáneas, con un proveedor de servicios externos. Evaluando el concepto Utility Computing así como otros conceptos ofrece ventajas y desventajas a las empresas usuarias. El beneficio de Utility Computing es que la corporación usa sus recursos de forma más eficiente, poniendo a disposición solamente la capacidad y las facilidades necesarias para ese determinado momento o tarea. Con ese modelo, la empresa paga solamente por los recursos adicionales realmente utilizados, como la cuenta de energía eléctrica, por ejemplo. Otro punto fuerte es el tema del costo, que puede ser mejor administrado y sufre una considerable reducción, ya que se paga sólo por lo que se utiliza, conforme la necesidad de la compañía, sin el costo de la capacidad ociosa por largos períodos. Quien piensa en adoptar el modelo Utility Computing debe saber exacta y claramente lo que quiere, lo que necesita. Al contrario, los modelos ASP y outsourcing comenzaron con base en la infraestructura de TI y la pregunta era ¿cómo mejorarlo? Utility Computing es funcionalidad de TI con base en la demanda, mientras que los otros dos modelos son recursos tecnológicos, infraestructura, y/o aplicaciones para alquilar. Utility Computing es un servicio que demuestra beneficios más tangibles y los otros dos son opciones que presentan aspectos ambivalentes para los usuarios con relación al comercio tradicional. Los gerentes o CIOs declaran que les gustaría comenzar a aplicar el modelo de Utility Computing con confianza y en forma rentable, con costo efectivo sobre lo que utilizan. La analogía establecida con la forma de cobranza de las empresas públicas de electricidad, de agua, y de telefonía (utilities) es apropiada, porque los servicios realizados hoy por esas empresas tienen costo accesible para la mayoría de la población y cuentan con la confianza total de los usuarios. Un verdadero proveedor de funcionalidades a medida, construye una arquitectura de TI fundamental, de tal manera que examina las ventajas, sea de Internet o de recursos compartidos de la aplicación, por ejemplo, de una base de datos.
  • 19. Los modelos ASP y outsourcing suponen la ejecución de un contrato tradicional de software, de licencia y de mantenimiento, que incentiva precios excesivamente altos de funcionalidad. El ingreso de un proveedor Utility Computing, en el cual se paga lo que se utiliza, depende de la entrega de la funcionalidad necesaria y solamente cuando el usuario la solicita. Entonces, en ese modelo, las barreras entre los proveedores de servicios caen considerablemente. Como resultado, los proveedores de servicio tendrán una capacidad de respuesta significativamente mayor que los departamentos internos de TI de una empresa, así como las tercerizaciones y los ASPs. Las diferencias entre Utility Computing y los modelos del ASP y del outsourcing están enumeradas en la tabla que sigue. Utility Computing es un modelo nuevo, aunque algunos de sus adeptos no estén completamente de acuerdo. Pero una cosa es verdad: muchos de los interesados van a analizar las ventajas del crecimiento de la demanda de Utility Computing. Porque ese concepto tendrá éxito donde otros fallen, defienden algunos analistas del mercado. No se tiene la fecha exacta del surgimiento del primer proveedor de servicios de aplicaciones ASP, pero ya a comienzos del año 2000, en Estados Unidos, ese concepto se transformaba en la mejor noticia que el mercado recibió desde el surgimiento de las propias aplicaciones. Bajo cierta perspectiva, el sincronismo entre la oferta y el mercado comprador era bueno. Los creadores del ASP podían atender las grandes expectativas llegadas con la explosión de las empresas dot.com. En esa ocasión, buena parte de las compañías, inclusive las grandes empresas de telecomunicaciones como la AT&T y la Sprint entraron en la onda de los ASPs. Parecía que el concepto lo tenía todo como para ser un éxito. Un tercer proveedor que va a operar y mantener las aplicaciones del usuario, ofreciendo como resultado economías de costo y mejor desempeño. El único problema que no tuvieron en cuenta fue que no convencieron a los usuarios. Las empresas que ofrecían la comercialización de soluciones vía modelo ASP tenían pocos argumentos y se apoyaron en una propuesta débil del valor: las economías de costo disponibles para hospedar otras aplicaciones. Los usuarios hicieron una comparación y no se impresionaron con lo que vieron. Es comprensible la falta de entusiasmo de ese usuario debido a factores como la economía mínima, los modelos de negocio cuestionables de muchos de los ASPs y las consecuencias de la falla de ese modelo. Para muchos, hoy el término ASP llega a tener una connotación negativa y está de cierta forma, próxima a transformarse en una reseña como referencia histórica. La mayoría de los proveedores se retiró de ese mercado. Sin embargo, algunos ASPs perduraron por la esperanza de mejoras en la cartera comercial, o simplemente cumplen las obligaciones contractuales. En busca de la simplicidad tecnológica Una empresa de mediano porte se ve de manos atadas frente al desafío de encontrar proveedores de servicios a medida. Los centros de datos quedan separados del recurso. Las
  • 20. potencialidades de almacenamiento y de comunicación presentan un área casi incontrolable de crecimiento y los usuarios están exigiendo constantemente funcionalidades adicionales. Grandes cambios vienen ocurriendo en el segmento de tercerización de TI ocasionados por de las exigencias del mercado, cada vez más competitivo. Los modelos tradicionales están siendo substituidos por servicios cobrados conforme al uso, ampliamente adoptados por empresas de mediano porte, que buscan atender a la demanda de sus recursos de TI sin tener que desembolsar grandes cantidades de dinero. Para la mayoría de las empresas de SMB (small and médium business) o las de pequeño y mediano porte, la administración de las funcionalidades tecnológicas es una tarea que demanda altos costos y no disponen de recursos suficientes. No obstante, es preciso implementar y operar las tecnologías y los aplicativos como administración de e-mail, seguridad de los datos y protección contra virus; administración de red, CRM y ERP, entre otros. Otro problema que debe ser considerado, son los intentos de invasión de las redes, que interrumpen el funcionamiento de muchas empresas. Números del mercado muestran que el 54% de las grandes empresas cuentan con un plan estratégico, pero solamente el 28% de las pequeñas y medianas cumplieron ese plan. El concepto de Utility Computing proporciona el acceso, a este tipo de empresa, a una mejor administración de sus costos y recursos tecnológicos. Hasta poco tiempo atrás, o contrataban mano de obra o tercerizaban las tareas; ambas acciones incurrían en costos que no podían asumir. Con el concepto de pagar solamente por lo que se usa, los riesgos son transferidos al proveedor de soluciones y, con ello, se gana flexibilidad y competitividad. Con ese modelo, empresas del SMB tienen la oportunidad de utilizar nuevas tecnologías, antes privilegio de las grandes, además de tener acceso a la infraestructura en tiempo real y a compartir los recursos de TI. De acuerdo con el Gartner, hasta el año 2007, el 30% de todas las empresas adoptarán el modelo Utility Computing, siendo que actualmente, el 15% de las empresas ya utilizan ese modelo, principalmente en los países desarrollados. Según el instituto de investigaciones, entre el 10% y el 20% de los costos totales de la operación son destinados al área de tecnología de forma directa o indirecta. En el modo de cobranza del Utlity Computing, es posible que el cliente determine el día de pago. Se puede alcanzar una reducción de hasta el 50% en el costo total de operaciones de TI por parte de las pequeñas y medianas empresas, sin contar que el costo de actualización de softwares vía modelo Utility Computing puede llegar a una reducción de hasta el 30% al año.
  • 21. Tiempo también es dinero, por eso se debe considerar la reducción de costos en lo referente al tiempo empleado para investigar y mantener los innumerables proveedores de TI. Para las empresas del SMB, el costo para detectar un proveedor es dos veces mayor que el de las corporaciones. En el SMB, es el 29% de los costos totales de contratación y en las empresas de gran porte esos costos son del 14%, de acuerdo con el Gartner. Para los defensores del Utility Computing, las empresas pueden tener un planeamiento adecuado, ser más competitivas, e invertir en el negocio lo que gastarían en infraestructura tecnológica y sus up grades. Utility Computing, definido como una herramienta poderosa capaz de reducir costos y complejidad, tiene una vasta lista de tecnologías que promueven una reestructuración en la estrategia, haciendo una empresa adaptable, ágil y operando conforme la demanda. El factor más fuerte asociado al concepto es la sencillez. En un contexto específico de un centro de datos, de un sistema de CRM, de maximizar la corriente de fuente, del almacenamiento o del modo de pago por servicios de mantenimiento contra entrega, la facilidad y la sencillez son columnas claves del modelo Utility Computing. Transformando el modelo del outsourcing Una empresa de mediano porte se ve de manos atadas frente al desafío de encontrar proveedores de servicios a medida. Los centros de datos quedan separados del recurso. Las potencialidades de almacenamiento y de comunicación presentan un área casi incontrolable de crecimiento y los usuarios están exigiendo constantemente funcionalidades adicionales. Grandes cambios vienen ocurriendo en el segmento de tercerización de TI ocasionados por de las exigencias del mercado, cada vez más competitivo. Los modelos tradicionales están siendo substituidos por servicios cobrados conforme al uso, ampliamente adoptados por empresas de mediano porte, que buscan atender a la demanda de sus recursos de TI sin tener que desembolsar grandes cantidades de dinero. Para la mayoría de las empresas de SMB (small and médium business) o las de pequeño y mediano porte, la administración de las funcionalidades tecnológicas es una tarea que demanda altos costos y no disponen de recursos suficientes. No obstante, es preciso implementar y operar las tecnologías y los aplicativos como administración de e-mail, seguridad de los datos y protección contra virus; administración de red, CRM y ERP, entre otros.
  • 22. Otro problema que debe ser considerado, son los intentos de invasión de las redes, que interrumpen el funcionamiento de muchas empresas. Números del mercado muestran que el 54% de las grandes empresas cuentan con un plan estratégico, pero solamente el 28% de las pequeñas y medianas cumplieron ese plan. El concepto de Utility Computing proporciona el acceso, a este tipo de empresa, a una mejor administración de sus costos y recursos tecnológicos. Hasta poco tiempo atrás, o contrataban mano de obra o tercerizaban las tareas; ambas acciones incurrían en costos que no podían asumir. Con el concepto de pagar solamente por lo que se usa, los riesgos son transferidos al proveedor de soluciones y, con ello, se gana flexibilidad y competitividad. Con ese modelo, empresas del SMB tienen la oportunidad de utilizar nuevas tecnologías, antes privilegio de las grandes, además de tener acceso a la infraestructura en tiempo real y a compartir los recursos de TI. De acuerdo con el Gartner, hasta el año 2007, el 30% de todas las empresas adoptarán el modelo Utility Computing, siendo que actualmente, el 15% de las empresas ya utilizan ese modelo, principalmente en los países desarrollados. Según el instituto de investigaciones, entre el 10% y el 20% de los costos totales de la operación son destinados al área de tecnología de forma directa o indirecta. En el modo de cobranza del Utlity Computing, es posible que el cliente determine el día de pago. Se puede alcanzar una reducción de hasta el 50% en el costo total de operaciones de TI por parte de las pequeñas y medianas empresas, sin contar que el costo de actualización de softwares vía modelo Utility Computing puede llegar a una reducción de hasta el 30% al año. Tiempo también es dinero, por eso se debe considerar la reducción de costos en lo referente al tiempo empleado para investigar y mantener los innumerables proveedores de TI. Para las empresas del SMB, el costo para detectar un proveedor es dos veces mayor que el de las corporaciones. En el SMB, es el 29% de los costos totales de contratación y en las empresas de gran porte esos costos son del 14%, de acuerdo con el Gartner. Para los defensores del Utility Computing, las empresas pueden tener un planeamiento adecuado, ser más competitivas, e invertir en el negocio lo que gastarían en infraestructura tecnológica y sus up grades. Utility Computing, definido como una herramienta poderosa capaz de reducir costos y complejidad, tiene una vasta lista de tecnologías que promueven una reestructuración en la estrategia, haciendo una empresa adaptable, ágil y operando conforme la demanda.
  • 23. El factor más fuerte asociado al concepto es la sencillez. En un contexto específico de un centro de datos, de un sistema de CRM, de maximizar la corriente de fuente, del almacenamiento o del modo de pago por servicios de mantenimiento contra entrega, la facilidad y la sencillez son columnas claves del modelo Utility Computing. Transformando el modelo del outsourcing Según datos del instituto de investigaciones Gartner, hoy Utility Computing está en el camino de ser la fuerza que más influenciará el outsourcing con consecuencias a largo plazo, además de la tendencia off-shore. Una de las fallas del modelo tradicional del outsourcing fue la necesidad de adelantarse a las demandas del negocio en hasta 10 años. Esto afecta frecuentemente el precio y provoca el resentimiento del mercado. Ahora algunas compañías, incluido el sector bancario en Estados Unidos, abrieron nuevos caminos en el outsourcing utilizando ese concepto a medida. Los resultados son algo que ningún ejecutivo debe ignorar. Aspectos jurídicos En ese modelo, en lo que atañe a negocios, los temas a ser considerados incluyen confidencialidad, seguridad de la Información (observando la norma BS7799), privacidad, responsabilidad frente a terceros, exclusividad, protección de equipos y principalmente de dominio de conocimiento, que no necesariamente está siendo transferido en el contrato y puede ser cedido solamente en uso. Con esto, gana relevancia la cartera de contratos, que deben ser administrados por el ejecutivo de tecnología, tales como los de prestación de servicios, conocidos como Service Level Agreements (SLA) y contratos de tercerización de procesos, conocidos como Business Process Outsourcing (BPO). En 2004, un estudio del instituto de investigaciones Gartner afirmaba que el mercado de BPOs sería de USD 240 billones. En muchas empresas, el buen cumplimiento de esos contratos puede significar la continuidad o la ruptura de toda la cadena de entrega de un servicio. Las tareas del CIO también se alteran. La función de administrar un equipo de técnicos pasa a ser la administración de contratos. Transformar costos fijos en costos variables, riesgos en oportunidades, son las ventajas que pueden ser señaladas. Aún hay cuestionamientos sobre tercerizar servicios no esenciales y dejar en la empresa aquellos que requieren confidencialidad y mayores cuidados.
  • 24. En Brasil, existen estudios y seguimientos jurídicos en lo que atañe al outsourcing; se prevén los modelos de tercerización de mano de obra y de servicios y aplicaciones. Cuando el tema son personas, se deben considerar los riesgos respecto al fraude laboral, de derechos de autor, de privacidad y de responsabilidad frente a terceros. Si la mayor parte de las empresas de servicio es remunerada por procesos de conocimiento, entonces es muy importante mantener esos riesgos medidos y administrados de manera tal que no se tenga un costo mayor con la tercerización que con la ejecución de la actividad por la propia empresa. Un formato interesante es el uso del modelo de franchising, substituyendo el de cooperativas que ya no resuelve de la mejor forma la situación del punto de vista laboral. La tercerización, al contrario de los ASPs, tiene una larga historia en el mundo del suministro de servicios y mano de obra en TI y continúa ejerciendo una atracción sobre determinado segmento del mercado comprador. Todavía, a pesar de su longevidad, hay pocos clientes descontentos con el outsourcing, pero muchos usuarios tienen una pregunta a ser respondida: si están comenzando un negocio bueno o no, cuando optan por la tercerización de sus servicios. La queja más común sobre el outsourcing puede ser parafraseada como "la productividad no es mejor con la tercerización, de lo que sería con recursos internos, pero hay menos control y altos costos". No es posible afirmar si esta frase es verdadera o no, al menos el comentario replantea un problema con el formato de tercerización: no hay manera eficaz para medir el desempeño y establecer una comparación. La única línea de base que la mayoría de las compañías tiene para trazar un parámetro es la productividad medida en sus propios departamentos de TI antes de adoptar el outsourcing. La pregunta que el CIO debe hacer para obtener esa medida es: ¿de cuánto era la productividad interna antes de la tercerización? La satisfacción del cliente se transforma en la única forma de medir su desempeño, ya que en el outsourcing y en los contratos del ASP existe la necesidad de desarrollar una lista de adquisiciones en TI y obtener métricas de desempeño. Aristas a ser pulidas Por más vital que sean el control y la eficiencia del costo, en realidad Utility Computing no proporciona en sus oportunidades, la creación y el crecimiento del conocimiento y la capacitación de profesionales. El mercado se resiente mucho por la falta de claridad en torno de las funcionalidades de Utility Computing. Por no dejar claro la propia definición de ese modelo de negocios y también por tener
  • 25. una actuación tímida, algunos de los fabricantes que esperan beneficiarse de la tendencia, contribuyeron a la confusión y las dudas planteadas sobre el concepto. Como consecuencia, los usuarios se están esforzando para percibir la diferencia entre Utility Computing, ASP y tercerización. Así como actuaron los proveedores de servicio de la aplicación (ASPs) y el outsourcing (tercerización) que se precipitaron con argumentos de reducción de costos y reducción de la complejidad de TI, fabricantes comprometidos con el Utility Computing también iniciaron la divulgación del concepto con esos argumentos. La tarea ahora es explicar porqué Utility Computing tendrá éxito donde fallaron los otros dos modelos de comercialización. Para algunos especialistas, un ejemplo está en la nueva zafra de proveedores de CRM a medida. Por un lado, ofrecen un ejemplo simplificado de cómo Utility Computing brinda nuevas oportunidades de crecimiento. Por otro lado, el mercado está siendo impulsado a una situación que aún no está totalmente clara, con el modelo de software que licencia, cada vez más, bajo amenaza. Sus proveedores de software favoritos, ¿sobrevivirán al torbellino? Como las potencialidades específicas y las aplicaciones a medida son imputadas cada vez más al modelo Utility Computing, la relación con el proveedor será cada vez más profunda. Los early adopters (o locos por novedades y que salen al frente) de esas aplicaciones podrán percibir que Utility Computing no tendrá las mismas fallas que el modelo ASP. El costo por tiempo de servicio, el tiempo de implementación y las ventas están siendo impulsados por una mayor colaboración del cliente y por nuevas asociaciones. No se engañe sobre el proveedor: a pesar del confiable marketing de la mayoría de ellos, algunos tienen una preparación mejor en la oferta del concepto que otros. La clave para usted y su compañía es determinar cuáles de ellos representan la mejor elección. Las exigencias del mercado provocan modificaciones en la relación entre TI y la estrategia de negocios; esta situación es hoy evaluada y se hace más necesaria que nunca para la supervivencia de la corporación, según los movimientos bajo el concepto de la administración en TI. No obstante, Utility Computing representa un desplazamiento enorme en la conducción de la actividad fin y remueve muchas barreras entre el área de tecnología y la estrategia de negocio de una corporación. Para innumerables compañías, el contrapeso de poder se está desplazando y ajustando al éxito obtenido en el pasado. !img/cursos/Utiliy_modulo-3_img-1_es.gif!
  • 26. 4 - Modelos de oferta y Cotización Nuevos modelos de negocio disponibles en el mercado Todo indica si depende del empeño de algunas empresas proveedoras que el modelo de comercialización que sigue la filosofía de pagar por lo que se utiliza vino para quedarse. Todavía en fase inicial, no obstante, sin vuelta, en la opinión de analistas del mercado de TI, Utility Computing poco a poco, va dejando atrás el modelo tradicional de compra de tecnología y sus funcionalidades. Esa es la perspectiva, aunque aún discutible, porque es necesario dar un tiempo para que el concepto madure, se transforme en una práctica usual y se consolide, así como sucede con el suministro de energía eléctrica. El nuevo modelo, basado en antiguos conceptos como los ASPs (Application Service Providers) o proveedores de aplicaciones que cobran un alquiler mensual por el suministro de software, trae innumerables modificaciones en la forma de comercialización y en las funciones de los CIOs (Chief Information Officer). Todo esto requiere cambios culturales y lleva algún tiempo, como muestra la historia. Algunos cuidados y opiniones de terceros sobre el proveedor de los productos y servicios de Utility Computing pueden ayudar en la elección del socio adecuado. Dentro del nuevo modelo de negocios, el usuario precisa estar atento en cuanto a la elección del proveedor. Algunos aspectos son fundamentales y deben ser analizados en este momento. El comprador debe certificarse de que el prestador de servicios no esté pasando por dificultades financieras, que sea una empresa sólida. No es una regla, pero normalmente las empresas competentes son renombradas, por lo tanto, procure aquellas con tradición en el mercado. Flexibilidad en el contrato es factor primordial, entonces el usuario debe buscar un asociado que ofrezca un SLAs - Service Level Agreements, que trata de las obligaciones de los prestadores de servicio para con los clientes, compatible con las necesidades de la empresa. Asegúrese de que la línea de trabajo y la forma de actuación del proveedor son las mismas que las suyas; que existe sintonía. Y, por último, vaya hasta otro cliente del potencial asociado, donde ya exista un proyecto implementado, y converse con él. Si no fuera posible, por lo menos obtenga informaciones sobre el proveedor por teléfono o e-mail. Adaptación del profesional
  • 27. Con la adopción del modelo, los profesionales responsables por administrar departamentos de tecnología en las empresas pasan a ejercer funciones distintas a las inherentes al modo tradicional, cuando se discutían las especificaciones técnicas y comerciales para la adquisición de equipamientos o de soluciones. Con Utility Computing, los CIOs pasan a administrar y a responder por los contratos de nivel de servicio ofrecidos por los proveedores contratados, también conocidos como SLA. Frente al nuevo modelo, otras áreas de la compañía como marketing y finanzas, además de la alta administración también se involucran en la toma de decisión respecto al rumbo tecnológico de la empresa. Esta función antes era ejercida solamente por los profesionales de TI. Por lo tanto, cambia también el perfil del CIO, que tiene de adquirir un perfil más comercial y de marketing. Es fundamental que tengan poder de convencimiento, ya que será necesario, muchas veces, defender la implementación de proyectos o la adopción de una nueva tecnología. Todo ello implica también demostrar el ROI (retorno de la inversión) frente a los dueños o presidentes de las compañías. Formas de pagos variables Reducir los costos y la complejidad de los ambientes de TI es la premisa básica, de donde parten los fabricantes para ofrecer a sus clientes productos y servicios en Utility Computing, en que el cliente paga solamente por el uso en determinado período. En una era en que la computación en red tiene su base en la infraestructura, surgen innumerables oportunidades de negocios para una gama de prestadores de servicios, además, claro, de los fabricantes. Uno de los grandes problemas enfrentados por proveedores y consumidores es la cuestión de cómo cobrar por los servicios a medida. Existen diversas formas en práctica, sin embargo, aún no hay un estándar definido. Hay planes de pagos que prevén la utilización efectiva o apenas proyectada del consumo. Son alquileres fijos, o el costo por el uso de Megabytes, por ejemplo. Existen mecanismos y softwares para contarlos. En cuanto al desempeño, puede ser medido por métricas a ser definidas por el usuario. Para la integración de productos, servicios y financiamientos que van a cubrir las necesidades tecnológicas del cliente, algunos proveedores ofrecen varias opciones de bajo costo. La propuesta es transferir de forma gradual los recursos de TI, de acuerdo con la demanda, con flexibilidad para adaptar la infraestructura, conforme a las variaciones de pico del procesamiento. La empresa HP, por ejemplo, ofrece las soluciones Utility Pricing, que prometen mayor control sobre la utilización y sobre los costos, sin perjudicar el desempeño. El fabricante ofrece un plan de pagos con base en la utilización real o planificada.
  • 28. Proveedores se adaptan al concepto A pesar de la falta de un estándar, inclusive por tener aún un bajo índice de implementación, proveedores de Utility Computing intentan adecuarse a la nueva manera de vender TI. Existen formas diferentes de ofrecer las soluciones en el mercado, de cobrar por ellas e, inclusive, diferentes modelos del mismo concepto. Y, por ahora, ninguna de ellas se transformó en referencia para establecer un estándar. Una de las formas adoptadas por fabricantes hasta el momento, para cobrar por el uso, es establecer un valor para cada Megabyte utilizado en una infraestructura que, acumulados, formarán el valor a ser pago por el cliente en el mes. Así, si una compañía cobra USD 0,02 por Megabyte y el cliente utiliza tan sólo a modo de ejemplo 1 mil Megabytes, trascurridos los treinta días, el cliente tendrá que desembolsar USD 20. La principal ventaja del modelo de negocio ASP (Application Service Provider) para la oferta de software, que es exactamente la fórmula de pague conforme usa, atrae hoy a los proveedores, a pesar de que el ASP no haya tenido éxito entre los usuarios, como ya fue abordado en capítulos anteriores. Algunos fabricantes de pequeño porte, principalmente de Estados Unidos, han adoptado ese modelo en la entrega de sus sistemas de TI. O sea, no cobran anticipadamente por el equipamiento, implementación y capacitación; al contrario, estos costos se incluyen en la tasa mensual y lo distribuido a lo largo de la duración del contrato; recordemos que se cobra una cantidad fija por usuario. Para esos pequeños proveedores, es difícil pasar a operar en ese formato de comercialización, porque no pueden contar con ingresos anticipados. En función de ello, muchos buscan financiamiento, teniendo en cuenta que la mayoría de los fabricantes no puede asumir el riesgo para conquistar el mercado de Utility Computing. El mayor desafío de los fabricantes de pequeño porte, que no cuentan con capacidad financiera para sustentar el inicio de operaciones de Utility Computing, es desarrollar los sistemas para, sólo después, cobrar una tasa mensual por lo que el cliente utilizó. Es una inversión inicial pesada y el pasaje de la simple venta de hardware a la comercialización de servicios, en el que se recibe una tasa mensual, constituye una transición compleja. Por otro lado, players como IBM, Sun Microsystems, Oracle, Cisco, EDS, Intel y HP, entre otros, tienen enorme resto financiero para mantener los beneficios del modelo ASP y aprovecharlos en el Utility Computing. Con la adhesión de esas grandes empresas, el modelo recibe mejoras y
  • 29. perfeccionamientos, además de obtener mayor divulgación. No es casualidad que esos fabricantes se hayan volcado hacia la venta de tecnología a medida. Hay iniciativas significativas para el desarrollo de formas inéditas de financiar recursos para el usuario final. Inclusive porque hay indicios, tanto en el área de negocios como en tecnología, de que se da un cambio en el modo en que las personas perciben la tecnología de la información. Y como no podría dejar de ser, las gigantes están observando el mercado y anticipándose a sus tendencias, las cuales muchas veces son impuestas por esas mismas empresas. Las compañías líderes de la industria de procesadores, sistemas operativos y de red, entre ellas, Intel, Microsoft y Cisco, están guiando los estándares por medio de iniciativas conjuntas de mercado y desarrollo tecnológico. En tiempos de crisis y escasez financiera, todos tienen que economizar, presentar retorno (también llamado, por algunos, recuperación) de las inversiones y presupuestos enjutos. Respecto al factor económico, no existen más aquellos grandes y largos proyectos de tecnología que se arrastraban por años en las empresas. Hoy, el cliente quiere agilidad, economía y flexibilidad, porque el CIO necesita resultados concretos y con retorno rápido al reportarse a los accionistas de las corporaciones o a sus superiores. Para llegar a una ecuación para resolver el problema, la industria de TI se valió de tecnologías, conceptos y funcionalidades más antiguas que, por alguna razón, no funcionaron, y rescataron su aspecto positivo. Sumaron las tecnologías actuales y el resultado es el Utility Computing, viabilizado por el advenimiento de las conexiones en banda ancha, de las tecnologías de virtualización (capacidad virtual de protección y recuperación en caso de falla física) y de Grid Computing (grade de procesamiento), además de aspectos positivos del ASP. El movimiento de la industria La propuesta aquí no es enumerar todo lo que existe en el mercado en productos y servicios orientados al Utility Computing, sino mostrar qué y cómo algunos fabricantes están empeñados en hacer, para que el concepto de pagar por el uso, o el per-pay-use, se afirme. Evitando, de esa forma, lo que ocurrió con el modelo ASP. IBM dio la largada para todo ese movimiento y está prácticamente toda dirigida para el concepto a medida, con la casi totalidad de su cartera adaptada al concepto. Sun Microsystems Sun Microsystems, por ejemplo, adhirió definitivamente al concepto de Utility Computing. Por lo menos, es lo que indica el hecho de que la compañía haya lanzado más de 30 innovaciones
  • 30. tecnológicas, productos, soluciones, servicios y modelos de negocios basados en el concepto. Para ofrecer a los clientes una alternativa a los patrones de costo fijo, practicado actualmente por la industria de TI, o sea, el modo tradicional de comercialización, Sun propone nuevos modelos de suministro, de precios y de servicios. Entre ellos están el Sun Preventive Services, que fue desarrollado para reducir costos y aumentar los niveles de eficiencia de los data centers y cuenta con más de 100 diferentes servicios, integrados en una única cartera. El Sun Utility Computing fue formateado para sistemas y su costo se basa en el Sun StorEdge Power Units, con precio inicial de USD 0,02 por Megabyte, y el valor cobrado sobre lo que se utiliza será mensual. Lo que distingue al modelo de la Sun, de otras formas de presentar el Utility Computing, es que el Power Unit ofrece una combinación de hardware y software asociada a servicios, incluyendo instalación, soporte SunSpectrum Platinum, administración por el portal Sun StorEdge y las principales licencias de software. Los creadores de software, también conocidos como Independent Software Vendors (ISVs) pueden trabajar en el sistema a medida. Para ello, la empresa ofrece tecnologías para desarrollo de servicios de red, que es una versión del sistema operativo Solaris plataforma en ambiente UNIX, la segunda edición del Java Enterprise System y del Java Desktop System y la nueva cartera de productos de administración de identificación. Entre otros productos que están bajo el concepto de Utility Computing encontramos el servidor Netra 440, equipamiento robusto, con cuatro procesadores UltraSPARC, rodando Solaris 64-bit y complementado por los nuevos NEBS- storage arrays; el Sun Java System RFID Software y el Sun Java Desktop System 2, con herramientas de administración integradas, proporcionan al usuario el control total sobre el ambiente PC de escritorio, aplicaciones, licencias de uso y políticas de interface. Actuación de Intel También atenta al movimiento del mercado, Intel prepara sus chips con la tecnología de virtualización, tecnología facilitadora para la consolidación del Utility Computing. Esa tecnología va a simplificar el proceso de que un software corra en diferentes sistemas operativos, en una única plataforma. Para que quede más claro, la virtualización permite el acceso, la administración y la utilización de los recursos existentes por varios medios. En el caso de storage, por ejemplo, ya que los datos no están asociados a dispositivos específicos de hardware, la virtualización permite un nivel sin precedentes de flexibilidad en la utilización de recursos. El suministro consiste en proveer a los usuarios o a las aplicaciones, la cantidad y el mejor tipo de almacenamiento, en el momento justo. La virtualización hace mucho más fácil ese proceso. La compañía tiene planes de inserir la tecnología de virtualización, llamada VT, para la línea de
  • 31. procesadores Pentium para PCs en el tercer trimestre del 2005 y, en breve, para el Itanium y Xeon en los servidores. El Centrino, procesador destinado a equipamientos móviles, debe agregar virtualización en el primer semestre del 2006. Actuación de HP En la onda de la virtualización y estandarización, HP ofrece un ambiente donde los recursos tecnológicos son reunidos, compartidos y puestos a disposición conforme la demanda del cliente, que no tendrá una infraestructura más, sobredimensionada y onerosa. Estandarización es la llave maestra de la estrategia Adaptive Enterprise, adoptada por la fábrica. Las soluciones enfocan tres áreas principales que representan un aumento del valor para los negocios y una importancia estratégica para las empresas: virtualización de elementos, virtualización integrada y soluciones completas de utility. Entre los ejemplos de soluciones están el HP-UX Workload Manager, el mecanismo inteligente de políticas del HP Virtual Server Environment, que permite mover recursos automáticamente para atender la SLAs (Service-Level Agreements), que ahora ofrece cambios automáticos y dinámicos de licencias Instant Capacity on Demand entre nPars o particiones. El software también tiene una interface perfeccionada y está más integrado al HP Serviceguard; el Instant Capacity on Demand para HP ProLiant BL ofrece servidores blade que siguen estándares de la industria, listos para funcionar, que pueden ser activados conforme la necesidad. Al usar un blade, se cobra al cliente automáticamente por el uso del servidor el porcentaje de la infraestructura y el HP Utility Data Center Automated Service Usage, que permite efectuar cobranzas con base en el consumo, automatizar las funciones de recaudación y cobranza por el uso de servicios de TI. Los procesos de negocio pueden apoyarse en la infraestructura de TI, por medio del suministro de servicios basados en portales y de la ubicación dinámica de recursos, ayudando a las empresas a concretar infraestructuras auto administradas y auto recuperables. Para el área de telecomunicaciones, la cartera de la empresa contiene el OpenCall de software para soluciones interactivas de voz (basadas en el VoiceXML), señalización de redes (basadas en el SS7) y LBS (Location Bbased Services). HP también ofrece tecnología y procesos como parte de su menú de servicios administrados a medida, aumentando la flexibilidad financiera y permitiendo la tercerización estratégica para clientes que buscan soluciones de virtualización. Actuación de Microsoft Microsoft actúa en el mercado a medida con paquetes de soluciones para CRM 3.0. Esa nueva versión del producto tiene como previsión poder llegar al mercado a fines del 2005 y las nuevas aplicaciones serán ofrecidas por el modelo de cobranza en que el usuario paga por lo que usa.
  • 32. Actuación de Veritas Software / Symantec Veritas creó las soluciones SRM, que ayudan a la emigración para el Utility Computing, en el área de almacenamiento. Los profesionales de TI, con las herramientas SEM, tratan la administración de storage desde todos los ángulos. La solución está compuesta por SANPoint Control, que cubre la administración física del storage; por el Veritas Storage Repórter, que se ocupa de la administración lógica y por el Service Manager for Storage, que realiza las funciones administrativas del negocio. O sea, estas tres herramientas trabajan juntas para alcanzar una mejor eficiencia y para maximizar el uso del hardware. Además, ofrecen un único y consistente punto de administración para SAN, NAS y DAS, lo que ayuda a reducir el error del operador, que es el motivo más frecuente de downtime no planeado. Actuación de EDS Agility Alliance es una iniciativa de EDS que cuenta con la participación de empresas como Cisco, Dell, EMC, Microsoft, Oracle, SAP, Siebel, Sun, Towers Perrin y Xerox. Con inversiones de USD 16 billones, la alianza global tiene como objetivo proveer el concepto de Utility Computing para las áreas de infraestructura, aplicaciones y BPO (Business Process Outsourcing). La inversión de EDS en la plataforma fue de USD 2 billones. Las socias participan en la iniciativa desde la investigación y desarrollo hasta la gestión de la gama de productos. Un equipo trabaja, por ejemplo, en el desarrollo del nuevo sistema operativo de Microsoft, de esa forma, cuando el sistema sea lanzado ya tendrá la arquitectura flexible y adaptada al concepto. El sistema operativo Linux no está fuera de los planes. En breve, llegará al mercado una nueva generación de servicios con base en una arquitectura flexible, que tiene como objetivo la mejor adecuación de las empresas a los cambios que se vienen operando. Actuación de Cisco Systems Como un ejemplo más de acciones de grandes compañías rumbo al Utility Computing, Cisco Systems adquirió Topspin, empresa que fabrica conmutadores para conectar servidores en grid y provee conectividad en red y almacenamiento para procesamiento en grade. Los productos están dirigidos a empresas, proveedoras de servicios, institutos de investigación y universidades que estén implementando Grid y Utility Computing, aplicaciones corporativas en cluster o virtualización de servidores. Por la inversión de esas y otras gigantes de TI, es posible arriesgar el pálpito de que Utility Computing vino para quedarse y revolucionar la forma de adquirir y vender recursos tecnológicos.
  • 33. 5 - Retorno (o Recuperación) de la Inversión .Mutaciones del concepto Es una realidad que el mercado tiene hoy a disposición nuevas formas de operar y contratar recursos tecnológicos, como el concepto Utility Computing. Sin embargo, su adopción aún está en una fase inicial. El polémico artículo "IT Doesn't Matter" (TI no importa), publicado por la Harvard Business Review, fue escrito por Nicholas G. Carr y se hizo conocido en el sector. El autor afirma que en la medida en que la tecnología madura, tiende a tornarse commodity (como la energía eléctrica) y, cuando la tecnología se hace más estándar, su valor estratégico disminuye. Para el autor, desde el punto de vista estratégico, la electricidad y todos los servicios públicos se le hacen invisibles al consumidor, teniendo en cuenta que no hay una preocupación habitual con esas facilidades. Es exactamente eso lo que sucede actualmente con la tecnología de la información. La afirmación de que la TI es estratégica y el otro punto polemizado en el ensayo: la tecnología de la información sólo es fundamental para la estrategia corporativa debido a su capacidad de disminuir gastos, aumentar la productividad y la competitividad. Se puede concluir, según el artículo de Carr, que el futuro de la tecnología en las corporaciones y su forma de comercialización está en jaque. Todavía, nadie puede afirmar que Utility Computing es el mejor modelo o aún predecir si va a despegar y pasar a ser estándar en el mercado. No obstante, es cierto que el modelo actual aún no es el definitivo. Quedan muchos desafíos por delante y el sector aún va a pasar por innumerables transformaciones. Aún así, el aumento del uso de soluciones conforme la demanda, gana adeptos frente a la necesidad de reducir las inversiones, maximizar la administración del parque tecnológico y mejorar la gestión de la infraestructura, así como agilizar el retorno de la inversión, son factores que configuran algunas de las ventajas de la adopción del Utility Computing, que se torna una tendencia mundial. Para dar un ejemplo, un proveedor nacional de sistemas de CRM y ERP a medida cobra USD 100 al mes por usuario. En caso de aumento del ancho de banda, ese costo sube conforme el uso. Al compararse con el valor de adquisición, mantenimiento y actualización de versiones, queda claro que la reducción del costo es uno de los mayores atractivos del concepto. La flexibilidad proporcionada por el modelo, que permite expandir o retraer el consumo, dependiendo del volumen de datos y de la necesidad de procesamiento, produce inversiones de grandes empresas en el sentido de consolidar ese tipo de comercialización. En Brasil y en países en desarrollo de manera general, hay enormes posibilidades de que el concepto se consolide, teniendo en cuenta la escasez de recursos financieros para inversiones en TI.
  • 34. Claro que va a depender del avance de las mejoras y de la estandarización de la oferta. Pero eso no es privilegio de países en desarrollo. En Estados Unidos y en Europa, la tendencia de que el concepto será ampliamente adoptado es fuerte. El Meta Group (instituto de investigaciones) afirma que hay más posibilidades de adhesión en clientes que precisan administrar la demanda y los activos del ambiente y controlar gastos y cambios internos. Una de las grandes ventajas presentadas por el concepto es que el usuario no tiene que hacer grandes inversiones iniciales. Existen, no obstante, algunos problemas a ser superados por los proveedores del concepto, como el alto costo de comunicación y las dificultades técnicas de soluciones que comprometen diversas filiales. En ese caso, el fabricante tiene que invertir altas sumas en la administración de la infraestructura. Para que el concepto a medida avance, es fundamental reducir los costos de comunicación. Cuando analizamos el aspecto cultural, detectamos el recelo del CIO o del propietario en mantener las informaciones de la empresa fuera del centro de negocios. Para solucionar esa dificultad, los proveedores del concepto sostienen que hay un alto grado de seguridad en sus hostings. Uno de los argumentos de persuasión lo brindan los números del instituto de investigaciones Gartner: 80% de los robos de datos son practicados por los propios funcionarios. En las empresas multinacionales, hay una mayor credibilidad en el modelo de entrega de recursos de TI. Seguridad tomada en serio La seguridad es todo en una infraestructura basada en computación a medida. Para sanar ese problema, los fabricantes invierten mucho para lograr los mejores índices de protección para los datos. Muchas empresas usuarias se deparan con el desafío de proteger la infraestructura para evitar ataques internos, lo que es extremadamente complejo de implementar. Algunos productos que están disponibles en el mercado proveen modelos de criptografía en cada camada y camuflan el máximo de datos posibles para garantizar que las identidades de los ejecutores queden ocultas. En la mayoría de los modelos de oferta, los propios clientes controlan cada información de su negocio. Quien decide a qué el proveedor puede o no entrar, es el cliente. Determinados accesos son exclusivos de los usuarios, siendo que sólo ellos tendrán autorización para tales acciones; el proveedor sólo tiene esa autorización, en caso que el cliente permita. Los datos del cliente que son almacenados en la infraestructura del proveedor pueden ser buscados en el momento en que la empresa lo desee, por medio de una red criptografiada, y son almacenados temporaria o permanentemente en sistemas de archivos también criptografiados. Para ofrecer al mercado una alta disponibilidad, algunos fabricantes, como la Sun, reproducen los datos en la malla del Sun Grid. La mayoría de las empresas obtendrá beneficios inmediatos con la emigración para un modelo
  • 35. pago por su uso, porque provee capacidad de computación en cualquier cantidad, sin comprometer enormes gastos de capital. ¿Cómo definirse por la adhesión? Para identificar las áreas donde el grid computing ofrecerá más valor, responda las siguientes preguntas: ¿Necesita su empresa aumentar el poder de procesamiento? ¿Existe algún proyecto especial que requiera recursos computacionales adicionales por un período de tiempo limitado? ¿Hay demanda cíclica diaria, semanal, mensual o periódica de tareas con uso intenso de cálculos? ¿Existen tareas de cálculo que pueden ser ejecutadas en lote? ¿Cuál es la capacidad de su data center? Con estas respuestas, usted tendrá una perfecta comprensión de cómo Utility Computing podrá ayudarlo a administrar mejor los recursos. El modelo revoluciona el modo tradicional de la construcción de sistemas. En general, un sistema es construido para un aplicativo de la siguiente forma: primero, se elabora un estudio de requisitos; después, la división de TI trabaja en lo que debe desarrollar y, finalmente, se arma el sistema para atender los requisitos del aplicativo. Utility Computing requiere un abordaje completo. La división de TI analizará qué recursos y componentes de servicios están disponibles por medio del grid. Después, analizará los requisitos de los aplicativos y evaluará cómo el grid puede cumplirlos. Puede ser que el grid no responda a las necesidades de los requisitos de los aplicativos, pero son tantos los beneficios de costo, que el CIO realmente deberá ponderar su grado de necesidad en asumir el gasto adicional de personalizar el aplicativo y construir un sistema que lo ejecute. Es preciso conocer la arquitectura del usuario La estrategia a medida también ayuda a los fabricantes a resolver el problema de ofrecer una solución fija para un ambiente variable. La mayoría de los fabricantes de hardware tiene sus productos adaptados al concepto y el cliente puede adquirir esas máquinas o utilizarlas como un servicio. El cliente compra equipamientos con determinados recursos, que pueden ser activados y desactivados cuando los solicite. Como ejemplo: es posible adquirir una máquina con cinco procesadores, sin embargo sólo dos serán activados. Esto, con la posibilidad de aumentar la capacidad en períodos específicos, por medio de la adquisición de un código, o activar los recursos para el uso continuo, pagando el valor integral. Entonces, la mensualidad es por lo que se utiliza. Dependiendo de la solución, se comparte la fuente de energía, las placas de red y la posibilidad de integrar en el mismo ambiente servidores Intel o UNIX, sistemas operativos Linux y Windows.
  • 36. Para la venta de un proyecto de Utility Computing, es necesario que los proveedores, los ISVs, VARs y las empresas de hosting conozcan la evolución de la arquitectura del usuario en detalle. Entre los argumentos que pueden facilitar el cierre del acuerdo está la posibilidad de reducción de hasta el 50% en las inversiones con la infraestructura de TI. Los vendedores tienen oportunidades comerciales con el modelo Utility Computing en la utilización de herramientas para monitorear la red del cliente, vendiendo la solución como un servicio. Datos del Gartner proyectan que hasta el 2007 el ingreso proveniente de servicios de administración de TI en América Latina será del 9% por encima de los actuales USD 20 millones. Para que una empresa adopte el concepto de Utility Computing es necesario observar algunos aspectos: Antes de cualquier acción es necesario realizar una radiografía interna, conocer profundamente las necesidades internas antes de buscar un proveedor para adoptar el sistema de pagar por lo que se utiliza. Trace los objetivos de forma clara, definida y que sean posibles de realizar. Es bueno recordar que los riesgos existen también con ese concepto, sin embargo, la probabilidad es menor. Si opta por la adopción, hágalo por ser estratégico y no solamente por la reducción de costos Busque un proveedor que sea efectivamente un asociado. Establezca SLAs flexibles y que sigan el objetivo y la filosofía de la empresa Trace objetivos reales para evitar frustraciones Mida las necesidades para poder negociar bien los SLAs y mantener la calidad Mida el retorno de la inversión ROI ¿Cómo medir el retorno de la inversión? Hoy, las empresas enfrentan un dilema: mientras el volumen de datos aumenta, el presupuesto disminuye de forma inversamente proporcional al aumento de la competitividad comercial entre las empresas. Otro comparativo es que, mientras aumentan los datos, la complejidad de la infraestructura de IT también aumenta. Por eso, las soluciones (hardware y software) deben presentar interoperabilidad y escalabilidad, al mismo tiempo en que el acceso a los datos debe ser sencillo y continuo, sin comprometer la seguridad. La información es la columna vertebral de las empresas modernas. Conducidas por los avances en la área de almacenamiento y transmisión de información, las empresas pueden tomar decisiones con base en los negocios de forma conciente. En el lado opuesto de las necesidades tecnológicas, hay contención de gastos, bajo índice de contratación y focalización en el servicio al cliente y en la gestión de los datos, que son dos elementos vitales del éxito de las empresas. En la medida en que los datos se hacen cada vez
  • 37. más importantes para las empresas, en la misma proporción, es más crítica la elección de una solución. Con ello, surge la necesidad de nuevos procesos, tecnologías avanzadas, y formación del personal. Frente a las exigencias del mercado en reducir costos, se hace necesario demostrar y fundamentar claramente los beneficios de adquirir una solución tecnológica o de renovar la actual infraestructura de IT. A continuación, nos extendemos sobre ROI, como forma de auxiliarlo a superar algunas de las barreras que se presentan en el área de las inversiones. Con la escasez financiera, los CIOs se enfrentan cada vez más a la exigencia de presentar el retorno de la inversión, a reducir el costo total de propiedad y a presentar resultados concretos del departamento de TI, frente a los propietarios de las empresas. Es imprescindible contar con un perfil más administrativo, de gestor y de marketing, además del conocimiento técnico. Esa es la ley de supervivencia de las empresas, que se adaptan al nuevo orden mundial. Ha quedado muy atrás el tiempo en que las organizaciones compraban tecnología con el argumento de mantenerse actualizadas. Hoy, es preciso justificar cada gasto. Todos los gestores tienen la obligación de saber cuál será el retorno de la inversión, antes de firmar cualquier tipo de contrato de compra. Las siglas ROI y TCO son habituales en cualquier transacción comercial del segmento de tecnología de la información. Existen en el mercado herramientas (softwares) listas y que pueden ser a medida, para efectivizar ese cálculo, porque, nobleza obliga, no es sencillo llegar a esos resultados sin el apoyo de un programa, que tenga métricas y metodologías listadas. Muchas consultoras y empresas proveedoras tienen sus propias metodologías, que pueden ayudar al cliente a establecer un parámetro entre la situación actual y la futura, con la adquisición, por ejemplo, del Utility Computing. Las empresas quieren destinar recursos financieros a equipamientos, software y servicios que garanticen un retorno inmediato sobre lo que fue invertido. Eso ya ocurría desde 2003 en Estados Unidos y no podría ser diferente en Brasil. Una pesquisa realizada en el país, ese mismo año, apuntó que cerca del 59% de los ejecutivos de empresas brasileñas pretendían aumentar sus inversiones en tecnología, sin embargo, resaltaron que el 46% del total serían aplicados a adquisiciones, que garantizaron el retorno a corto plazo. Antes que nada es primordial saber el valor real de aquello que se pretende adquirir e, inclusive, de los costos, en caso de no implementarse la solución propuesta.
  • 38. Beneficios tangibles e intangibles La justificación de la adquisición se realiza a partir de beneficios tangibles e intangibles. Los beneficios tangibles pueden ser cuantificados y son incuestionables en su naturaleza, demostrando reducciones de costos o aumento de beneficios. Esos beneficios son fácilmente cuantificables, por medio de la disminución de TB (Terabyte) de almacenamiento o de un menor número de servidores, por ejemplo. Los beneficios intangibles, por otro lado, están presentes en la solución, pero son difíciles de cuantificar: aumento de la satisfacción y crecimiento de la productividad de los usuarios. Algunos de los beneficios intangibles pueden ser estratégicos, como una mayor credibilidad de la empresa, mejora en la calidad de la oferta al cliente por medio de pro actividad y del aumento de la información disponible. Con la salvedad de que esa forma puede ayudar a decidir el proceso de adopción de Utility Computing; no obstante, es la tradicional aplicada en la adquisición de soluciones tradicionales. Las justificaciones financieras son utilizadas para controlar las adquisiciones tecnológicas y para tomar decisiones más acertadas. Las justificaciones permiten tener una medida del riesgo y del costo de la inversión, permitiendo realizar una perspectiva del Valor del Negocio. Una de las formas de simplificar el proceso de análisis y mejorar la justificativa de las adquisiciones de la infraestructura es utilizar cálculos de ROI en términos de valores de la moneda corriente. Otra forma es utilizar la medida del costo total de propiedad (TCO), que ayuda a comprender cómo controlar los costos de la infraestructura de IT. La primera acción es la creación de modelos con escenarios operacionales que orientan varios tipos de análisis. Algunos ejemplos en almacenamiento: 1. Aumentar la utilización de disco 2. Dejar de comprar disco 3. Aumentar los TB gerenciados por administrador 4. Reducir el espacio físico del Data Center 5. Dejar de comprar en bibliotecas de cartuchos 6. Nuevas capacidades de Disaster Recovery 7. Opciones de recuperación on line 8. Aumentar la disponibilidad de los datos 9. Reducir el número de servidores 10. Aumentar el desempeño de la LAN/WAN, disminuyendo la necesidad de up grade 11. Reducir/eliminar los servidores de back up 12. Reducir/eliminar el batch y las ventanas de backup
  • 39. 13. Storage on demand 14. Aumentar la protección de los datos 15. Gestión de costos, como un porcentaje de los costos de storage 16. Reducir los costos de mantenimiento de storage 17. Staff utilization for server management 18. Aumentar el tiempo de vida del Storage 19. Escalabilidad 20. Evitar el aumento de los datos de red 21. Impacto en nuevas aplicaciones a emigrar 22. Impacto en las aplicaciones de desarrollo y de prueba 23. Extender el tiempo de vida de los servidores 24. Reducir la carga de CPU en los servidores 25. Soportar servidores en cluster 26. Servicios secundarios de seguridad 27. Consolidación En la mayoría de los casos, para una nueva infraestructura o para la reestructuración de la actual infraestructura, pueden ser considerados varios de los análisis aquí presentados. Cálculo del ROI El ROI es usualmente calculado en un período de 3 a 5 años, por medio de acciones como: 1. Definir los costos de la base del análisis 2. Definir la topología que se pretende, y determinar sus costos 3. Seleccionar los análisis que pueden ser considerados para la topología pretendida, y calcular el ROI para cada una de ellas. 4. Calcular los diferentes ROI y realizar gráficos y conclusiones 5. Rever las conclusiones y hacer ajustes a la topología y al cálculo del ROI Disminución de los valores de mantenimiento de hardware y software - Disminución de los costos de Gestión - Disminución de los recursos de hardware no utilizados Control total sobre lo que fue contratado Una de las preocupaciones al adherir al concepto, es saber exactamente qué se está pagando y qué se está adquiriendo. Algunos fabricantes se están asociando con proveedores de telecomunicaciones, integradores de sistemas y prestadores de servicios para que la compra de
  • 40. una variedad de servicios de computación a medida se torne simple y conveniente. La Sun Microsystems es un ejemplo. Cuenta con programas piloto que determinarán cómo usar el modelo para agilizar el desarrollo de software, proveer servicios de PC de escritorio, seguros y ejecutar aplicaciones críticas como ERP y CRM a medida. En suma, las organizaciones necesitan soluciones que las ayuden a aumentar la eficiencia, al mismo tiempo que disminuyen su TCO y aumentan el retorno de la inversión. 6 - Previsiones Controversias definen el panorama actual Como la flexibilidad es una exigencia para la supervivencia de una empresa además de la drástica reducción de los costos fijos Utility Computing cae como anillo al dedo en la dinámica actual de las organizaciones. Sin embargo, hay quienes afirman que TI será utility en diez o 15 años. Todo este cambio en el modo de comercialización de TI trae consecuencias para el mercado. Según un estudio del Gartner, el crecimiento de servicios para infraestructura automatizada y procesos de negocios donde se paga sólo por lo que se consume, provocarán una gran reducción en los empleos en el área de TI. De acuerdo con el instituto, la tercerización ha sido sobrevaluada y el impacto de la automatización es grande. Por lo tanto, en los próximos 10 años, la caída en la tasa de empleos en el sector puede atribuirse a ese factor. Por otro lado, nuevos empleos serán creados para la administración de procesos de negocios y relaciones. La International Data Corporation (IDC) evalúa que Utility Computing crecerá, aunque aún no será
  • 41. adoptado completamente, tal como el concepto se vende actualmente. El instituto defiende que es una buena apuesta, pero a largo plazo. Utility Computing causará grandes cambios en la arquitectura y en la administración de sistemas, paquetes de servicios y productos de TI y en la forma de cobranza por lo que se provee, como ya ejemplificamos, analógicamente, con el sector de energía eléctrica. Aunque existan algunos esfuerzos de marketing en la divulgación del concepto, aún será necesario un esfuerzo mayor de los fabricantes en el sentido de aclarar la confusión sobre el significado, sus propuestas y cómo será en la práctica utilizar recursos de TI a medida. Empresas proveedoras orientan esfuerzos en ese sentido. Muchas están promoviendo seminarios, conferencias y road-shows por las principales capitales del país para explicar Utility Computing. El atractivo es grande, frente al argumento más importante: la reducción de costos. Esos eventos sirven también para tranquilizar a los CIOs que temen mantener las informaciones de la compañía lejos de sus ojos y control. Fabricantes transmiten a los profesionales datos que garantizan la seguridad del hosting. Nuevamente, la cuestión cultural pasa por la consolidación del modelo. Una empresa nacional concentraba su centro de procesamiento e infraestructura completamente, hasta que al tener su control accionario en manos de una multinacional pasó a utilizar el modelo de hospedaje. El hecho demuestra cómo la cultura puede afectar una decisión estratégica. De acuerdo con un estudio de la IDC, realizado en julio del 2005, el 28% de las 103 empresas participantes sienten recelo en compartir sus datos e informaciones con los proveedores y prestadores de servicio. La preocupación con el retorno de las inversiones (ROI) en el modelo Utility Computing fue señalada por el 19% de las organizaciones. Para el 17% de los participantes, la confianza en el data center del proveedor es una cuestión fundamental.
  • 42. Acelerar el proceso La adopción se hace más lenta en la medida en que aún existe una percepción muy confusa por parte del usuario sobre lo que es exactamente el modelo. Respecto al fabricante, existen conflictos internos que dificultan la aclaración al cliente, ya que se ofrecen dos modelos de comercialización: el pay-per-use y el de licencias. Es necesario detallarle al usuario las ventajas y los procesos de cada uno de ellos. El avance del uso de soluciones conforme la necesidad será más lento, teniendo en cuenta que hace falta preparar la estructura del mercado. Con este punto solucionado, los clientes pasan a adquirir productos desarrollados con un formato virtual, tecnología que garantiza flexibilidad en la expansión de la infraestructura. Con esa tecnología, es posible utilizar un data center virtual, administrado por el fabricante. Antes de eso, sin embargo, es necesario implementar políticas de prácticas mejores, con base en Administración de TI y procesos de consolidación en el ambiente. Hoy, los usuarios brasileños están en esa etapa y afirman los analistas, que la adopción total ocurrirá dentro de algunos años. En Brasil, la TAM y la GVT están en la fase de adopción del concepto. En cuanto a los mercados europeo y norteamericano, están más definidos. Tendencias
  • 43. Por ahora, las mayores oportunidades comerciales están en segmentos tales como manufactura, servicios, telecomunicaciones y data centers. Para algunos especialistas del sector, el segmento financiero, que tiene un gran volumen de sistemas vinculados, en poco tiempo también adoptará el concepto, en la búsqueda de sistemas de consolidación y, posteriormente, debe ocurrir la emigración para el concepto de Utility Computing. Sólo el tiempo dirá si tienen razón. Otra fuerte tendencia es la unión de fuerzas de grandes empresas en el sentido de que el modelo evolucione tecnológicamente y logre que el mercado entienda el concepto. En ese sentido, la búsqueda por el aumento del valor de los negocios, incentivó el cierre de sociedades y adquisiciones para proporcionar una oferta de tecnología más ágil, de acuerdo con el concepto de Utility Computing. (Ver a seguir, más adelante). Los indicadores de mercado apuntan un gradual aumento en la adhesión del Utility Computing. El estudio IDC Predictions 2005 prevé un crecimiento moderado del sector de TI y la consolidación de tendencias anteriormente señaladas. La expectativa es que ocurra una reorientación de proveedores y ofertas orientadas a procesos y soluciones de negocios, además del crecimiento de estrategias basadas en computación utilitaria. Los analistas prevén un crecimiento del 6,1% del mercado de TI en el 2005, con un pequeño destaque para los negocios en Estados Unidos y Europa Occidental. Para Brasil, el estudio revela que problemas de productividad y propiedad intelectual pueden comprometer el potencial económico. La industria de TI en el país posee características de mercado emergente, como, por ejemplo, México, pero sin el ritmo de crecimiento previsto para China, India y Rusia. Tercerización es una de las fuertes tendencias adoptadas por el mercado local. Más reciente y dirigido, un estudio financiado por la Oracle revela que hoy el segmento de comercialización a medida genera un movimiento en Brasil del orden de los cerca de USD 278,8
  • 44. millones. Realizada por la IDC Brasil, el estudio que fue divulgado el 27 de julio de 2005 indica también que la expectativa es que Utility Computing crezca, al año, en torno al 24,4% hasta 2009, alcanzando, por lo tanto, el monto de USD 667 millones. Otro ítem detectado es que las empresas locales están priorizando la compra de servicios y disminuyendo el destino de rubros para equipamientos, con la finalidad de reforzar la estrategia de negocios. El estándar actual de inversión en TI de las organizaciones brasileñas es destinar, cerca del 47% para hardware y 17% para software. Para servicios, que abarcan la tercerización de infraestructura el índice es de 36%. Cinco años atrás la inversión en hardware era, como promedio, 60% de los recursos de TI. Con las ventajas percibidas en la tercerización de servicios y en la infraestructura, ese volumen viene disminuyendo. Hoy, el proveedor no pasa por el proceso de crear, empaquetar y entregar una solución al cliente. Aún con esos cambios rumbo a los servicios, el mercado local aún no incorporó totalmente el concepto de comprar recursos de TI por el modelo a medida. Éste, en comparación con mercados internacionales todavía es muy tímido en Brasil. El porcentaje ideal proyectado para Brasil es de cerca del 30% de las inversiones en hardware y más del 40% en servicios. Comparativamente, en el mercado norteamericano, donde el concepto demuestra estar más fortalecido, hardware, software y servicios reciben inversiones del 32%, 25% y 44%, respectivamente. La mejor fórmula para que el modelo se desarrolle en el país sería con los servicios recibiendo la mayor parte de las inversiones y no la compra de hardware. Los cambios significativos provocaron alteraciones en la manera en que los proveedores actúan en el mercado, inclusive en lo que se refiere a la corrección de estrategias de productos y servicios, con el objetivo de adecuarse a la realidad que se plantea. La oferta y la búsqueda de bienes de TI en el formato de servicios es una de las fuertes tendencias. Para no perder la onda del momento, algunos fabricantes están habilitando vendedores para la correcta venta del modelo de pagar por lo que se utiliza, en algunas soluciones como servidores,
  • 45. almacenamiento de datos, software, aplicativos e impresión. En búsqueda de nuevas oportunidades, la industria de TI se reinventa e intensifica la disputa para atender a la clientela con ese modelo. Después de las crisis económicas, quedó claro para los fabricantes, que la venta de tecnología pura no existe más, inclusive porque, con el grado de automatización, TI se está transformando en commodity, como destacan los analistas de mercado. Tal vez este sea el período más difícil por el que pasan fabricantes y CIOs, que enfrentan una tormenta de desafíos estructurales. Polémica establecida Hoy, se cuestiona hasta qué punto TI es importante en la estrategia de las organizaciones y si efectivamente es un diferencial competitivo del mercado. Con las transformaciones del escenario, para algunos, el control de costos y la administración de riesgos son temas a ser considerados en primer lugar, después vienen las inversiones y la innovación. Predican algunos analistas más polémicos que TI debe priorizar vulnerabilidades y no oportunidades; y aún gastar menos y no ser early adopters, los que adoptan tecnologías antes aún de ser lanzadas. Accenture realizó una investigación, en 2003, con 580 ejecutivos seniors de 18 países, inclusive de Brasil, con la finalidad de conocer la real influencia que la tecnología de la información ejerce sobre las corporaciones. El resultado fue que el 55% de las empresas entrevistadas tienen características de innovación que las diferencian del resto del mercado. Según este estudio, son las más innovadoras las que dan mayor importancia a la renovación de productos, servicios y procesos y, por consecuencia, son ellas que obtienen los mejores resultados estratégicos. También de acuerdo con la investigación de Accenture, el 64% de las empresas consideradas innovadoras alcanzaron las metas que se propusieron con la inversión en sistemas, teniendo en cuenta que apenas el 28% de las menos innovadoras alcanzaron sus objetivos. Las que priorizan
  • 46. la innovación destinan más del 30% del presupuesto de TI en nuevas acciones, frente a las poco innovadoras que destinan menos del 20%. Por otro lado, éstas últimas, invierten casi el 40% del ingreso en tecnologías operacionales y, las más innovadoras destinan cerca del 20%. A partir de estos índices, no se puede afirmar que TI está transformándose en commodity. Pero una vez más, quien dirá quién tiene la razón es el tiempo. Por otro lado, para intentar entender el escenario de TI, imagine una pirámide dividida en cuatro partes. En su base se encuentra la infraestructura de TI (redes, hubs, conectividad y hardware); en el segundo nivel se sitúan los softwares básicos, que son representados por plataformas como los sistemas operativos y banco de datos, por ejemplo. Con el avance del Utility Computing, esas dos partes estructurales pueden transformarse, de hecho, en 100% commodities. En ese punto, tienen razón los que afirman que TI perderá su valor estratégico. Sólo que la situación se altera en el tercer y cuarto nivel de la pirámide, donde usted puede imaginar los softwares aplicativos y funciones de negocios con aplicaciones de TI, respectivamente. En el tercer nivel, representado por sistemas de CRM, ERP y supply chain, algunos analistas arriesgan a decir que la commoditización llegaría, como máximo, al 70% de esas aplicaciones. Eso porque, las empresas tienen procesos distintos; metas y objetivos específicos. La complejidad del escenario aumenta en el tope de la pirámide. En ese nivel, es necesario que haya una perfecta sincronía entre las decisiones estratégicas y las innovaciones tecnológicas disponibles. En las aplicaciones, la cuestión es más profunda y la distancia entre la innovación tecnológica y la empresa que la adopta es muy grande. Es elevado el grado de complejidad para que no haya copias de esas aplicaciones. En ese nivel, la commoditización no sobrepasa el 40%. Flexibilidad es la palabra clave
  • 47. La innovación de los procesos puede ser considerada como lo que algunos investigadores llaman domesticación de la tecnología, que significa adaptar de manera recíproca la tecnología al usuario. Como ejemplo, de la misma forma que el aparato celular es adecuado a la agenda de teléfonos y compromisos; el usuario se adapta a su aparato, decidiendo si atiende o no la llamada, por ejemplo. El diferencial es ese. Justamente, esa flexibilidad es la que va a determinar el mejor aprovechamiento de la tecnología y de sus recursos y, aquellos que quieran adoptar nuevos conceptos, sólo alcanzarán sus metas si mantienen el poder de incorporar rápidamente las innovaciones a los procesos de la organización. El panorama en TI prueba que aún hay mucho por recorrer para transformar las soluciones de TI apropiadas a los negocios. Puede afirmarse, entonces, que existen dos mundos: la infraestructura, con los servicios pay-per-use y la tercerización. Y un segundo, el de las aplicaciones, que algunos especialistas del mercado afirman que no es commodity y nunca lo será. Aún sin predecir lo que la tecnología de la información reserva para el sector, se observa una perspectiva de cambio. Innumerables indicativos ayudan a constatar que separar la innovación y la competitividad de los avances tecnológicos, estén ellos dirigidos al usuario final o a las empresas, es casi imposible. Acciones efectivas para la consolidación
  • 48. Siguiendo las tendencias, los fabricantes se ubican como defensores del concepto, forman alianzas tecnológicas y asociaciones comerciales. Sin contar con anuncios del aumento o la adaptación de sus productos y servicios al modelo Utility Computing. Citrix pone a disposición el Citrix MetaFrame Access Suite solutions, que permite a las empresas la construcción del acceso a la infraestructura para entregar un emprendimiento a medida, de modo seguro. Computer Associates cuenta con la tecnología Sonar, herramienta para correlacionar procesos de negocio con los activos de TI, alineando las inversiones en infraestructura con las prioridades del negocio. Sun Microsystems posee innovaciones tecnológicas y nuevos modelos de negocios basados en el concepto Utility Computing. La compañía posee productos, soluciones y servicios, con el objetivo de ayudar a los usuarios a construir la base de desarrollo de nuevas aplicaciones de red, en cuanto reduce los costos y la complejidad de los ambientes de TI. Microsoft presentó algunas de las novedades que estarán en su paquete de soluciones para CRM 3.0. Está previsto que el producto llegue al mercado a fines del 2005 y las nuevas aplicaciones serán ofrecidas por el modelo on demand. Cisco Systems desembolsó USD 250 millones para la adquisición de la empresa de Utility Computing, Topspin Communications, que produce una familia de conmutadores para conectar servidores en grid y provee conectividad en red y almacenamiento. La adquisición agregará soporte a la cartera de Cisco. Proveedores como Dell, HP, IBM, NEC y Sun establecieron asociaciones con Topspin para incluir la tecnología de switching InfiniBand como parte de sus carteras. Otra empresa lista para entrar al equipo time es EMC y ofrece OpenScale, herramienta que auxilia en la cobranza de los servicios, midiendo lo que se usa del sistema de almacenamiento de datos. El programa recoge informaciones de los data centers de los consumidores, por medio de un
  • 49. software llamado "Collector", que emite informes. El modelo Adaptive Enterprise de HP debe ayudar a los usuarios a medir, proyectar y administrar cambios en la estructura de TI, siempre atendiendo la demanda de negocios. La compañía tiene una gama de productos y servicios Utility Computing. HP también viene trabajando en el desarrollo del Linux y de sistemas de código abierto. Con ello, se simplifica la experiencia de implementación del código abierto, abriendo el camino para el Adaptive Enterprise. IBM tiene prácticamente toda su cartera de productos y servicios dirigidos al concepto. Para la compañía, las empresas y la industria de tecnología están entrando en la era on demand. Con eso, tendrán que responder rápidamente a la demanda de los clientes, oportunidades de mercado y amenazas externas. EDS viene trabajando en el desarrollo de la plataforma Agile Enterprise en conjunto con la Cisco Systems para construir una red global segura, y con la EMC en storage y otras soluciones de administración. Sun Microsystems trabaja para la creación de varios componentes de hosting por virtualización y soluciones de Utility Computing, en cuanto que Xerox y EDS desarrollan abordajes nuevos para infraestructuras de administración de documentos. Además de eso, lidera Agility Alliance, también en conjunto con otros gigantes del sector. Symantec/Veritas creó las soluciones SEM para que los profesionales de TI puedan migrar para Utility computing a partir de la perspectiva del storage. Las soluciones ofrecen un único punto de administración para la SAN, NAS y DAS, lo que ayuda a reducir el error del operador, que es la mayor causa de downtime no planeado.
  • 50. En 2004, Veritas adquirió la Invio Software, Inc., especializada en automatización de procesos de TI y contribuyó para las funcionalidades presentes en los programas que viabilizan el Utility Computing. La familia de productos Oracle 10g permite la adopción del modelo. Oracle Grid Computing atiende los requisitos del concepto, permitiendo que grupos independientes de usuarios puedan compartir recursos computacionales de acuerdo con la demanda. Pero el mercado de Utility Computing no está formado sólo por las empresas de mayor porte. Muchas otras también atentas a las transformaciones del mercado, pasan a ofrecer soluciones a medida. Es el caso de NeoGrid, empresa de comercio colaborativo que sustituyó la venta de licencia para su e-Collaboration Suite por un modelo on demand. Ya CorpFlex lanza el modelo ASP (Application Service Provider) a medida, recordemos que el servicio tiene la finalidad de ayudar los fabricantes de sistemas de gestión a ganar el mercado. Podemos concluir que la competencia que la empresa tiene de incorporar la tecnología a sus procesos es el verdadero diferencial a ser destacado. Es la innovación de los procesos que proporciona ventajas competitivas a las empresas, reduciendo costos y aumentando la productividad.

×