1. Número 131-2015
El nuevo panorama en Analítica
y Business Intelligence
[Pag. 4]
La Virtualización, una
herramienta al alcance de todos
[Pag. 22]
Larevolucióndel
CloudComputing
Los retos en el despliegue
de Ciudades Inteligentes
[Pag. 12
5 errores al implementar un Data
Center Definido por Software
[Pag. 28]
16
LA REVISTA ESPECIALIZADA EN TIC
2. El Consejo Editorial
Editorial
Tal vez una de las principales características del cómputo en la nube es el enorme espectro de beneficios
que aporta y el alcance de su aplicación en prácticamente todos los entornos organizacionales y de los
mercados.
Este sistema informático sustentado en Internet retribuye beneficios económicos al transferir al proveedor
de servicios hospedados la adquisición, implementación y desarrollo de tecnología y pagar sólo el
consumo de los servicios utilizados, además de abatir el costo de capacitación y mantenimiento de una
planta de especialistas, además de beneficiarse con el escalamiento en infraestructura, procesamiento y
almacenamiento.
Gracias al cómputo en la nube, ahora las organizaciones medianas y pequeñas pueden operar en un plano
de competitividad en el uso de la tecnología con las grandes organizaciones.
Otro atributo de gran trascendencia es la capacidad de tener acceso a las bases de datos y aplicaciones
corporativas desde cualquier dispositivo de cómputo, lo cual da lugar a otro fenómeno histórico como lo es
la movilidad desde cualquier lugar y momento.
Aún más, las organizaciones pueden concentrar sus recursos capacidades y talentos en las estrategias,
tácticas procedimientos que tienen un impacto directo en su continuidad y permanencia, delegando a otras
entidades la integración, implantación y actualización de sus requerimientos tecnológicos.
El escepticismo manifiesto o latente de algunas organizaciones respecto a la seguridad de los datos y
procesos no ha sido impedimento para que en México el 62% de los grandes corporativos utilicen en alguna
medida las versiones del cómputo en la nube y que la proyección para 2015 sea un crecimiento del 32%.
No obstante, la seguridad sigue siendo un factor decisivo en la adopción de soluciones en la nube, por lo que
las empresas proveedoras de estos servicios, junto con la Unión Europea, se empeñan en lograr niveles de
seguridad cada vez mayores en las estructuras y funcionalidades del computo en la nube.
En nuestra presente revista ampliamos y profundizamos este tema con análisis y entrevistas a especialistas
en este tópico.
El Cómputo en la Nube cambia la
concepción y las prácticas de las TIC en
un plano histórico
6. Entrevista con John Manning, Director Técnico de Information Builders en Latinoamérica,
España y Portugal.
¿Cómo se definen las prioridades para asignar un orden de importancia para la
obtención y explotación de la información dentro de las empresas?
El tratamiento de la información, en cualquier empresa, debe seguir los siguientes pasos:
Recolección de los datos: En primer lugar, cualquier compañía que desee emprender una
correcta estrategia de datos ha de evaluar si puede recuperar la inversión relativa a capturar
y almacenar toda la información de la que dispone. A veces es más recomendable evitar
aquel tipo de información cuyo costo de evaluación es demasiado alto. Pero cuando da con
los datos que busca, deberá empezar a recolectarlos.
No obstante, hay que ir más allá de los datos en sí y adentrarse también en los metadatos,
ya sea el sistema y el tiempo de creación, el canal por el que se han distribuido, los
sentimientos que se reflejan en el texto, etc.
Nuestras soluciones de integración iWay ayudan a recolectar cada modelo de información, ya
sea para su utilización en tiempo real o para propósitos históricos.
Hablamos tanto de datos no estructurados, como posts procedentes de blogs o comentarios
en redes sociales; datos cuyo origen está en la nube, ya sea de servicios web o de queries;
datos estructurados provenientes de ERPs, CRMs, plataformas legacy y otros sistemas; o
datos sensoriales relativos a procesos RFID o escaneos UPC.
Limpieza y correlación de los datos: Antes de emplear los grandes volúmenes de datos,
se hace necesario limpiarlos. Y resulta ineficaz hacerlo si están siendo empleados en ese
momento o si ya han sido almacenados en vastos almacenes de datos. Lo más apropiado
es limpiarlos allá donde se encuentran: ya sea en el punto donde las transacciones fluyen a
través de los sistemas; en el campo del sitio web donde el usuario hace clic; o allá donde el
RSS feed te dice que ya hay disponible una nueva entrada del blog que sigues.
Existen soluciones de integridad que incluyen una herramienta de cualificación de datos
que ayuda a crear un ‘cortafuegos de calidad de la información’, y que garantiza la calidad
del dato antes de que éste se propague a otras áreas de la empresa. Como resultado se
obtienen mejores procesos operacionales, una inteligencia de negocio más óptima y –a
la vez que el dato se traslada hacia el reino del Big Data- una analítica de los grandes
volúmenes de datos mejor gestionada y correlacionada.
Además, estas soluciones también proveen tecnología de gestión de datos maestros (MDM
o master data management, por sus siglas en inglés), que permite correlacionar información
dispar desde distintos tipos de sistemas –y que puede ser supervisada por administradores
de datos que incluso pueden gestionar datos desde los dispositivos móviles.
7. Empleo de los datos: business intelligence, analítica y rastreo: La mayoría de las
compañías no tienen problemas a la hora de recolectar datos. De hecho, suelen tener más
información de la que pueden utilizar. A pesar de que las tecnologías de inteligencia de
negocio (BI), analítica y búsqueda de datos empresariales se hallan bastante maduras,
la mayoría de la gente emplea muchas horas a la semana buscando la información que
necesitan.
Para sacar partido de grandes volúmenes de información, las empresas deben darle
poder a sus usuarios de una manera sencilla y accesible. Por ejemplo, proporcionar a sus
profesionales de atención al
cliente herramientas de valoración
predictiva que les permitan
saber qué ofertas tienen más
posibilidades de resultar existosas.
También deben facilitarles
aplicaciones sofisticadas de
visualización que les ayuden a
analizar patrones entre millones
de puntos de datos; o bien,
suministrar al director de marketing
un cuadro de mando que le
permita valorar los sentimientos
que están despertando en
las redes sociales los nuevos
productos que acaban de lanzar.
Si los datos de una empresa adquieren un volumen de dimensiones considerables, esa
organización necesitará ayuda para encontrar la información o la analítica que deriva de
ella. Por ello habrá de contar con un motor de búsqueda, como es el caso de Magnify
Search Engine, que se encuentre plenamente familiarizado con los datos estructurados y no
estructurados, y con los links a los informes y análisis existentes.
¿Cómo se construye un modelo para obtener información que actualmente resulta
múltiple, difusa y ‘propietaria’ dentro de las organizaciones?
Los procesos para generar una cultura de los datos dentro de las organizaciones no es algo
realmente sencillo. Todo el mundo comprende y acepta la importancia de la información
dentro de las entidades y que ésta debe ser fiable. El problema viene cuando se trata de
imponer modelos de datos verdaderos dentro de las empresas, puesto que hay choques
culturales y de poder.
Muchas veces se cree que la cuestión de los datos es solamente responsabilidad del área de
TI, y no es así. Una política de gobierno de datos orientada a tener una buena información
incluye a toda la empresa en su consecución, es decir, tanto a TI como a los departamentos
8. de negocio responsables de los datos de su dominio. Estos procesos deben estar liderados
desde la dirección para que la involucración de todas las partes resulte eficaz.
¿Qué opinas de establecer una figura corporativa dentro de las organizaciones,
responsable de gestionar la obtención y explotación de los datos, y en general de la
información?
Un gobierno de datos que se presuponga exitoso deberá arrancar con una estrategia de
gestión de la información sólida y bien definida, y descansar sobre una solución fiable de
gestión de la calidad de los datos. La clave estriba en crear equipos de ‘data stewards’,
compuestos por profesionales técnicos y usuarios de negocio, pero liderados por un
profesional con un perfil no técnico, que preserve la calidad de cualquier nuevo dato.
Aunque el ‘data steward’ capitanee el plan futuro de gestión de calidad de los datos, también
resulta fundamental contar con una solución completa que ayude en estas tareas. Este tipo
de tecnología permitirá que la estrategia sea más efectiva, al hacer posible que el ‘data
steward’ pueda perfilar, transformar y estandarizar la información, al tiempo que la enriquece
al incluir cualquier dato perdido.
¿Cómo percibes la respuesta de la industria ante la creciente inseguridad y ataques a
la privacidad de los datos?
La industria se toma muy en serio todo lo que tiene que ver con la seguridad de los datos.
Es un proceso continuo, pues cada día aparecen nuevos riesgos y las organizaciones deben
estar preparadas para evitarlos. Además, no solo la industria se encarga de ello, sino que los
Gobiernos también ostentan su cuota de responsabilidad a la hora de implantar leyes que
protejan los datos privados de personas y entidades.
¿Cuál es la propuesta de Information Builders dentro del concepto empresarial de la
tercera plataforma (Nube, Big Data, Analíticos, Movilidad y Social Business)?
Information Builders da cabida con su tecnología a todas las áreas que demandan las
tendencias que conforman la tercera plataforma:
En lo relativo a la nube, consideramos clave la evolución del software hacia el modelo en la
nube o de pago por uso. El SaaS sigue creciendo a un ritmo espectacular, en comparación
a la venta de licencias. Concretamente, el Business Intelligence como Servicio (Business
Intelligence as a Service o BIaaS) extrae el máximo partido de este modelo tecnológico
y ofrece una serie de ventajas realmente atractivas para el cliente, dependiendo de sus
necesidades en materia de infraestructura: menor inversión, nuevo modelo de pago, sin
9. instalación, menor riesgo, todo incluido, en cualquier máquina, con cualquier sistema
operativo, libertad y disponibilidad global, y actualizaciones livianas y constantes.
Estamos intensificando nuestra apuesta por el universo del Software como Servicio (SaaS)
a través de una serie de socios tecnológicos que están optimizando sus procesos y
fortaleciendo sus negocios gracias a la implementación de la plataforma de BI WebFOCUS
en sus soluciones SaaS. Entre ellos se encuentra Unisys, que está ofreciendo a la industria
soluciones en modo SaaS desde hace más de una década; así como otras organizaciones
de la talla de Blue Ocean Consulting, Chrome River Technologies, Emergency Medicine
Business Intelligence (EMBI), Mercurial y Varolii.
Si hablamos de Big Data, estamos ayudando a nuestros clientes a sacar partido del
potencial del Big Data a través de sus soluciones de analítica avanzada.
Conforme las compañías se enfrentan cada día a mayores volúmenes de datos tanto
estructurados como desestructurados, hemos sabido evolucionar nuestra propuesta
tecnológica para ofrecer a los clientes un acceso en tiempo real a la información,
independientemente de su tamaño, forma o fuente de la que proceda.
Hemos introducido nuevas tecnologías para simplificar el análisis de grandes volúmenes
de datos en torno a tres áreas clave: analítica de las redes sociales, analítica basada en
motores de búsqueda y visualizaciones de datos.
Además de estas avanzadas capacidades de análisis, contamos con un abanico de
soluciones de integración de Big Data y gestión de la información. Gracias a este arsenal
tecnológico, las organizaciones podrán afrontar sin limitaciones los nuevos requerimientos
en materia de computación y los retos derivados de los grandes volúmenes de datos,
extrayendo el máximo valor de la inversión que han realizado en materia de información.
En lo relativo a la analítica, y como ya hemos apuntado anteriormente, debemos remarcar
que estmos empleando cada vez con más asiduidad las soluciones de analítica predictiva
para mejorar las estrategias de toma de decisiones e incrementar los ingresos. Sin embargo,
para sacar realmente partido de los beneficios de la analítica predictiva es necesario que
las compañías cuenten con una plataforma unificada que posibilite diversas rutinas: acceso
nativo a sus diferentes fuentes de datos; capacidad para preparar y manipular los datos y
poder descubrir los patrones que explican los comportamientos del consumidor; y, sobre
todo, integración de los resultados previstos dentro de las aplicaciones creadas para el
usuario final.
Históricamente las empresas han batallado para tratar de obtener este tipo de visión integral
de sus datos. Por lo tanto, hemos hecho énfasis en esta demanda de la industria a través de
WebFOCUS RStat, un completo entorno donde se integra el BI y la analítica predictiva.
Esta solución cubre la brecha existente entre los datos históricos de una organización y
sus operaciones de negocio con vistas al futuro, garantizando que la analítica predictiva
forme parte de cada reporte, y permitiendo a los usuarios una toma de decisiones con base
10. en previsiones precisas y validadas relativas a futuros acontecimientos o a una serie de
condiciones específicas.
En lo concerniente a movilidad, aunque la tecnología de business intelligence móvil ya está
disponible en el mercado desde hace tiempo, y las compañías reconocen la importancia de
dar a los usuarios móviles la capacidad de acceder e interactuar con la información mientras
están fuera de la oficina, numerosas empresas todavía se plantean dudas a la hora de
embarcarse en un proyecto de estas características.
Existen muchos mitos infundados que implican que el BI móvil es muy complejo de
implementar y utilizar, muy limitado en materia de funcionalidad, y/o demasiado caro con
respecto al valor que aporta.
Nuestra plataforma WebFOCUS echa por tierra todos estos mitos. En realidad, las
compañías que escojan la solución adecuada, con las capacidades apropiadas, podrán hacer
realidad un bajo TCO y un rápido ROI, a la vez que dotan a sus usuarios móviles con la
capacidad de acceder e interactuar con la información corporativa completa y oportuna –en
cualquier momento y lugar–, y desde cualquier smartphone o tablet.
Al contrario de las herramientas de BI móvil que sólo ofrecen poco más que un simple
acceso a los datos básicos, nuestra solución pone a disposición de cualquier dispositivo
móvil poderosas funciones como la generación guiada de informes personalizados, la
analítica avanzada, el procesado para la salvaguarda de cambios y transacciones, y el BI en
tiempo real.
Con una arquitectura cliente mínima basada en el navegador, que se apoya 100% en
tecnologías web para poder ofrecer aplicaciones móviles, las organizaciones pueden ampliar
el número de aplicaciones con rapidez y el contenido disponible en los dispositivos móviles
sin cambiar la arquitectura subyacente.
Y, por último, en lo que tiene que ver con el social business, consideramos que uno de los
aspectos que no deben faltar cuando una empresa se propone desarrollar una estrategia
de redes sociales es cómo analizar el ingente volumen de información que esos canales
generan, y hacerlo adecuadamente. Hay muchas empresas que actualmente desarrollan
análisis de la actividad en las redes sociales, pero se quedan ahí, lo entienden como un
mundo independiente.
Para nosotros es importante entender el análisis de las redes sociales dentro de un todo en
la empresa, es decir, no sólo analizar la actividad per se, sino considerar cómo afecta, por
ejemplo, a las ventas o a la gestión de la relación con los clientes (CRM).
Realmente las redes sociales nos ofrecen más indicadores de los que podemos incluir en
nuestros análisis actuales dentro de la empresa. Las herramientas de business intelligence
se encuentran muy maduras y ya permiten realizar cualquier tipo de análisis de datos de
redes sociales, como el sentimiento, la influencia, el networking, etc.
11. Lo que veremos en un futuro cercano es la aparición de nuevas representaciones gráficas de
los datos recogidos en estos medios. Si hablamos de acciones concretas, puedo decir que
nuestras herramientas de análisis de redes sociales están permitiendo, por ejemplo, sacar
conclusiones sobre la correlación de la actividad en redes sociales con las ventas producidas
por una nueva campaña; sobre la imagen que se tiene de una marca en concreto; o sobre si
tiene reflejo en las reclamaciones las llamadas que se reciben en el call center.
12. Las urbes deben habilitar nuevos servicios que mejoren la
calidad de vida a la población, brindar mayor seguridad y
permitir a sus habitantes generar y manejar nuevos ingresos.
Los retos en el de
de Ciudades Inteli
14. Para abordar y mejorar la seguridad como parte de una iniciativa de Ciudad Inteligente, muchos
dispositivos -como cámaras, sensores, accesorios personales, etc.-, necesitan ser instalados y
utilizados. Todos ellos requieren conectividad en el borde de la infraestructura de red. Por supuesto,
los proveedores de tecnologías inalámbricas desempeñarán un papel clave, pero muchos requerirán
conectividad a la infraestructura de la ciudad. Incluso, los dispositivos conectados al proveedor
probablemente tendrán que conectarse de forma segura a una infraestructura analítica común.
Todos estos dispositivos periféricos forman parte del llamado Internet de las cosas (IOT) o Internet de
Todo (OIE). El verdadero desafío es cómo conectar de forma segura todos estos dispositivos periféricos
a la red de la ciudad y conectar de manera segura aquellos que funcionan a través de un proveedor o
infraestructura de terceros.
Esto significa que será necesaria más agilidad para añadir decenas de miles de dispositivos a una red
que en el pasado requería múltiples redes físicas para escalar, sin comprometer la seguridad. Todo,
incluyendo IOT, seguridad, escalabilidad y confiabilidad deben evaluarse seriamente. ¿Cuál es el punto
de la implementación de IOT si no pueden escalar, si no es segura ni confiable?
En definitiva, todo converge en la necesidad de una arquitectura de próxima generación para atender
las necesidades de las Ciudades Inteligentes. No se puede permanecer con una arquitectura de cliente/
servidor de 20 o 25 años de antigüedad, ya que esta arquitectura podría permitir que los hackers ganen
visibilidad al instante de toda la red.
Ante esto, se requieren soluciones que provean una arquitectura de matriz de próxima generación
basada en el transporte de Ethernet optimizado para servicios IP, independientemente de su
metodología de conectividad. Este enfoque deja literalmente toda la red invisible a los hackers.
Una tecnología de estas características es capaz de soportar hasta 15,000 cámaras funcionando sobre
una única infraestructura convergente con un protocolo, experimentando 500ms o mejores tiempos
de recuperación. Este es el tipo de cambio de infraestructura que requieren las Ciudades Inteligentes
para salvar vidas, mejorar la experiencia de sus residentes y permitir nuevos servicios de los cuales la
comunidad se beneficie.
La seguridad también es prioritaria
La ciberseguridad para los gobiernos ahora y en el futuro previsible es prioridad. De hecho, muchos
encargados de TI están reconsiderando el apoyo empresarial de BYOD y de SDN, en donde la
arquitectura de código abierto está siendo promovida y se espera que ayude a impulsar la agilidad de
los negocios. Desde un punto de vista de seguridad más fundamental, los gobiernos y las empresas
se encuentran muy preocupados de que alguien pueda penetrar sus redes corporativas y sus bienes,
exponiendo su propiedad intelectual y, por supuesto, información de ciudadanos y clientes.
Por lo tanto, buscar soluciones que reduzcan la capacidad de los hackers para obtener acceso y
visibilidad de su infraestructura de IP y topología es prioridad para los tomadores de decisión de los
sectores público y privado.
Existen soluciones que pueden ayudar a resolver esta situación, sin embargo, necesitan un cambio
de mentalidad y una transición de arquitectura legada. Los clientes necesitan abrir sus mentes
urgentemente y evaluar rápidamente la oferta existente. La clave para una solución viable es acoger un
ecosistema tecnológico que permita atender a estas necesidades.
15. Desde un punto de vista técnico, las ciudades tienen que pasar a un modelo de arquitectura diferente
para soportar servicios ‘Smart-X’. Hasta ahora se ha aprovechado adecuadamente el modelo tradicional,
pero en los últimos 25 años ha aumentado su complejidad y ha hecho de la confiabilidad un reto
enorme, debido a protocolos complejos necesarios para atender todas las necesidades de los negocios.
Ningún proveedor puede hacerlo por cuenta propia, lo que refuerza la necesidad de una arquitectura
abierta de regímenes de propiedad. La buena noticia es que existen soluciones; la mala noticia es que si
las empresas privadas y públicas siguen buscando entre los mismos proveedores que construyeron sus
redes hace 20 años proclamando que pueden hacerlo todo, su enfoque fallará.
Por tanto, se recomienda considerar una arquitectura abierta y aún controlada con responsabilidad de
los expertos de tecnología, lo que proporcionará piezas al rompecabezas, lo que es claramente complejo
y desafiante.
Las Ciudades Inteligentes van más allá de habilitar los servicios de WiFi. Hay una nueva tendencia
tomando forma, mientras que el WiFi es sin duda uno de los servicios, parte de la mayoría de las
iniciativas de Ciudades Inteligentes están agregando videovigilancia y análisis a gran escala, lo que es
bastante difícil cuando se utiliza una infraestructura obsoleta.
A medida que los gobiernos se provean de todas estas nuevas capacidades y servicios para las
Ciudades Inteligentes, tendrán que revisar su infraestructura para poder escalar y satisfacer las
necesidades de análisis en tiempo real.
También tendrían que considerar la adición de tecnología de sensores para atender necesidades
diversas que contribuyan a hacer más segura la ciudad. Por ejemplo, si la ciudad utiliza el gas natural,
probablemente quieran implementar sensores para detectar el flujo de fugas de gas potenciales en toda
la ciudad, de modo que les permita reaccionar rápidamente ante un problema potencial. Los gobiernos
podrían aprovechar la analítica de videovigilancia para dar seguimiento de una forma inteligente a
vehículos de respuesta a emergencias y controlar las luces reduciendo el tiempo al destino y el potencial
de accidentes.
Otras de las preocupaciones en muchas ciudades alrededor del mundo son las luces de la calle, debido
a que representan una fuente de energía desperdiciada. Pero éstas pueden ser controladas remotamente
durante toda la noche, dependiendo de la intensidad del tráfico, aprovechando el análisis en tiempo
real. Esto puede lograrse fácilmente reduciendo el consumo de energía eléctrica sin comprometer la
seguridad de los residentes o visitantes.
El concepto de Ciudades Inteligentes se trata de habilitar nuevos servicios para brindar mejor calidad
de vida a la población. Se trata de brindar mayor seguridad a las ciudades, de ofrecer nuevos servicios
permitiendo a los consumidores generar y manejar nuevos ingresos o en algunos casos proporcionar
una mejor experiencia a los visitantes y turistas.
Si los residentes se sienten seguros, obtienen los mejores servicios y sienten que su ciudad está a la
vanguardia, serán más felices y comprometidos con el bienestar de su ciudad.
La gente tiene muchas opciones para elegir su lugar de residencia, sin embargo actualmente, muchas
personas se preguntan si realmente quieren vivir en una ciudad no comprometida con el mejoramiento
de la calidad de vida de la población.
Por Jean Turgeon, Vicepresidente y Jefe de Tecnología de Arquitectura de Software Definido (SDA) en
Avaya
16. Por Laura Sarmiento
La
revolución
del Cloud
Computing
1 de cada 3 empresas en México ha
invertido en nube pública, privada o
híbrida, pues ésta brinda la posibilidad
de acceder a servicios TIC de forma
flexible, escalable y a un precio ajustado al
consumo real.
18. Cloud Computing es una herramienta tecnológica que permite a las empresas administrar y
hospedar su información en Internet, además de ofrecer numerosos recursos on demand y
aplicaciones que reducen los costos de operación en beneficio de las compañías de todo el
mundo.
Uno de los mayores beneficios que ofrece este servicio es la virtualización de los centros de
datos, que pueden operar de manera automatizada, sin la necesidad de la presencia de una
persona física y ser gestionados en cualquier momento y tiempo.
En el caso de México, se estima que el ahorro al adoptar la nube equivale a 0.31% del
PIB nacional, 0.23% corresponde al ahorro en el sector privado y 0.08% al ahorro en el
sector público. La computación en la nube o cloud computing tendrá un crecimiento anual
compuesto de aquí al 2018 de 55%.
Según IDC, la Nube en Infraestructura como Servicio (IaaS, por sus siglas en inglés) alcanza
los 98 millones de dólares; la Nube en Plataforma como Servicio (PaaS), 45 millones de
dólares; y la Nube en Software como Servicio (SaaS), 115 millones de dólares.
Si bien se tiene un crecimiento alto, aún es limitado, ya que sólo una de cada tres
empresas en México ha invertido en nube pública, privada o híbrida. Estas empresas
encuentran en el cloud computing la posibilidad de acceder a servicios TIC de forma flexible,
escalable y a un precio ajustado al consumo real.
De acuerdo con un estudio realizado por la consultora Market Research Media, el cloud
computing generará 270,000 millones de dólares en 2020, por lo que empresas como
Google, Amazon, IBM, Oracle y Apple han adoptado este sistema como parte del servicio
brindado a sus consumidores a través de los cuales, con sólo estar conectados a Internet,
los usuarios tienen la posibilidad de utilizarlos.
Niveles y segmentos de adopción en México
• En México, 62% de los corporativos usan cloud empresarial
• Del segmento medio, 45% recurren a estas plataformas
• Sólo el 2% de las microempresas adoptan soluciones en la nube
• El consumo de soluciones cloud aumento 23% en 2014
• Se proyecta un incremento de 32% durante 2015
*The CIU, enero 2015
Juan Manuel Pérez, gerente de producto de centro de datos en Westcon, afirmó que este
año se espera una inversión de alrededor de 220 millones de dólares en plataformas de
19. cómputo en la nube. El sector gobierno se reactivará debido a iniciativas como la integración
de sistemas contables automatizados en todas las dependencias, donde tan sólo el 30%
cuentan con una plataforma de este tipo, es decir, se trata de un mercado con alto potencial.
También se facilitará la infraestructura para que las propias empresas desarrollen su
nube privada y desde ahí habiliten los servicios que requieren para su operación diaria, lo
que dará paso a modelos híbridos, donde se agregan algunos servicios de proveedores
externos.
Bárbara Aguilera gerente de Marketing para Soluciones de Nube de IBM México, señala
que la nube no es sólo virtualización, sino que se trata de una herramienta que ayuda a la
transformación del negocio, ya que permite a las startups (empresas emergentes) crecer y
ser flexibles, lo cual las obliga a tener una infraestructura tecnológica fuerte. La nube es una
necesidad para seguir avanzando, ‘sin embargo, no siempre saben qué les conviene subir, si
deben hacerlo a una nube pública, a una privada o a una híbrida’.
Aguilera señala que
IBM tiene programas
dirigidos a este tipo de
organizaciones, y para
participar es necesario
que sean empresas ya
consolidadas, pero que no
tengan más de tres años
de operación. El apoyo va
desde el acompañamiento
tecnológico, licencias de
software gratis e incluso
una aportación económica,
que puede ser de mil o
10 mil dólares al mes.
‘Al ayudar a este tipo de
empresas a iniciar un
camino en el cómputo en
la nube se obtiene la certeza de que cuando dejen de ser startups, nuestros productos y
servicios seguirán siendo parte de su transformación e incorporación al mercado’.
Cabe apuntar que IBM y SAP se aliaron para que las empresas puedan acelerar su
capacidad para realizar operaciones críticas en el entorno de la nube. Rosa Casillas,
Directora de Cloud en IBM México, destaca que esta plataforma de nube empresarial
segura, abierta e híbrida permitirá a los clientes de SAP en México respaldar nuevas formas
de trabajo en una era definida por los términos Big Data, Móvil y Social.
Luis Fernando Cassaigne, Consultor Técnico Senior de EMC (Enterprise Hybrid Cloud),
subraya el ‘poder de la conjunción Y’”, debido a que los líderes de tecnología no se
20. dejan atrapar y exigen un estrato híbrido, como la opción más racional y rentable para la
modernización de la infraestructura de datos.
‘La tercera vía lleva a las compañías a optar por las nubes híbridas y los proveedores
debemos dar ofertas incluyentes. Hay recursos que consumen espacio de discos y energía,
que se utilizan sólo en el momento de implementarse la solución o cuando se realizan
cambios. Estos activos de desarrollo de aplicaciones pueden estar en un espacio de
nube pública, al igual que algunos sistemas de calidad de la plataforma. Al tiempo que las
funciones medulares para la operación –producción, finanzas y procesos financieros—
residirían en la nube privada’.
En marzo pasado, IDC y Oracle dieron a conocer el desarrollo de la herramienta Cloud
Benchmark Assessment, que permitirá que profesionales de áreas como Tecnología,
Marketing, Finanzas, Recursos Humanos y Customer Experience analicen cómo las
empresas y sus áreas están preparadas para la adopción del Cloud Computing.
Esta evaluación se divide en diferentes etapas con el fin de destacar los procesos de las
empresas en la adopción de diferentes soluciones en la nube, además de la conexión entre
áreas, niveles de automatización, y de preguntas específicas para diagnosticar el grado de
madurez de la infraestructura de TI en la empresa.
Mientras este estudio se realiza, Accenture y Oracle se unieron para enfrentar el mercado
y desarrollar soluciones de clase empresarial en la nube preintegradas y simplificar la
migración.
Barreras para implementar servicios cloud en la empresa
Cabe señalar que el aspecto cultural es la principal barrera que enfrentan los CIO a la hora
de impulsar los servicios cloud al interior de sus organizaciones, ya que muchas empresas
se niegan a dejar sus datos y procesos de negocio en manos de terceros ante el temor de
sufrir incidencias que escapen a su propia gestión o problemas de rendimiento y caídas que
puedan experimentar estos servicios.
En este sentido, las empresa sproveedoras de los servicios cloud en conjunto con la Unión
Europea trabajan para brindar certidumbre. CA Labs (división de investigación de CA
Technologies) participa en un consorcio europeo del Programa Horizon 2020, para investigar
sobre seguridad y afrontar los desafíos en entornos multicloud.
El objetivo del consorcio es investigar y desarrollar distintas tecnologías para facilitar
el diseño, la monitorización y la gestión de la seguridad en la nube para aplicaciones
multicloud (que utilizan simultáneamente múltiples servicios cloud proporcionados por
distintos proveedores).
21. Las innovaciones y descubrimientos que resulten de este programa Horizon 2020, así como
la investigación realizada por CA Labs, ayudarán a reducir esa preocupación, gracias a la
creación de un marco de seguridad para aplicaciones distribuidas en múltiples recursos
cloud.
El consorcio inició el programa de investigación formalmente en enero de 2015 y tendrá
una duración de tres años. Esta iniciativa es financiada por Innovation Union, con un
presupuesto de 3.5 millones de euros para asegurar la competitividad global.
El Cloud Computing revoluciona el mundo, sin embargo, se deben tener en cuenta los pros
y contras de la adopción de esta tendencia tecnológica; analice el mercado y a las empresas
que ofrecen estos servicios; evalúe las características que le ofrecen, compare y escoja la
que más beneficios y garantías le ofrezca, además debe tomar en cuenta la solidez de su
proveedor para resguardar los datos y tener acceso a los servicios en todo momento.
22. La Virtua
una herramienta a
Esta solución tecnológica permite el correcto aprovechamiento
de los recursos de TI y se adapta a cualquier tipo y tamaño de
empresa.
24. Hasta hace pocos años, la Virtualización era una tendencia tecnológica a la que los grandes
analistas como Gartner e IDC pronosticaban un gran futuro, sin embargo, muy pocas
empresas alcanzaban a visualizar el verdadero impacto que estas soluciones tecnológicas
tendrían en sus negocios. Es más, algunas de ellas ni siquiera alcanzaban a comprender en
qué consistía exactamente esta herramienta y mucho menos su potencial para contribuir
a la eficiencia y productividad de las organizaciones. Para algunas empresas, simple y
sencillamente era algo que sonaba muy ‘bonito’, pero también muy costoso y complicado
de implementar.
Hoy, sin embargo, la Virtualización se ha convertido en una tecnología que ha demostrado
resultados positivos y tangibles para las empresas. Y si bien es cierto que la mayoría de
las que la han implementado son empresas de gran tamaño, también es cierto que las
pequeñas y medianas empresas han decidido no quedarse atrás y subirse a este tren, cuyo
viaje ofrece grandes beneficios.
La Virtualización es una herramienta tecnológica que permite el correcto aprovechamiento
de los recursos de TI y que se adapta a cualquier tipo y tamaño de empresas. En la
actualidad, se utiliza como una de las estrategias para consolidar y optimizar recursos.
IDC afirma que el mercado mexicano de virtualización es uno de los más maduros y
consolidados en Latinoamérica. Además, de acuerdo con una encuesta (Prioridades de TI
2014) de la compañía de publicaciones de tecnología TechTarget, 58% de las empresas en
América Latina desarrollan proyectos de Virtualización.
Es claro que, hasta ahora, la reducción de costos ha sido el motivo fundamental que ha
dado impulso a la Virtualización; no obstante, existen otros beneficios que las empresas
podrían obtener al implementar estas soluciones tecnológicas.
A continuación se exponen 4 razones para no quedarse atrás y aprovechar los beneficios de
la Virtualización.
1.- Mejora en la continuidad del negocio
Las contingencias son situaciones que nadie puede prever, simplemente se presentan; en
consecuencia, hay que estar preparados para actuar de la mejor manera posible y evitar un
daño mayor. ¿Ha pensado en la posibilidad de que ciertos desastres naturales llegaran a
afectar las operaciones de su negocio?
Situaciones como estas o fallas en elementos de la infraestructura de cómputo pueden
afectar a cualquier negocio o compañía, y pueden traer, entre otras consecuencias, pérdida
de clientes y de ganancias, sin contar la mala reputación de la que podría ser objeto la
marca, además de posibles multas por parte de autoridades regulatorias.
25. En opinión de Mauricio Zajbert, PSO Director México & NOLA de VMware, la Virtualización
crea un entorno altamente disponible que garantiza el acceso a las aplicaciones en todo
momento. Si uno de los servidores falla, todas las máquinas virtuales se pueden reiniciar
de manera automática en otra máquina, sin tiempo fuera de servicio ni pérdida de datos.
Además, la Virtualización proporciona la base para la planificación y la preparación
correspondientes a la recuperación ante desastres.
Según una encuesta de VMware, la continuidad del negocio es una de las inquietudes
principales de las empresas que adoptan un entorno de TI virtualizado; y 66% de las
que fueron encuestadas experimentaron una mejora en esta área tras implementar la
Virtualización.
2.- Simplificación de la administración de TI
Sin duda que uno de los grandes desafíos de la administración de TI es la simplificación
de la infraestructura tecnológica de manera que pueda responder eficientemente a los
requerimientos del negocio. Y es que el mantenimiento de servidores en un entorno físico
de TI requiere de mucho tiempo. La mayoría de los departamentos de TI pasan al menos la
mitad de su tiempo realizando tareas administrativas de rutina, como agregar y administrar
cargas de trabajo de nuevos servidores, agregar nuevos empleados o desarrollar y lanzar
nuevas aplicaciones.
Hoy, esto ya no tiene que ser una pesadilla para los departamentos de TI, pues muchos
gerentes de informática han comenzado a darse cuenta de que la Virtualización puede
optimizar esta labor y conducir a una administración más eficiente de la infraestructura
tecnológica.
Zajbert señala que ‘las herramientas de administración de la Virtualización de proveedores
líderes incluyen capacidades de automatización inteligentes. Estas herramientas eliminan
la necesidad de que los empleados de TI realicen el mantenimiento de rutina manualmente
y resuelvan problemas en varias máquinas físicas. Estas herramientas también pueden
detectar y resolver, de manera anticipada, estos problemas sin intervención’.
Datos de VMware señalan que de las empresas que han implementado la Virtualización, el
73% ha reportado reducciones significativas en el tiempo dedicado a tareas administrativas
de rutina.
3.- Capacidad de reasignar recursos de TI a fines más estratégicos
Otro de los desafíos que enfrentan las organizaciones en México, es incrementar la
productividad laboral. Muchos negocios en la actualidad han recurrido a las tecnologías de
26. información y comunicación para hacer frente a este reto; muchas de ellas han conseguido
mejoras significativas que les han permitido ser más eficientes y hacer crecer el negocio.
¿Qué sucede con la Virtualización? Desde luego que esta tecnología también puede hacer
mucho a favor de la productividad laboral, sobre todo hablando del desempeño de quienes
integran el departamento de TI. Mauricio Zajbert afirma que ‘la Virtualización libera el tiempo
de los empleados de TI para tareas más importantes debido a que permite la automatización
de diversas tareas que previamente necesitaban realizarse manualmente. La productividad
de los empleados es el factor principal que impulsa el retorno de la inversión (ROI) en
entornos virtualizados’.
Una encuesta arrojó que 66% de los gerentes de TI detectaron mejoras operacionales con la
Virtualización relacionadas con una mayor eficiencia en el respaldo y la administración.
4.- Mejora en la capacidad de respuesta del negocio
Las ventajas y beneficios de cierta tecnología no causan impacto en nada ni en nadie al
menos que se consideren desde una perspectiva de negocio. Hoy, las compañías tienen
que sobrevivir en medio de un entorno de negocios complicado, donde la competencia es
más agresiva, el consumidor muy demandante y las autoridades regulatorias cada vez más
exigentes.
Ante ello, los negocios tienen que ser más ágiles para adaptarse a las condiciones
cambiantes del entorno de negocio y seguir estando en la preferencia del mercado. En esto,
sin lugar a dudas, ha sido esencial el rol de tecnologías como la Virtualización, que han
servido de respaldo para que las compañías allanen el camino para alcanzar sus objetivos
de negocio.
¿Cómo ayuda la Virtualización? Zajbert indica que ‘la capacidad de respuesta del negocio es
una capacidad esencial para las empresas de todos los tamaños. La virtualización crea una
infraestructura dinámica que ayuda a los negocios a reaccionar más rápido ante cambios
en entornos altamente competitivos. También ayuda a asegurar que las aplicaciones
permanezcan disponibles y con un alto rendimiento sin importar las exigencias a las que se
las somete’.
Hoy, gracias a la Virtualización, una empresa tiene la capacidad de seguir operando las 24
horas del día y los 365 días del año, obteniendo importantes beneficios adicionales. No
hay que quedarse con la idea de que sólo genera ahorro de costos; hay que ir más allá y
atreverse a descubrir todo el potencial de la Virtualización.
28. 5 errores al
implementar
un Data Center
Definido por
Software
El éxito de la implementación de un SDDC y sus consecuentes
beneficios para el negocio requiere alinear la tecnología con los
procesos de negocio, y éstos con las personas.
30. En los últimos años, las Tecnologías de Información y Comunicación (TIC) han demostrado
su potencial para elevar la eficiencia, la productividad, la competitividad y a elevar
los ingresos de los negocios. Muchas compañías han encontrado en las soluciones
tecnológicas un aliado importante para llevar a cabo, de forma exitosa, su estrategia de
negocios.
Uno de los grandes retos que las organizaciones deben enfrentar es ajustar su modelo de
negocio a la nueva dinámica del entorno empresarial, pues de lo contrario se quedarían
rezagadas en el camino, hasta desaparecer. Es aquí donde las TIC juegan un papel
importante, pues éstas han surgido y han sido adaptadas para dar respuesta a los nuevos
requerimientos del negocio. Las TIC brindan aplicaciones y servicios rápidamente escalables
que permiten a las empresas dejar atrás las limitaciones de sus anticuadas arquitecturas y
agilizan los negocios con soluciones más eficientes.
Una de estas tecnologías son las Aplicaciones e Infraestructura Definidas por Software
(Software-Defined Applications and Infrastructure). La firma analista Gartner ubica a estas
herramientas en el Top 10 de las Tendencias Tecnológicas Estratégicas para 2015. Según la
consultora, ‘la programación ágil de cualquier cosa, desde aplicaciones hasta infraestructura
básica es esencial para permitir a las organizaciones brindar la flexibilidad requerida para
hacer que operen los negocios digitales. Software-Defined Networking, Storage, Data
Centers y Seguridad están madurando’.
SDDC, una nueva visión para la arquitectura de infraestructura
En años recientes, los departamentos de TI han tenido que lidiar con la complejidad, ya
que la implementación de las diversas tecnologías que buscan dar respuesta a nuevos
requerimientos del negocio, han dado como resultado Centros de Datos complejos, con
configuraciones estáticas, esfuerzos de virtualización incompletos y múltiples silos que se
requieren gestionar.
Como respuesta a esto, se generó un nuevo tipo de arquitectura que hoy se conoce como
Software-Defined Data Center - SDDC (Centro de Datos Definido por Software), un espacio
‘virtual’ -a diferencia de un espacio físico común para albergar un Centro de Datos- en el
que las empresas pueden mantener y operar la infraestructura tecnológica que utilizan para
administrar sus procesos empresariales.
SDDC es una plataforma de fácil administración y altamente automatizada que abarca todas
las aplicaciones para una rápida implementación en los Centros de Datos, las nubes y los
dispositivos móviles; y que satisface rápidamente las nuevas demandas del negocio, sin
poner en riesgo la agilidad, la eficacia, el control ni la posibilidad de elección.
José García, Especialista en Gestión de Infraestructura de Cloud en VMware, señala que
‘una arquitectura del Centro de Datos Definido por el Software ayuda a las empresas a
obtener resultados de TI distintivos para generar mayor seguridad y disponibilidad, entrega
31. de servicios más rápida y costos más bajos. Gracias a un SDDC, las organizaciones de TI
obtienen capacidades únicas que contribuyen a que respondan a las solicitudes del negocio
de forma rápida y rentable’.
La mejor forma de implementar un SDDC
Las ventajas y beneficios de contar con un SDDC que permita gestionar toda la
infraestructura tecnológica de una organización deben ser consideradas tanto a nivel de TI
como del negocio. Sin embargo, su ejecución no es algo tan sencillo, pues se necesitará
una nueva estrategia para implementar procesos, tecnologías, conjuntos de habilidades e
incluso estructuras organizacionales de TI.
El SDDC es una arquitectura abierta que afecta la manera en que operan las Tecnologías de
la Información actualmente. Y, como tal, la organización de TI debe crear un plan mediante el
que se utilicen las inversiones en personas, procesos y tecnología ya realizadas para ofrecer
aplicaciones heredadas y nuevas, al mismo tiempo que se cumplen las responsabilidades de
TI fundamentales.
Para apoyar a las organizaciones a lograr una buena implementación de un SDDC,
a continuación se enlistan los 5 errores comunes que se llegan a cometer y cómo
solucionarlos.
1.- Problemas para desarrollar una visión y estrategia claras. A veces, las organizaciones
implementan soluciones sin establecer las expectativas correctas y una dirección clara para
el programa. Por ello, es necesario que el CIO utilice todos los recursos disponibles dentro
de la organización de TI para crear una visión y una estrategia alineada con las necesidades
del negocio y, mediante ellas, identificar las diferentes áreas que deben analizarse para
garantizar la adopción exitosa de un SDDC. Se recomienda llevar a cabo una evaluación
completa que incluya las áreas de personas, procesos y tecnología; y que puede ser
mediante un análisis FODA.
2.- Tiempo limitado para revisar y comprender las políticas actuales. Muchas políticas
dentro de la organización de TI pueden impedir el avance en la implementación de un
SDDC; en esos casos, la organización debe realizar una revisión detallada de las políticas
actuales que rigen los negocios y las operaciones de TI diarias. Cuando estos problemas se
identifican desde el principio, los líderes de TI pueden comenzar las negociaciones con las
líneas de negocio, ya sea para cambiar sus políticas o para crear alternativas que permitan
que la solución ofrezca el valor esperado.
3.- Falta de madurez con respecto a los procesos de administración del servicio de la
organización de TI. Un SDDC redefine la infraestructura de TI y permite que la organización
combine la tecnología con una nueva manera de operar para estar más orientada al servicio
y más enfocada en proporcionar valor al negocio. Por ello, se debe establecer un proceso de
administración de servicio desarrollado para respaldar esta transformación. Se recomienda
32. garantizar que se identifique la propiedad para cada proceso, con indicadores de
rendimiento clave (KPI, Key Performance Indicators) y métricas mensurables establecidas, y
mantener al equipo de TI involucrado a medida que se desarrollan nuevos procesos.
4.- La administración de la nueva solución como una adaptación al entorno actual.
Muchas organizaciones de TI adoptan una nueva tecnología o solución sólo para intentar
adaptarla a su modelo operacional actual, lo cual es un grave error, pues las organizaciones
deben evaluar sus requisitos actuales y determinar si serán necesarios para las nuevas
soluciones. Por ello, se recomienda comenzar de una manera ágil, minimizar los obstáculos,
reducir los procesos complejos, automatizar el sistema tanto como sea posible, identificar
nuevos roles de manera clara, implementar informes básicos y establecer políticas de
cambio estrictas.
5.- No hay evaluación de las capacidades de la organización de TI ni plan para llenar
las brechas del conjunto de habilidades. El recurso más importante para la organización
de TI es su gente, así que la administración no tendrá éxito en sus implementaciones si
su personal no está capacitado y no puede operar, mantener y mejorar la nueva solución.
La organización de TI debe evaluar primero el conjunto de habilidades actuales; luego,
trabajar con los recursos internos o los proveedores para determinar la manera en que
la organización debe evolucionar para lograr el estado deseado. Una vez que se haya
identificado esa brecha, el equipo de administración de TI puede desarrollar un plan de
habilitación para comenzar a solucionarla.
El éxito de la implementación de un SDDC y sus consecuentes beneficios para el negocio,
requieren, como sucede con otras soluciones tecnológicas, alinear la tecnología con los
procesos de negocio, y éstos con las personas. No es tarea sencilla, pero no hay duda de
que cualquier organización puede lograrlo. Hoy es tiempo de decidirse y dar el primer paso
hacia la simplicidad y la agilidad.