O documento discute melhores práticas de planejamento de capacidade aplicadas em um projeto de recuperação de desastres (DR). Ele descreve como o projeto, inicialmente focado em continuidade de negócios, também abordou problemas de desempenho e capacidade no ambiente de produção, melhorando significativamente o desempenho de uma aplicação crítica por meio de otimizações de hardware e armazenamento.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Os Dados da sua empresa são importantes? Se sua empresa perder um dia de informação o que acontece? com essas duas perguntas inicio a sessão e entro em uma longa conversa e troca de experiencias sobre HA e DR.
Explicando a diferença entre HA e DR. E qual o benefícios de utilizar e não esses conceitos.
Exemplificando com conceitos oficiais as consequências de empresas que perderam dados pois não existia uma disponibilidade de informações ou plano de recuperação de desastre.
Aplicando HA e DR com Alwayson, para exemplificar na pratica o funcionamento de cada um deles.
Apresentação Seeds to the Cloud - Clarissa Mattos, dataRain.pptxdataRain
O documento discute estratégias de recuperação de desastres (Disaster Recovery) utilizando serviços da AWS. Ele explica o que é Disaster Recovery e planos de recuperação, como começar a planejar uma estratégia, e técnicas como backup e restore, piloto leve e hot standby que podem ser implementadas na nuvem para melhorar a continuidade dos negócios.
1. O documento discute soluções de Alta Disponibilidade (HA) e Recuperação de Desastres (DR) fornecidas pela Libelle AG, incluindo sua solução BusinessShadow. 2. Aborda conceitos de HA e DR, como objetivos de ponto de recuperação e tempo de recuperação. 3. Explica como a solução BusinessShadow pode atender requisitos de HA e DR em arquiteturas corporativas.
Este documento discute soluções de Alta Disponibilidade (HA) e Recuperação de Desastres (DR) fornecidas pela Libelle AG. A solução principal é o BusinessShadow®, que oferece replicação de dados para proteger contra falhas de hardware ou software. O documento explica como a solução aborda os objetivos de recuperação de pontos e tempo para garantir a disponibilidade dos sistemas e aplicativos.
A apresentação propõe três arquiteturas Hadoop para processar dados de monitoramento de rede de uma empresa de telecomunicações. A proposta 3, que usa Hadoop, HBase, YARN e CrateData, é a escolhida por oferecer maior capacidade de processamento e não impactar sistemas legados.
Este documento apresenta a programação de uma conferência sobre planejamento de desempenho e capacidade que ocorrerá em 21 de maio de 2014 na Faculdade Oswaldo Cruz em São Paulo. A programação inclui palestras sobre tópicos como planejamento de capacidade, mainframes, virtualização, nuvem e desempenho de aplicativos. Haverá também painéis e sessões sobre melhorias de desempenho no armazenamento e modernização de sistemas mainframe.
1 - Perfil da empresa fornecedora do software
2 - 100 principais clientes de referência ARPO
3 - Proposição de valor do software ARPO
4 - Metodologia para modelagem de processos
5 - Ampliando a visão de processos
6 - Metodologia para modelagem do negócio
7 - Resumo das principais funcionalidades
8 - Opções de configuração e licenciamento
9 - Comparativo de ferramentas para BPM
10 - Convite para conhecer a versão gratuita do software
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
Os Dados da sua empresa são importantes? Se sua empresa perder um dia de informação o que acontece? com essas duas perguntas inicio a sessão e entro em uma longa conversa e troca de experiencias sobre HA e DR.
Explicando a diferença entre HA e DR. E qual o benefícios de utilizar e não esses conceitos.
Exemplificando com conceitos oficiais as consequências de empresas que perderam dados pois não existia uma disponibilidade de informações ou plano de recuperação de desastre.
Aplicando HA e DR com Alwayson, para exemplificar na pratica o funcionamento de cada um deles.
Apresentação Seeds to the Cloud - Clarissa Mattos, dataRain.pptxdataRain
O documento discute estratégias de recuperação de desastres (Disaster Recovery) utilizando serviços da AWS. Ele explica o que é Disaster Recovery e planos de recuperação, como começar a planejar uma estratégia, e técnicas como backup e restore, piloto leve e hot standby que podem ser implementadas na nuvem para melhorar a continuidade dos negócios.
1. O documento discute soluções de Alta Disponibilidade (HA) e Recuperação de Desastres (DR) fornecidas pela Libelle AG, incluindo sua solução BusinessShadow. 2. Aborda conceitos de HA e DR, como objetivos de ponto de recuperação e tempo de recuperação. 3. Explica como a solução BusinessShadow pode atender requisitos de HA e DR em arquiteturas corporativas.
Este documento discute soluções de Alta Disponibilidade (HA) e Recuperação de Desastres (DR) fornecidas pela Libelle AG. A solução principal é o BusinessShadow®, que oferece replicação de dados para proteger contra falhas de hardware ou software. O documento explica como a solução aborda os objetivos de recuperação de pontos e tempo para garantir a disponibilidade dos sistemas e aplicativos.
A apresentação propõe três arquiteturas Hadoop para processar dados de monitoramento de rede de uma empresa de telecomunicações. A proposta 3, que usa Hadoop, HBase, YARN e CrateData, é a escolhida por oferecer maior capacidade de processamento e não impactar sistemas legados.
Este documento apresenta a programação de uma conferência sobre planejamento de desempenho e capacidade que ocorrerá em 21 de maio de 2014 na Faculdade Oswaldo Cruz em São Paulo. A programação inclui palestras sobre tópicos como planejamento de capacidade, mainframes, virtualização, nuvem e desempenho de aplicativos. Haverá também painéis e sessões sobre melhorias de desempenho no armazenamento e modernização de sistemas mainframe.
1 - Perfil da empresa fornecedora do software
2 - 100 principais clientes de referência ARPO
3 - Proposição de valor do software ARPO
4 - Metodologia para modelagem de processos
5 - Ampliando a visão de processos
6 - Metodologia para modelagem do negócio
7 - Resumo das principais funcionalidades
8 - Opções de configuração e licenciamento
9 - Comparativo de ferramentas para BPM
10 - Convite para conhecer a versão gratuita do software
1) O documento fornece 10 dicas para a implementação do Oracle Application Server em ambientes corporativos, incluindo determinar requisitos, adotar uma topologia de referência e antecipar problemas conhecidos.
2) É recomendado formalizar um mediador entre as áreas envolvidas na instalação para facilitar a comunicação.
3) Também é aconselhável estabelecer pontos de controle durante a instalação e configuração para evitar atrasos.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
O documento apresenta o processo, ferramentas e resultados de um estudo de planejamento e performance na consolidação de CECs mainframe. O objetivo era melhorar a utilização de recursos e reduzir custos ao consolidar vários CECs em um único sistema z13, avaliando a configuração, capacidade e desempenho antes e depois da mudança. As ferramentas utilizadas incluíram LPAR Design, zPCR e registros SMF para análise. Os resultados indicaram aumento na capacidade e eficiência após a consolidação.
Entendendo o ZDLRA - Oracle Zero Data Loss Recovery Appliance e garantindo rp...Weligton Pinto
O ZDLRA é a solução Oracle quem vem para mudar a forma com que pensamos em Recovery & Backup de dados em ambiente Oracle. É a única solução de mercado que pode garantir o RTO = 0, através do CDP - Continuous Data Protection. Ele também controla todo o Ciclo de vida dos Backups fazendo uso de definições como políticas de retenção que gerenciam de Disco => Fita => Expurgo e também de Fita => Disco. Vale a Leitura.
O documento discute as soluções de proteção de dados da CA, destacando os benefícios de sua plataforma Unified Data Protection (UDP), como menor custo, complexidade e maior capacidade em comparação às soluções tradicionais de backup. A UDP oferece recursos como backups incrementais infinitos, desduplicação global, virtual standby e recuperação garantida para garantir a disponibilidade dos dados e sistemas críticos.
Maria Isabel Soutello (IsabelSoutello) - migdsbel@gmail.com
Em período de pico pode ser necessário aumentar os processadores online numa partição sem prejuízo das outras no mesmo CEC e/ou mexer no peso direcionando mais capacidade para atender a demanda extra.
Medidas como “load average” e “# processors parked” quando salvas durante período monitorado e analisadas, podem corrigir ou refinar “tamanho” das LPARs, definido inicialmente no plano de capacidade.
Relação entre “load average” e # processors online” é mais exata que “% MVS utilization” para determinar número ideal de CPs lógicos, e “# processors parked” ajuda determinar % LPAR weight ou garantia no CEC.
O documento discute a utilização da computação em nuvem para garantir a continuidade dos negócios através da tolerância a desastres. Ele apresenta métodos de pesquisa sobre replicação de dados em nuvens públicas e privadas usando point-in-time para recuperação de dados após incidentes. Também analisa cenários de falhas e a definição de parâmetros como Recovery Point Objective (RPO) para alinhar a tecnologia às necessidades do negócio.
A PRINCIPAL PLATAFORMA ABERTA, FAÇA MAIS COM MENOSRaul Leite
O documento discute:
1) A receita e crescimento da Red Hat nos últimos anos, com foco em serviços e suporte para Linux Enterprise;
2) Os benefícios do código aberto para desenvolvimento de software, como redução de custos e inovação;
3) As soluções da Red Hat para virtualização, middleware, armazenamento na nuvem e infraestrutura.
Valdir Adorni - Infra and S.A.N Assessment Integration SampleValdir Adorni
1) O documento descreve planos para a infraestrutura de armazenamento e rede de uma empresa, incluindo mapeamento de servidores, volumes, configurações de SAN, backup e armazenamento.
2) Serão conectados 16 drives de fita entre 8 controladores, com cabos curtos de 30 metros e conectores LC/LC.
3) A topologia SAN será de 1 para 2 fabrics para melhor segurança, com vantagens e desvantagens discutidas.
O documento solicita a contratação de uma empresa especializada em soluções tecnológicas integradas para modernizar os recursos de tecnologia da informação da FURP. A proposta inclui a locação de equipamentos como estações de trabalho, servidores, ativos de rede e licenças por um período de 36 meses. A solução visa atualizar tecnologicamente a fundação e padronizar seus processos de negócio.
Os 10 Mandamentos para realizar um projeto de upgrade SAPIssac Nolis Ohasi
O documento apresenta 10 mandamentos para realizar um projeto de upgrade do SAP e discute os impactos nos controles internos. Os mandamentos incluem: 1) definir a logística de trabalho sem impactar dados restritos, 2) migrar apenas o que for necessário, 3) medir e controlar o que for medido, 4) definir change management, 5) realizar testes adequados, 6) construir o planejado, 7) prestar atenção nos detalhes, 8) revisar atribuições, 9) segregar funções e proteger dados, 10) se preocup
TDC2018SP | Trilha PHP Essencial - O que nao fazer ao atualizar para o PHP 7tdc-globalcode
O documento discute as lições aprendidas ao atualizar para o PHP 7. Principalmente, enfatiza a importância de testes abrangentes, cuidado ao usar novos recursos como tipos escalares e evitar incompatibilidades entre extensões. Além disso, recomenda preparar o código para facilitar migrações futuras e acompanhar evoluções na infraestrutura.
Transformando Grandes Volumes de Dados em Insight em Tempo Real usando Fast D...Ricardo Ferreira
1) O documento discute como transformar grandes volumes de dados em insights em tempo real usando técnicas de Fast Data e processamento de eventos complexos (CEP).
2) É apresentada uma demonstração de caso de uso monitorando redes sociais em tempo real para gerar KPIs inteligentes.
3) São explicados os principais tipos de processamento de dados em CEP, incluindo janelas de tempo, agregações e relacionamentos.
1) O documento discute como a infraestrutura convergente e hiperconvergente podem simplificar as operações de TI e reduzir custos.
2) A adoção de tecnologias disruptivas como a hiperconvergência pode permitir que empresas obtenham vantagens competitivas ao serem as primeiras a adotá-las.
3) A plataforma Apprenda permite que a infraestrutura existente seja transformada em uma plataforma autoatendida controlada por políticas, oferecendo recursos de computação em nuvem híbrida.
Big Data, Performance, Posix, RTB no mercado de publicidade onlineTiago Peczenyj
Tiago Peczenyj apresenta sobre propaganda na web, incluindo técnicas como retargeting, real time bidding e uso de big data para segmentar audiências e melhorar a performance de campanhas online. Ele também discute desafios de escalabilidade em sistemas de publicidade e ferramentas como Redis e Riak para armazenamento e processamento de grandes volumes de dados.
Greenplum: O banco de dados open source massivamente paralelo baseado em Post...PGDay Campinas
Conheça o Greenplum DB o banco de dados massivamente paralelo voltado para Data Warehouse, Analytics e Big Data. Sua origem no PostgreSQL, história e retorno as origens open source. Veja como a arquitetura MPP Shared Nothing permite o processamento de grande volumes com facilidade e como as extensões analíticas permitem fazer Data Mining em um volume arbitrário de dados. Também analisaremos alguns casos de uso locais e internacionais!
Este documento descreve como configurar um banco de dados primário e standby físico utilizando o Oracle Data Guard. Ele explica como preparar o servidor primário definindo parâmetros como FORCE LOGGING, standby redo logs e LOG_ARCHIVE_DEST para transportar os logs para o standby. Também mostra como criar a instância standby usando o RMAN para duplicar o banco de dados primário.
GUOB - Passa-a-passo para migração do Oracle Database 11gRodrigo Almeida
O documento fornece um guia passo-a-passo para a migração de um banco de dados Oracle 11g, cobrindo as etapas de planejamento (pré-migração, migração e pós-migração), razões para migrar, ferramentas de administração e dicas.
O documento discute as arquiteturas de soluções de backup na nuvem, comparando as opções disponíveis e definindo melhores práticas. Apresenta técnicas como desduplicação de dados e otimização TCP para melhorar o desempenho, além de abordar questões de segurança e arquitetura de soluções de backup na nuvem.
VMware 4 razoes convincentes para VirtualizarDênison Knob
O documento discute quatro razões para expandir a virtualização em ambientes de TI com limitações de recursos: 1) melhorar a continuidade dos negócios através de alta disponibilidade e segurança de dados, 2) simplificar o gerenciamento de TI, 3) liberar recursos de TI para fins estratégicos, e 4) aumentar a capacidade de resposta. A virtualização oferece flexibilidade e economia para empresas com recursos limitados.
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
O documento discute as tecnologias de computação empresarial moderna para cargas de trabalho de negócios. Ele descreve como infraestrutura flexível, escalabilidade não disruptiva, continuidade de negócios e eficiência operacional permitem aplicações corporativas modernas e liberdade através de padrões abertos. A segurança de dados confidenciais é essencial nesse ambiente.
More Related Content
Similar to Melhores práticas de planejamento de capacidade aplicadas num projeto de Transformação DC Produtivo e DR (Disaster Recovery)
1) O documento fornece 10 dicas para a implementação do Oracle Application Server em ambientes corporativos, incluindo determinar requisitos, adotar uma topologia de referência e antecipar problemas conhecidos.
2) É recomendado formalizar um mediador entre as áreas envolvidas na instalação para facilitar a comunicação.
3) Também é aconselhável estabelecer pontos de controle durante a instalação e configuração para evitar atrasos.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
O documento apresenta o processo, ferramentas e resultados de um estudo de planejamento e performance na consolidação de CECs mainframe. O objetivo era melhorar a utilização de recursos e reduzir custos ao consolidar vários CECs em um único sistema z13, avaliando a configuração, capacidade e desempenho antes e depois da mudança. As ferramentas utilizadas incluíram LPAR Design, zPCR e registros SMF para análise. Os resultados indicaram aumento na capacidade e eficiência após a consolidação.
Entendendo o ZDLRA - Oracle Zero Data Loss Recovery Appliance e garantindo rp...Weligton Pinto
O ZDLRA é a solução Oracle quem vem para mudar a forma com que pensamos em Recovery & Backup de dados em ambiente Oracle. É a única solução de mercado que pode garantir o RTO = 0, através do CDP - Continuous Data Protection. Ele também controla todo o Ciclo de vida dos Backups fazendo uso de definições como políticas de retenção que gerenciam de Disco => Fita => Expurgo e também de Fita => Disco. Vale a Leitura.
O documento discute as soluções de proteção de dados da CA, destacando os benefícios de sua plataforma Unified Data Protection (UDP), como menor custo, complexidade e maior capacidade em comparação às soluções tradicionais de backup. A UDP oferece recursos como backups incrementais infinitos, desduplicação global, virtual standby e recuperação garantida para garantir a disponibilidade dos dados e sistemas críticos.
Maria Isabel Soutello (IsabelSoutello) - migdsbel@gmail.com
Em período de pico pode ser necessário aumentar os processadores online numa partição sem prejuízo das outras no mesmo CEC e/ou mexer no peso direcionando mais capacidade para atender a demanda extra.
Medidas como “load average” e “# processors parked” quando salvas durante período monitorado e analisadas, podem corrigir ou refinar “tamanho” das LPARs, definido inicialmente no plano de capacidade.
Relação entre “load average” e # processors online” é mais exata que “% MVS utilization” para determinar número ideal de CPs lógicos, e “# processors parked” ajuda determinar % LPAR weight ou garantia no CEC.
O documento discute a utilização da computação em nuvem para garantir a continuidade dos negócios através da tolerância a desastres. Ele apresenta métodos de pesquisa sobre replicação de dados em nuvens públicas e privadas usando point-in-time para recuperação de dados após incidentes. Também analisa cenários de falhas e a definição de parâmetros como Recovery Point Objective (RPO) para alinhar a tecnologia às necessidades do negócio.
A PRINCIPAL PLATAFORMA ABERTA, FAÇA MAIS COM MENOSRaul Leite
O documento discute:
1) A receita e crescimento da Red Hat nos últimos anos, com foco em serviços e suporte para Linux Enterprise;
2) Os benefícios do código aberto para desenvolvimento de software, como redução de custos e inovação;
3) As soluções da Red Hat para virtualização, middleware, armazenamento na nuvem e infraestrutura.
Valdir Adorni - Infra and S.A.N Assessment Integration SampleValdir Adorni
1) O documento descreve planos para a infraestrutura de armazenamento e rede de uma empresa, incluindo mapeamento de servidores, volumes, configurações de SAN, backup e armazenamento.
2) Serão conectados 16 drives de fita entre 8 controladores, com cabos curtos de 30 metros e conectores LC/LC.
3) A topologia SAN será de 1 para 2 fabrics para melhor segurança, com vantagens e desvantagens discutidas.
O documento solicita a contratação de uma empresa especializada em soluções tecnológicas integradas para modernizar os recursos de tecnologia da informação da FURP. A proposta inclui a locação de equipamentos como estações de trabalho, servidores, ativos de rede e licenças por um período de 36 meses. A solução visa atualizar tecnologicamente a fundação e padronizar seus processos de negócio.
Os 10 Mandamentos para realizar um projeto de upgrade SAPIssac Nolis Ohasi
O documento apresenta 10 mandamentos para realizar um projeto de upgrade do SAP e discute os impactos nos controles internos. Os mandamentos incluem: 1) definir a logística de trabalho sem impactar dados restritos, 2) migrar apenas o que for necessário, 3) medir e controlar o que for medido, 4) definir change management, 5) realizar testes adequados, 6) construir o planejado, 7) prestar atenção nos detalhes, 8) revisar atribuições, 9) segregar funções e proteger dados, 10) se preocup
TDC2018SP | Trilha PHP Essencial - O que nao fazer ao atualizar para o PHP 7tdc-globalcode
O documento discute as lições aprendidas ao atualizar para o PHP 7. Principalmente, enfatiza a importância de testes abrangentes, cuidado ao usar novos recursos como tipos escalares e evitar incompatibilidades entre extensões. Além disso, recomenda preparar o código para facilitar migrações futuras e acompanhar evoluções na infraestrutura.
Transformando Grandes Volumes de Dados em Insight em Tempo Real usando Fast D...Ricardo Ferreira
1) O documento discute como transformar grandes volumes de dados em insights em tempo real usando técnicas de Fast Data e processamento de eventos complexos (CEP).
2) É apresentada uma demonstração de caso de uso monitorando redes sociais em tempo real para gerar KPIs inteligentes.
3) São explicados os principais tipos de processamento de dados em CEP, incluindo janelas de tempo, agregações e relacionamentos.
1) O documento discute como a infraestrutura convergente e hiperconvergente podem simplificar as operações de TI e reduzir custos.
2) A adoção de tecnologias disruptivas como a hiperconvergência pode permitir que empresas obtenham vantagens competitivas ao serem as primeiras a adotá-las.
3) A plataforma Apprenda permite que a infraestrutura existente seja transformada em uma plataforma autoatendida controlada por políticas, oferecendo recursos de computação em nuvem híbrida.
Big Data, Performance, Posix, RTB no mercado de publicidade onlineTiago Peczenyj
Tiago Peczenyj apresenta sobre propaganda na web, incluindo técnicas como retargeting, real time bidding e uso de big data para segmentar audiências e melhorar a performance de campanhas online. Ele também discute desafios de escalabilidade em sistemas de publicidade e ferramentas como Redis e Riak para armazenamento e processamento de grandes volumes de dados.
Greenplum: O banco de dados open source massivamente paralelo baseado em Post...PGDay Campinas
Conheça o Greenplum DB o banco de dados massivamente paralelo voltado para Data Warehouse, Analytics e Big Data. Sua origem no PostgreSQL, história e retorno as origens open source. Veja como a arquitetura MPP Shared Nothing permite o processamento de grande volumes com facilidade e como as extensões analíticas permitem fazer Data Mining em um volume arbitrário de dados. Também analisaremos alguns casos de uso locais e internacionais!
Este documento descreve como configurar um banco de dados primário e standby físico utilizando o Oracle Data Guard. Ele explica como preparar o servidor primário definindo parâmetros como FORCE LOGGING, standby redo logs e LOG_ARCHIVE_DEST para transportar os logs para o standby. Também mostra como criar a instância standby usando o RMAN para duplicar o banco de dados primário.
GUOB - Passa-a-passo para migração do Oracle Database 11gRodrigo Almeida
O documento fornece um guia passo-a-passo para a migração de um banco de dados Oracle 11g, cobrindo as etapas de planejamento (pré-migração, migração e pós-migração), razões para migrar, ferramentas de administração e dicas.
O documento discute as arquiteturas de soluções de backup na nuvem, comparando as opções disponíveis e definindo melhores práticas. Apresenta técnicas como desduplicação de dados e otimização TCP para melhorar o desempenho, além de abordar questões de segurança e arquitetura de soluções de backup na nuvem.
VMware 4 razoes convincentes para VirtualizarDênison Knob
O documento discute quatro razões para expandir a virtualização em ambientes de TI com limitações de recursos: 1) melhorar a continuidade dos negócios através de alta disponibilidade e segurança de dados, 2) simplificar o gerenciamento de TI, 3) liberar recursos de TI para fins estratégicos, e 4) aumentar a capacidade de resposta. A virtualização oferece flexibilidade e economia para empresas com recursos limitados.
Similar to Melhores práticas de planejamento de capacidade aplicadas num projeto de Transformação DC Produtivo e DR (Disaster Recovery) (20)
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
O documento discute as tecnologias de computação empresarial moderna para cargas de trabalho de negócios. Ele descreve como infraestrutura flexível, escalabilidade não disruptiva, continuidade de negócios e eficiência operacional permitem aplicações corporativas modernas e liberdade através de padrões abertos. A segurança de dados confidenciais é essencial nesse ambiente.
This document discusses novelties in z/OS 2.4 and z14 GA2, including enhancements to application development and cloud computing. It introduces buzzwords from the past like OO and ERP that are now outdated, and new buzzwords like cloud, analytics, and microservices. Specific z/OS and hardware enhancements described include 25GbE for OSA and RoCE, crypto enhancements, dynamic I/O configuration for standalone CFs, asynchronous cache cross-invalidation, and HMC enhancements. The document ends with a debate between the presenters on whether new application development approaches will deliver continuous availability, data integrity and performance in production environments.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Marcus Vinicius Bittencourt é um especialista em Data Platform e SQL Server com 4 prêmios MVP. O documento discute cybercrime, brechas de segurança e demonstra como um atacante pode acessar uma rede corporativa e explorar falhas de segurança no SQL Server para escalar privilégios.
O documento descreve a jornada de definição da estratégia de nuvem de um banco brasileiro. O processo envolveu análises técnicas e estratégicas das aplicações, provedores de nuvem e cenários de migração, com o objetivo de identificar as aplicações ideais para a nuvem e os melhores caminhos de migração. A estratégia definida prioriza o uso de nuvem para novos projetos e estima potencial de até 40% das aplicações existentes migrarem para a nuvem.
O documento fornece uma visão geral da área de Ciência de Dados, discutindo como a tecnologia está transformando as profissões e a necessidade de atualização contínua. Também explica conceitos-chave da Ciência de Dados como descritivo, diagnóstico, preditivo e prescritivo e como esses conceitos são aplicados usando algoritmos e machine learning.
The document discusses several new capabilities and enhancements being introduced in z/OS V2.4, including z/OS Container Extensions to enable running Linux containers alongside z/OS applications, 25GbE support for OSA and RoCE, asynchronous cache cross-invalidation to improve performance, and policies to simplify customizing JES2 without assembler exits. It also mentions continued efforts to drive pervasive encryption and support for additional data analytics capabilities.
Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
O documento discute boas práticas de programação para melhorar a qualidade e performance de códigos. Ele aborda tópicos como comentários, nomes de variáveis, identação, testes, uso de loops, arrays e funções de forma otimizada. O documento argumenta que seguindo essas práticas recomendadas é possível desenvolver software mais eficiente e de fácil manutenção.
O documento discute a tokenização de ativos e novas linhas de negócios. Ele aborda como empresas como a Microsoft estão apostando na tokenização de ativos usando blockchain e como seguradoras veem grandes oportunidades no armazenamento e cobertura de criptomoedas. Também menciona como a tokenização pode ajudar a combater a pobreza global e a poluição dos oceanos.
O Santo Graal da IoT é a capacidade de distribuir facilmente a inteligência entre a nuvem e os dispositivos (edge). Descubra como inovações edge vão ajudar você a encontrar e certificar hardwares seguros, lucrar com estes módulos e construir soluções da IoT compatíveis com o edge. Veja também com desenvolver, criar e implementar soluções escaláveis e repetíveis alavancando inovações em serviços de Visão, Voz, IoT Edge e Serviços Congnitivos para melhorar soluções da IoT.
O documento discute a solução Eccox Application for Parallel Testing (APT) da Eccox Technology. Em três frases: A APT fornece ambientes de teste isolados no mainframe para permitir testes paralelos, clonando recursos como bancos de dados e arquivos. Isso permite que vários usuários executem testes simultaneamente sem conflitos, reduzindo custos com infraestrutura e horas-homem. A solução também gera dados de teste sintéticos para apoiar cenários de teste isolados.
O documento descreve como o Banco de Brasília implementou uma solução de balanceamento dinâmico para melhorar a gestão da capacidade e desempenho de seu ambiente mainframe IBM ZOS. A solução otimizou o uso dos recursos, reduziu custos com software e adiamento de hardware, com retorno de investimento em 5 meses.
Esta palestra mostrará o “Basicão” [por isso o 1.01 no Título!] da Eletricidade e da Eletrônica, enfocando: Condutores e Isolantes, Relês, Válvulas Termoiônicas [a Retificação e Amplificação começaram assim...], Flip-Flops, Dopagem de Cristais Semi Condutores, Diodos, Transístores, CMOS, SRAM e DRAM. A utilização destes componentes básicos, em Circuitos Sequenciais e Combinatórios, será tema para futuro estudo.
O documento discute a pervasive encryption no IBM Z, que permite a criptografia transparente e em massa de dados em repouso para simplificar a proteção de dados e o cumprimento de normas regulatórias. A pervasive encryption criptografa automaticamente todos os dados em repouso usando chaves gerenciadas pelo sistema, de forma transparente para as aplicações. Isso protege dados em vários níveis, incluindo VSAM, DB2, IMS e logs, entre outros, sem impactar o desempenho.
Nos novos mainframes IBM z, a tecnologia do chip de CPU ficou mais complexa, especialmente incorporando camadas de memória cache. Uma nova terminologia foi introduzida -Relative Nest Intensity (RNI), indicando o nível de atividade para a hierarquia de memória. A área mais sensível ao desempenho da hierarquia de memória é a distribuição de atividade dos caches compartilhados e a memória: quanto maior o RNI, mais profunda será a hierarquia de memória que o processador deve percorrer para recuperar as instruções e os dados de um workload. Discutiremos como podemos diminuir a influência do RNI no CICS fazendo ajustes de desempenho.
O documento discute Infraestrutura como Código (IaC) e como ele pode ser usado para automatizar infraestrutura em nuvem de forma segura e consistente. Ele explica os benefícios do IaC, como aumentar a produtividade das equipes, permitir mudanças contínuas e melhorias incrementais. Também aborda desafios como deriva de configuração e ferramentas IaC populares como Terraform.
A cada nova geração de mainframes, a IBM aumenta a capacidade de suas máquinas. Mas você sabe realmente como a arquitetura do sistema de todos esses processadores afeta a performance e impacta o seu Planejamento da Capacidade? Essa apresentação propõe essa discussão e mostra um caso real sobre como os componentes internos da arquitetura do sistema afetam as diretrizes das disciplinas de Planejamento da Capacidade, Disponibilidade e Desempenho dos ambientes mainframe.
Inspirada na lei europeia GDPR (General Data Protection Regulation) que já foi colocada em prática pela comunidade no final de maio de 2018, a LGPD já em vigor no Brasil com prazo de implantação até agosto 2020, tem como objetivo de reforçar a segurança jurídica dos dados pessoais dos indivíduos e mitigar abusos em relação a estes ativos tão poderosos e valiosos. Nesta apresentação iremos abordar um método de implantação da LGPD nas empresas do Brasil e os principais pontos de adequação a seus requisitos.
Lei geral de proteção de dados por Kleber Silva e Ricardo Navarro (Pise4)
Melhores práticas de planejamento de capacidade aplicadas num projeto de Transformação DC Produtivo e DR (Disaster Recovery)
1. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
15 de maio de 2018
Jhony Ferreira
Melhores práticas de planejamento
de capacidade aplicadas num
projeto de DR (Disaster Recovery)
2. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Contexto e objetivo
Apresentar técnicas de Capacity Planning num projeto de IT
Disaster Recovery.
Neste projeto, a princípio, pretendíamos apenas endereçar a
necessidade de Continuidade do Negócio do ponto de vista de
infraestrutura de TI.
No entanto, conseguimos também endereçar outros problemas de
Performance e Capacidade que tínhamos no ambiente de Produção.
3. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
A diretriz era de se implementar DR visando suportar a continuidade do negócio
em caso de desastres. Mas, o que é DR e como definir seu escopo?
Disaster recovery (DR) envolve um conjunto de políticas e procedimentos para permitir a
recuperação ou continuação de infra-estrutura e sistemas de tecnologia vitais na sequência
de uma catástrofe natural ou humana. A recuperação de desastres neste caso se concentra
nos sistemas de TI ou tecnologia que suportam funções críticas ao negócio.
Backups feitos
em fitas e
enviados ao
off-site em
intervalos
regulares
Backups feitos
em disco on-
site e
automaticame
nte copiados
para os discos
off-site
Soluções de
Cloud privada
com
gerenciament
o de replica de
dados
Replicação
Síncrona e
Assíncrona de
dados para
um outro
datacenter
Outros...
Exemplos de estratégias de DR
Principais conceitos:
BIA – Business Impact Analysis
RPO – Recovery Point Objective
RTO – Recovery Time Objective
DRP – Disaster Recovery Plan
BCP – Business Continuity Plan
Replicação
Síncrona e
Assíncrona de
dados para
um outro
datacenter
4. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O mais importante ao projetar uma solução de DR é prestar muita atenção ao seus
requisitos, em especial ao BIA, RTO e RPO.
Neste tipo de trabalho, definem-se apenas as aplicações mais críticas, pois caso contrário o ambiente de
DR teria que ser tão grande quanto o ambiente de Produção, o que na maioria das vezes é inviável
economicamente. Por conta disso, também existe a categorização da aplicações em HOT, WARM e COLD
BIA – Business Impact Analysis: Análisa e filtra os principais sistemas, seu nível de
importância para as empresas e os respectivos RPO e RTO.
Recovery Point Objective (RPO) refere-se ao ponto no passado ao qual você vai recuperar os dados
do sistema.
Recovery Time Objective (RTO) refere-se ao ponto no futuro em que você estará funcionando
novamente.
Na linha do tempo, o RTO é o
ponto no futuro em que você
estará de volta com suas
aplicações. O espaço entre o
desastre e o RTO é o período
para o qual seu aplicativo
estará desativado e não
funcionará.
Pense no diagrama como um
cronograma de eventos durante
os quais ocorre um desastre. O
RPO será o ponto em que você
terá todos os dados até esse
ponto recuperados. O
espaço/dados entre o desastre e o
RPO provavelmente será perdido
como resultado do desastre.
5. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Uma vez que temos a definição clara e os ambientes devidamente categorizados,
podemos então trabalhar na melhor solução de arquitetura para o Projeto.
COLD DR:
Um site de DR COLD é pouco mais do que um espaço apropriadamente configurado em
um edifício. Tudo necessário para restaurar o serviço aos seus usuários deve ser
adquirido e entregue ao site antes que o processo de recuperação possa começar. Como
você pode imaginar, o tempo para tornar um site de DR COLD completamente
operacional pode ser substancial.
WARM DR:
Um site DR WARM já contém disponível os hardwares necessários. Entretanto, para
restaurar o serviço, os últimos backups devem ser entregues para que então o processo
de restauração e configurações lógica sejam iniciados.
HOT DR:
Os sites de DR HOT têm uma imagem espelhada virtualmente do seu centro de dados
Produtivo, com todos os sistemas configurados e recebendo na integra os últimos de
seus dados da Produção. Como você pode imaginar, um site de DR HOT geralmente pode
ser levado à produção total em apenas algumas horas ou até mesmo em alguns
minutos.
6. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
No caso em referência, tivemos muitos sistemas classificados como
escopo de DR, e todos categorizados como HOT. Para construir um site DR HOT,
ficando dentro do budget aprovado, optamos por HW Replicação ASYNC.
LEMBRE-SE: São nestes momentos de definição de solução
que em qualquer projeto possuímos a oportunidade
de inovar e melhorar.
7. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
“LEMBRE-SE: São nestes momentos que....” Existia uma aplicação XYZ muito
crítica para o negócio e com performance muito ruim...
USUÁRIOS INSASTIFEITOS
BUSINESS IMPACTADO
8. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
A alteração da lógica não era vista como viável pelo time de
desenvolvimento de sistemas. Então a ideia foi endereçar este problema através do
projeto de DR
Topologia da Aplicação:
Praticamente 100% do tempo em statements de DB
9. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O primeiro passo foi atuar em melhorias a nível de IOPs para os statements da
aplicação que não davam vazão no processamento
Storage RAID10 Storage Flash
CHANGE
Storage (Overview)
4,0TB em Storage Flash provê aprox. 194.000 IOPS
4,0TB em SAS 15k (RAID10) provê 9.600 IOPS
COMPARAÇÃO:
(20x)
Isso representou um ganho de 20,2 vezes
mais velocidade de IOPs !!!
10. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Em paralelo, foi melhorar o hardware envolvido e o processamento da aplicação, a
fim de evitar problemas de falta de processamento por IOPs
COMPARAÇÃO HARDWARE
ONDE:
rPerf/Core -> Unidade de medida para AIX;
CPW/Core -> Unidade de medida para AS/400;
12.80
14.38
11.63
17.58 17.90
20.34
0.00
5.00
10.00
15.00
20.00
25.00
rPerf/Core
B C D E F G
3500
7037.50
6450.00
6887.50
9604.17
10791.67
0
2000
4000
6000
8000
10000
12000
CPW/Core
A B C D E G
No caso do AIX a melhora de performance por core é
de aproximadamente 75%
No caso do AS/400 a melhora de performance é
de aproximadamente 208%
A B C D E F G
rPerf/Core N/A 12,80 14,38 11,63 17,58 17,90 20,34
CPW/Core 3500 7037,50 6450,00 6887,50 9604,17 N/A 10791,67
EQUIPAMENTOS EXISTENTES NOVOS HWs
A fim de evitar gargalo de utilização de Proc na nova Infraestrutura também substitui os modelos de
equipamentos com PROC de SMT4 para SMT8 (Simultaneous MultiThreading) principalmente para
vazão em IOPs sem afetar outros Process IDs.
11. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Recalculada a nova config (Entitled Cap.) necessária dos novos equipamentos,
respeitando os relatórios de CP, assim como a reconfiguração de Mode (capped & uncapped)
OVPs (Online virtual process), MaximumVP e MinimumVP
Name CPU "D" rPerf "D" rPerf "D" rPerf "G" CPU "G"
LPAR 1 1,0 11,6 11,6 20,3 0,6
LPAR 2 2,0 11,6 23,3 20,3 1,1
LPAR 3 2,0 11,6 23,3 20,3 1,1
LPAR 4 2,0 11,6 23,3 20,3 1,1
LPAR 5 2,0 11,6 23,3 20,3 1,1
LPAR 6 2,0 11,6 23,3 20,3 1,1
LPAR 7 2,0 11,6 23,3 20,3 1,1
LPAR 8 2,0 11,6 23,3 20,3 1,1
LPAR 9 2,0 11,6 23,3 20,3 1,1
LPAR 10 1,0 11,6 11,6 20,3 0,6
LPAR 11 3,0 11,6 34,9 20,3 1,7
LPAR 12 5,0 11,6 58,2 20,3 2,9
LPAR 13 3,0 11,6 34,9 20,3 1,7
LPAR 14 5,0 11,6 58,2 20,3 2,9
LPAR 15 3,0 11,6 34,9 20,3 1,7
LPAR 16 12,0 11,6 139,6 20,3 6,9
TTL 49,0 28,1
Conversão de Procs "D" para "G"
12. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
E enfim, os resultados significativos.
Foram executados o mesmo BACKUP antes e depois das melhorias:
Tempo total ANTES: 1:22 hs
Tempo total DEPOIS: 42 min
Ganho: 50 %
13. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Foram executados os mesmos JOBs para comparação
antes e depois das melhorias.
Tempo total ANTES: 17.533 seg (4,87 hs)
Tempo total DEPOIS: 3.809 seg (1,04 hs)
Ganho: 77 %
Indicadores com altos ganhos de performance e capacidade
14. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O problema de um dos ambientes mais criticos da Companhia foi
completamente resolvido!!
USUÁRIOS FELIZES
BUSINESS A TODO VAPOR
ANTES: DEPOIS:
583 vezes mais
rápido!!!
15. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
OBRIGADO
Jhony R. Ferreira
IT Infrastructure Specialist
019 9 8182-9010
Jhony.rferreira@gmail.com
linkedin.com/in/jhony-ferreira/