O documento discute o CPU Measurement Facility (CPU MF) do z Systems, que permite monitorar o desempenho do hardware. Apresenta os componentes do CPU MF (samples e counters), como configurá-lo e os dados que fornece. Também explica a métrica Relative Nest Intensity (RNI) e como é usada no Large System Performance Reference (LSPR) para caracterizar workloads. Por fim, introduz a ferramenta zProcessor Capacity Reference (zPCR) para dimensionamento de sistemas z.
O documento apresenta uma análise do desempenho e capacidade de um sistema online aplicando conceitos de fila de espera. Ele descreve os passos para construir um modelo de fila, incluindo calcular o tempo de serviço, definir a carga de trabalho para simulação, calcular o fator de utilização do servidor e executar a fórmula de Erlang para estimar tempos de fila e resposta. Os resultados indicam que o sistema pode começar a apresentar gargalos se exceder cerca de 14.000 solicitações por segundo acima do máximo registrado
O documento discute como empresas grandes podem reduzir custos com mainframes mantendo desempenho, disponibilidade e segurança. Ele descreve novas tecnologias mainframe como zIIP, zEDC e SMT-2 que reduzem custos de hardware e software, e iniciativas como MWP que barateiam cargas móveis. O documento conclui que mainframes continuam sendo aliados de empresas para crescimento com redução de custos graças a melhorias contínuas.
O documento apresenta o processo, ferramentas e resultados de um estudo de planejamento e performance na consolidação de CECs mainframe. O objetivo era melhorar a utilização de recursos e reduzir custos ao consolidar vários CECs em um único sistema z13, avaliando a configuração, capacidade e desempenho antes e depois da mudança. As ferramentas utilizadas incluíram LPAR Design, zPCR e registros SMF para análise. Os resultados indicaram aumento na capacidade e eficiência após a consolidação.
Em tempos de Redes Sociais e Internet das Coisas, cujo crescimento do workload é geralmente muito alto e extrapola qualquer demanda inicialmente prevista, vamos abordar nesta sessão alguns conceitos e técnicas que podem ajudar no planejamento de capacidade de sistemas com estas características, e que também podem ser aplicados a alguns sistemas tradicionais.
Com o uso cada vez maior de serviços de armazenamento em nuvem, a necessidade em migrar, replicar ou sincronizar arquivos armazenados localmente para serviços de armazenamento remoto pode se tornar uma tarefa árdua para administradores de sistemas que muitas vezes não dispõem de soluções adequadas para atender necessidades específicas de uma organização. Esta proposta pretende abordar algorítmos, técnicas de otimização em linguagem de programação e boas práticas em configurações de infraestrutura de servidores para ganhos em desempenho na transferência de arquivos e diretórios entre servidores e serviços de armazenamento em nuvem. Para comprovar os resultados, a proposta utilizará de um estudo de caso real para uma empresa no segmento B2B, comprovando eficiência em ganhos de desempenho e abrindo discussões para soluções técnicas em cenários diversos
Em 14 de Janeiro a IBM anunciou a z13, sucessora da zEC12. Em termos de Performance, o que se poderá esperar de suas novas “features” e de seus novos “parâmetros”? #1=Mais Processadores, Mais Memórias, Mais SubSistemas de Canal, muito Maior Aggregate Data Rate: Que significará tudo isso? #2=Menor GHz, porém Mais Instruções em Paralelo e SMT para zIIP e IFL (só mais tarde será anunciada para os Processadores Gerais=CPUs). #3=Afinal, o que é SMT = Simultaneous Multi Threading? O que se espera “ganhar” e o que se pode “perder”? (Experiências em outras Plataformas) #4=Variabilidade: Sempre foi perigoso ignorá-la, será inútil tentar esquecê-la, uma vez que reflete diretamente na Contabilização de Recursos!#5=Eterno Dilema: Melhor atender todo mundo com o mínimo de Recursos, demore o que demorar, ou atender a maioria, custe o que custar? Não se pode ter ambos! #6=Conclusões (se é que já se pode concluir algo, sem ter feito BenchMarks...): As Equações continuam as mesmas, só mudaram ligeiramente alguns Coeficientes...
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
#1. O documento discute a ferramenta CPUMF para medir o desempenho de CPUs em mainframes z10, z196 e zEC12.
#2. Apresenta como habilitar e usar a ferramenta CPUMF e os relatórios gerados pela STC HIS.
#3. Exemplos demonstram como analisar os dados de desempenho de CPUs, caches e TLBs.
O documento apresenta uma análise do desempenho e capacidade de um sistema online aplicando conceitos de fila de espera. Ele descreve os passos para construir um modelo de fila, incluindo calcular o tempo de serviço, definir a carga de trabalho para simulação, calcular o fator de utilização do servidor e executar a fórmula de Erlang para estimar tempos de fila e resposta. Os resultados indicam que o sistema pode começar a apresentar gargalos se exceder cerca de 14.000 solicitações por segundo acima do máximo registrado
O documento discute como empresas grandes podem reduzir custos com mainframes mantendo desempenho, disponibilidade e segurança. Ele descreve novas tecnologias mainframe como zIIP, zEDC e SMT-2 que reduzem custos de hardware e software, e iniciativas como MWP que barateiam cargas móveis. O documento conclui que mainframes continuam sendo aliados de empresas para crescimento com redução de custos graças a melhorias contínuas.
O documento apresenta o processo, ferramentas e resultados de um estudo de planejamento e performance na consolidação de CECs mainframe. O objetivo era melhorar a utilização de recursos e reduzir custos ao consolidar vários CECs em um único sistema z13, avaliando a configuração, capacidade e desempenho antes e depois da mudança. As ferramentas utilizadas incluíram LPAR Design, zPCR e registros SMF para análise. Os resultados indicaram aumento na capacidade e eficiência após a consolidação.
Em tempos de Redes Sociais e Internet das Coisas, cujo crescimento do workload é geralmente muito alto e extrapola qualquer demanda inicialmente prevista, vamos abordar nesta sessão alguns conceitos e técnicas que podem ajudar no planejamento de capacidade de sistemas com estas características, e que também podem ser aplicados a alguns sistemas tradicionais.
Com o uso cada vez maior de serviços de armazenamento em nuvem, a necessidade em migrar, replicar ou sincronizar arquivos armazenados localmente para serviços de armazenamento remoto pode se tornar uma tarefa árdua para administradores de sistemas que muitas vezes não dispõem de soluções adequadas para atender necessidades específicas de uma organização. Esta proposta pretende abordar algorítmos, técnicas de otimização em linguagem de programação e boas práticas em configurações de infraestrutura de servidores para ganhos em desempenho na transferência de arquivos e diretórios entre servidores e serviços de armazenamento em nuvem. Para comprovar os resultados, a proposta utilizará de um estudo de caso real para uma empresa no segmento B2B, comprovando eficiência em ganhos de desempenho e abrindo discussões para soluções técnicas em cenários diversos
Em 14 de Janeiro a IBM anunciou a z13, sucessora da zEC12. Em termos de Performance, o que se poderá esperar de suas novas “features” e de seus novos “parâmetros”? #1=Mais Processadores, Mais Memórias, Mais SubSistemas de Canal, muito Maior Aggregate Data Rate: Que significará tudo isso? #2=Menor GHz, porém Mais Instruções em Paralelo e SMT para zIIP e IFL (só mais tarde será anunciada para os Processadores Gerais=CPUs). #3=Afinal, o que é SMT = Simultaneous Multi Threading? O que se espera “ganhar” e o que se pode “perder”? (Experiências em outras Plataformas) #4=Variabilidade: Sempre foi perigoso ignorá-la, será inútil tentar esquecê-la, uma vez que reflete diretamente na Contabilização de Recursos!#5=Eterno Dilema: Melhor atender todo mundo com o mínimo de Recursos, demore o que demorar, ou atender a maioria, custe o que custar? Não se pode ter ambos! #6=Conclusões (se é que já se pode concluir algo, sem ter feito BenchMarks...): As Equações continuam as mesmas, só mudaram ligeiramente alguns Coeficientes...
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
#1. O documento discute a ferramenta CPUMF para medir o desempenho de CPUs em mainframes z10, z196 e zEC12.
#2. Apresenta como habilitar e usar a ferramenta CPUMF e os relatórios gerados pela STC HIS.
#3. Exemplos demonstram como analisar os dados de desempenho de CPUs, caches e TLBs.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
O documento discute a utilização da computação em nuvem para garantir a continuidade dos negócios através da tolerância a desastres. Ele apresenta métodos de pesquisa sobre replicação de dados em nuvens públicas e privadas usando point-in-time para recuperação de dados após incidentes. Também analisa cenários de falhas e a definição de parâmetros como Recovery Point Objective (RPO) para alinhar a tecnologia às necessidades do negócio.
Maria Isabel Soutello (IsabelSoutello) - migdsbel@gmail.com
Em período de pico pode ser necessário aumentar os processadores online numa partição sem prejuízo das outras no mesmo CEC e/ou mexer no peso direcionando mais capacidade para atender a demanda extra.
Medidas como “load average” e “# processors parked” quando salvas durante período monitorado e analisadas, podem corrigir ou refinar “tamanho” das LPARs, definido inicialmente no plano de capacidade.
Relação entre “load average” e # processors online” é mais exata que “% MVS utilization” para determinar número ideal de CPs lógicos, e “# processors parked” ajuda determinar % LPAR weight ou garantia no CEC.
Palestrante: Emerson Castelano – Eccox
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
Nos últimos anos novas ferramentas e técnicas para ajudar no Planejamento de Capacidade foram disponibilizadas. Isto deveria tornar a vida dos abnegados responsáveis por fazer este trabalho mais tranqüila, simples e fácil. Entretanto tambem surgiram novos fatores e variáveis afetando o dimensionamento e controle de capacidade. Para evitar erros e possibilitar ganhos é necessário conhecer e entender tanto o que surgiu para ajudar como os novos desafios. Esta apresentação tem como objetivos falar das ferramentas disponíveis, algumas delas novas e outras não tão novas, mas ainda não totalmente usadas ou compreendidas, como CPUMF, zBNA, zTPM e zPCR. assim como explicar alguns dos novos fatores como o "efeito zIIP", transactional execution , criptografia, large pages, aceleradores, SMT, Mobile Workload Pricing e seus efeitos sobre o desempenho e capacidade dos vários modelos da plataforma z System alem é claro das possibilidades e cuidados relativos ao custo de software.
Palestrante: Adelson Lovatto
Nesta apresentação vamos cobrir os principais conceitos de Information Lifecycle Management, desde a sua origem até os dias atuais, e apresentar maneiras de implementar este importante modelo de referência de forma a otimizar a gestão de informações e reduzir custos com a infraestrutura de armazenamento de dados.
#1 - Contribuição dos Caches no Paralelismo. Caches em diversos níveis hierárquicos contribuem para o paralelismo.
#2 - Conceitos de Paralelismo em PipeLines. Evolução desde o S/360, com múltiplas pipelines permitindo execução de várias instruções simultaneamente.
#3 - Quais Features contribuem para o aumento do paralelismo? Features como unidades múltiplas, registradores virtuais e pages grandes contribuem para mais paralelismo.
A tecnologia VoIP permite a comunicação para corporações a baixo custo e sua implantação já atingiu larga escala, contudo é necessário garantir que terá uma boa qualidade de Serviço (QoS). Esse estudo aborda os conceitos da tecnologia VoIP e seus parâmetros, as técnicas de Monitoração de Redes e apresenta um caso de uso sobre monitoramento de rede VoIP para que haja garantia de qualidade nas chamadas VoIP dentro de uma organização.
Palestrante: Álvaro Guimarães Salla - MAFFEI
Fascina-me a frase: “As mentiras do ontem, um dia se cansam de o ser, e se transformam nas verdades de hoje”. Veja, por exemplo, na política brasileira... Lembro-me, ainda jovem (sim, eu o fui), mostrando às pessoas do Banco do Brasil (mais jovens ainda), recém-chegadas das agências, que computador não era um cérebro eletrônico. O ano que estávamos (ou ele que estava?) era 1.969. Depois de alguma falsa erudição, eu concluía sem brilhantismo, a meio do pasmo geral, que uma CPU não pode executar dois programas ao mesmo tempo. Após algum sofrimento causadopelosconceitosnovos,aideiaeraentendidaesetransformavaemverdadeeternaesólida. Anosmais tarde, o primeiro MP65 com as suas duas corpulentas CPUs. Os mesmos alunos e toca a explicar como garantir a integridade dos dados compartilhados por elas na memória. Eu dizia enfático: “Isso é uma responsabilidade do sistema operacional, implementado via locks e latches”. Mais uma verdade eterna e sólida se construía e era enfiada goela abaixo da anoréxica plateia. But, time went by... Então, no dia 18 de Maio próximo, esta pessoa que vos escreve (agora bem velha), irá subir ao púlpito do CMG para humildemente repetir a frase inicial deste texto e depois dizer: “Sim senhores (as), a função Simultaneous Multithreading do z13 nega a primeira eterna e sólida verdade e a função Transactional Execution Facility (zEC12 e z13) nega a segunda eterna e sólida verdade”. No passado, terminei chamadas para o CMG como esta, com o lugar comum: “Não Perca”... Agora, não sei... Talvez eu diga “Perca...”, mas ao menos você sabe o que estará deixando de ganhar, isto é, mais duas eternas e sólidas verdades...
Análise comparativa entre as versões 3 e 4 do protocolo NFS em arquiteturas NASKleber Silva
Neste artigo é apresentada uma avaliação de desempenho das versões 3 e 4 do protocolo NFS (Network File System) em arquiteturas NAS (Network Attached Storage), baseada em alterações nos parâmetros do protocolo, com foco na vazão dos dados e na utilização de recursos do Sistema de Armazenamento.
O documento descreve as novas capacidades de processamento vetorial introduzidas na máquina z13 da IBM, incluindo 139 novas instruções vetoriais para operações SIMD em registradores vetoriais de 128 bits. As instruções suportam operações com inteiros, pontos flutuantes e strings de forma paralela.
Palestrante: Etéocles da Silva Cavalcanti
Não é um assunto novo e nem uma novidade, mas ... modelos de filas são ferramentas importantes para os profissionais que atuam na área de Capacity Planning e estão cada vez mais inseridos em muitos produtos e ferramentas, mas ... quando modelos analíticos estão disponíveis para serem utilizados, tornam-se um problema sério pelo fato de há uma barreira quanto do seu uso e seus resultados, normalmente por falta de conhecimento, conceitos, premissas, métricas estatísticas e sobre os modelos. Esse assunto realmente tem uma complexidade teórica estatística muito alta e se entramos nos detalhes teóricos passamos a temer sobre seu uso e resultados. O objetivo é apresentar de uma forma simples e direta que modelagem analítica é ainda uma ferramenta importante e que devemos e podemos utilizá-la melhor se tivermos conhecimento melhor do seu uso e seus resultados. A simples construção de ferramentas que calcule todas as métricas estatísticas dos componentes de um sistema de fila, gera a oportunidade de realizarmos simulações com pequenas mudanças de parâmetros. Nos estudos de capacidade a utilização de teoria das filas passam a ter mais consistência e sua flexibilidade nas análises e/ou questionamentos complexos trazem respostas rápidas e consistentes aos nossos gestores na tomada de decisão.
O documento compara treinamento supervisionado e não supervisionado em sistemas de detecção de intrusão baseados em anomalias. O estudo mostra que o treinamento supervisionado teve melhores resultados em taxas de detecção e falsos positivos, demonstrando que os limites dos grupos são mais consistentes com treinamento supervisionado.
Vivemos em um mundo de siglas (BI, ERP, WF, BAM, BPM, OI, ...). A cada vez que nos deparamos com elas temos que lembrar de seu conceito e como ela é aplicada na prática. Algumas delas se confundem tanto no conceito quanto em alguma aplicação específica. Não é diferente quando falamos de Inteligência Operacional (OI do inglês “Operational Intelligence”). O objetivo deste trabalho é desmistificar o que é Inteligência Operacional e mostrar como é aplicada no cotidiano, principalmente mostrar quais são os desafios a serem vencidos.
O documento discute as arquiteturas de soluções de backup na nuvem, comparando as opções disponíveis e definindo melhores práticas. Apresenta técnicas como desduplicação de dados e otimização TCP para melhorar o desempenho, além de abordar questões de segurança e arquitetura de soluções de backup na nuvem.
Palestrante: Adolfo Eric Petersen
A maturidade dos processos de TI facilita melhorar a previsão de investimento, a utilização de capital, o aumento da agilidade de forma mais eficiente com menos incidentes e interrupções. O excesso de capacidade pode ser um fardo financeiro significativo para um negócio, porém a lentidão de desempenho ou interrupções causadas pela capacidade insuficiente pode custar ainda mais. Como o scale-out, scale-up e o balanceamento de workload influenciam nesse cenário.
O documento discute uma proposta de solução para melhorar a gestão do consumo de MIPS (medida de desempenho de processadores). A solução proposta envolve a criação de "tribos" multidisciplinares para promover engajamento, definir metas e indicadores de desempenho, estruturar conhecimento e gerar valor para o cliente.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Análise e uso de qualidade de serviço em uma rede de automação com uso de um sistema supervisório (SCADA) em um ambiente de transporte considerando a analise de tráfego e rede de automação de um sistema supervisório (SCADA) assim como, propor o uso de qualidade de serviço em uma rede de automação adaptando a RFC 4594. Características de volume de tráfego, latência da rede e das aplicações são avaliadas neste trabalho
O documento descreve um treinamento sobre performance e tunagem de ambientes Linux. Ele detalha a pesquisa realizada, os objetivos do treinamento, pré-requisitos, conteúdo e carga horária. O treinamento abordará tópicos como distribuições Linux para performance, gerenciamento de processos, sistemas de arquivos, ferramentas de monitoramento, benchmarking, tunagem para aplicações, virtualização e Docker.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
PostgreSQL Tuning: O elefante mais rápido que um leopardoelliando dias
O documento fornece dicas sobre como otimizar o desempenho de um banco de dados PostgreSQL. Ele discute problemas comuns de desempenho, escolhas de configuração erradas, melhorias de hardware e software, parâmetros do sistema operacional e do PostgreSQL, ferramentas de teste de desempenho e escalabilidade.
Palestrante: Luiz Carlos Orsoni - MAFFEI
A partir das z990 (T-Rex, em 2.003), os Mainframes da Série z passaram a ser Super Escalares, ou seja, capazes de executar mais de uma Instrução por Ciclo. Embora sejam indiscutivelmente capazes, isto não significa que sempre executarão mais do que uma Instrução por Ciclo, podendo não executar nenhuma! Como já enfatizamos em vezes anteriores, isto é extremamente dependente da qualidade do Software e de outras atividades que ocorram simultaneamente nos CECs. Esta palestra procurará aclarar os conceitos envolvidos, tendo como exemplos os detalhes internos das z13, capazes de executar até dez Instruções por Ciclo.
O documento discute a utilização da computação em nuvem para garantir a continuidade dos negócios através da tolerância a desastres. Ele apresenta métodos de pesquisa sobre replicação de dados em nuvens públicas e privadas usando point-in-time para recuperação de dados após incidentes. Também analisa cenários de falhas e a definição de parâmetros como Recovery Point Objective (RPO) para alinhar a tecnologia às necessidades do negócio.
Maria Isabel Soutello (IsabelSoutello) - migdsbel@gmail.com
Em período de pico pode ser necessário aumentar os processadores online numa partição sem prejuízo das outras no mesmo CEC e/ou mexer no peso direcionando mais capacidade para atender a demanda extra.
Medidas como “load average” e “# processors parked” quando salvas durante período monitorado e analisadas, podem corrigir ou refinar “tamanho” das LPARs, definido inicialmente no plano de capacidade.
Relação entre “load average” e # processors online” é mais exata que “% MVS utilization” para determinar número ideal de CPs lógicos, e “# processors parked” ajuda determinar % LPAR weight ou garantia no CEC.
Palestrante: Emerson Castelano – Eccox
Tradicionalmente, as empresas utilizam múltiplas ferramentas de automação de workload enquanto os cenários de TI e os requisitos de negócios mudam rapidamente. Para atendimento à TI Bimodal a automação do workload fica dividida para atendimento à TI tradicional (Modo 1) e a ágil (Modo 2) com o desafio de executar e automatizar o workload para atendimento aos dois modos: confiável e ágil. A implementação de uma automação end-to-end e o planejamento contínuo de liberação de jobs no ambiente de produção tem um papel importante para atingir-se esse objetivo.
Nos últimos anos novas ferramentas e técnicas para ajudar no Planejamento de Capacidade foram disponibilizadas. Isto deveria tornar a vida dos abnegados responsáveis por fazer este trabalho mais tranqüila, simples e fácil. Entretanto tambem surgiram novos fatores e variáveis afetando o dimensionamento e controle de capacidade. Para evitar erros e possibilitar ganhos é necessário conhecer e entender tanto o que surgiu para ajudar como os novos desafios. Esta apresentação tem como objetivos falar das ferramentas disponíveis, algumas delas novas e outras não tão novas, mas ainda não totalmente usadas ou compreendidas, como CPUMF, zBNA, zTPM e zPCR. assim como explicar alguns dos novos fatores como o "efeito zIIP", transactional execution , criptografia, large pages, aceleradores, SMT, Mobile Workload Pricing e seus efeitos sobre o desempenho e capacidade dos vários modelos da plataforma z System alem é claro das possibilidades e cuidados relativos ao custo de software.
Palestrante: Adelson Lovatto
Nesta apresentação vamos cobrir os principais conceitos de Information Lifecycle Management, desde a sua origem até os dias atuais, e apresentar maneiras de implementar este importante modelo de referência de forma a otimizar a gestão de informações e reduzir custos com a infraestrutura de armazenamento de dados.
#1 - Contribuição dos Caches no Paralelismo. Caches em diversos níveis hierárquicos contribuem para o paralelismo.
#2 - Conceitos de Paralelismo em PipeLines. Evolução desde o S/360, com múltiplas pipelines permitindo execução de várias instruções simultaneamente.
#3 - Quais Features contribuem para o aumento do paralelismo? Features como unidades múltiplas, registradores virtuais e pages grandes contribuem para mais paralelismo.
A tecnologia VoIP permite a comunicação para corporações a baixo custo e sua implantação já atingiu larga escala, contudo é necessário garantir que terá uma boa qualidade de Serviço (QoS). Esse estudo aborda os conceitos da tecnologia VoIP e seus parâmetros, as técnicas de Monitoração de Redes e apresenta um caso de uso sobre monitoramento de rede VoIP para que haja garantia de qualidade nas chamadas VoIP dentro de uma organização.
Palestrante: Álvaro Guimarães Salla - MAFFEI
Fascina-me a frase: “As mentiras do ontem, um dia se cansam de o ser, e se transformam nas verdades de hoje”. Veja, por exemplo, na política brasileira... Lembro-me, ainda jovem (sim, eu o fui), mostrando às pessoas do Banco do Brasil (mais jovens ainda), recém-chegadas das agências, que computador não era um cérebro eletrônico. O ano que estávamos (ou ele que estava?) era 1.969. Depois de alguma falsa erudição, eu concluía sem brilhantismo, a meio do pasmo geral, que uma CPU não pode executar dois programas ao mesmo tempo. Após algum sofrimento causadopelosconceitosnovos,aideiaeraentendidaesetransformavaemverdadeeternaesólida. Anosmais tarde, o primeiro MP65 com as suas duas corpulentas CPUs. Os mesmos alunos e toca a explicar como garantir a integridade dos dados compartilhados por elas na memória. Eu dizia enfático: “Isso é uma responsabilidade do sistema operacional, implementado via locks e latches”. Mais uma verdade eterna e sólida se construía e era enfiada goela abaixo da anoréxica plateia. But, time went by... Então, no dia 18 de Maio próximo, esta pessoa que vos escreve (agora bem velha), irá subir ao púlpito do CMG para humildemente repetir a frase inicial deste texto e depois dizer: “Sim senhores (as), a função Simultaneous Multithreading do z13 nega a primeira eterna e sólida verdade e a função Transactional Execution Facility (zEC12 e z13) nega a segunda eterna e sólida verdade”. No passado, terminei chamadas para o CMG como esta, com o lugar comum: “Não Perca”... Agora, não sei... Talvez eu diga “Perca...”, mas ao menos você sabe o que estará deixando de ganhar, isto é, mais duas eternas e sólidas verdades...
Análise comparativa entre as versões 3 e 4 do protocolo NFS em arquiteturas NASKleber Silva
Neste artigo é apresentada uma avaliação de desempenho das versões 3 e 4 do protocolo NFS (Network File System) em arquiteturas NAS (Network Attached Storage), baseada em alterações nos parâmetros do protocolo, com foco na vazão dos dados e na utilização de recursos do Sistema de Armazenamento.
O documento descreve as novas capacidades de processamento vetorial introduzidas na máquina z13 da IBM, incluindo 139 novas instruções vetoriais para operações SIMD em registradores vetoriais de 128 bits. As instruções suportam operações com inteiros, pontos flutuantes e strings de forma paralela.
Palestrante: Etéocles da Silva Cavalcanti
Não é um assunto novo e nem uma novidade, mas ... modelos de filas são ferramentas importantes para os profissionais que atuam na área de Capacity Planning e estão cada vez mais inseridos em muitos produtos e ferramentas, mas ... quando modelos analíticos estão disponíveis para serem utilizados, tornam-se um problema sério pelo fato de há uma barreira quanto do seu uso e seus resultados, normalmente por falta de conhecimento, conceitos, premissas, métricas estatísticas e sobre os modelos. Esse assunto realmente tem uma complexidade teórica estatística muito alta e se entramos nos detalhes teóricos passamos a temer sobre seu uso e resultados. O objetivo é apresentar de uma forma simples e direta que modelagem analítica é ainda uma ferramenta importante e que devemos e podemos utilizá-la melhor se tivermos conhecimento melhor do seu uso e seus resultados. A simples construção de ferramentas que calcule todas as métricas estatísticas dos componentes de um sistema de fila, gera a oportunidade de realizarmos simulações com pequenas mudanças de parâmetros. Nos estudos de capacidade a utilização de teoria das filas passam a ter mais consistência e sua flexibilidade nas análises e/ou questionamentos complexos trazem respostas rápidas e consistentes aos nossos gestores na tomada de decisão.
O documento compara treinamento supervisionado e não supervisionado em sistemas de detecção de intrusão baseados em anomalias. O estudo mostra que o treinamento supervisionado teve melhores resultados em taxas de detecção e falsos positivos, demonstrando que os limites dos grupos são mais consistentes com treinamento supervisionado.
Vivemos em um mundo de siglas (BI, ERP, WF, BAM, BPM, OI, ...). A cada vez que nos deparamos com elas temos que lembrar de seu conceito e como ela é aplicada na prática. Algumas delas se confundem tanto no conceito quanto em alguma aplicação específica. Não é diferente quando falamos de Inteligência Operacional (OI do inglês “Operational Intelligence”). O objetivo deste trabalho é desmistificar o que é Inteligência Operacional e mostrar como é aplicada no cotidiano, principalmente mostrar quais são os desafios a serem vencidos.
O documento discute as arquiteturas de soluções de backup na nuvem, comparando as opções disponíveis e definindo melhores práticas. Apresenta técnicas como desduplicação de dados e otimização TCP para melhorar o desempenho, além de abordar questões de segurança e arquitetura de soluções de backup na nuvem.
Palestrante: Adolfo Eric Petersen
A maturidade dos processos de TI facilita melhorar a previsão de investimento, a utilização de capital, o aumento da agilidade de forma mais eficiente com menos incidentes e interrupções. O excesso de capacidade pode ser um fardo financeiro significativo para um negócio, porém a lentidão de desempenho ou interrupções causadas pela capacidade insuficiente pode custar ainda mais. Como o scale-out, scale-up e o balanceamento de workload influenciam nesse cenário.
O documento discute uma proposta de solução para melhorar a gestão do consumo de MIPS (medida de desempenho de processadores). A solução proposta envolve a criação de "tribos" multidisciplinares para promover engajamento, definir metas e indicadores de desempenho, estruturar conhecimento e gerar valor para o cliente.
Na era do Devops, a operacionalização de serviços na nuvem, cada vez mais, vem sendo automatizada para atender demandas emergentes de negócios a qual exige resposta rápida à mudancas e capacidade em se escalar. Automatizações como CI/CD (Continuous Integration e Continuous Development) permitem em grande parte atender cenários diversos onde é necessário reduzir ou simplesmente liquidar operações manuais de Deployment por meio de passos automatizados intermediados por um agente robô. Em contrapartida, existe a necessidade em se ter o mínimo necessário de infraestrutura como pré-requisito, o que obriga equipes a investirem tempo e esforço na criação desses ambientes, nos quais, em alguns casos, a complexidade é multiplicada pelo uso de serviços distintos de computação na nuvem, a Multi-cloud. O tempo " Infrastructure as a Code" é um assunto emergente o qual trata infraestrutura como código versionado, um asset do projeto onde o seu objetivo não é apenas reduzir o esforço operacional mas também poder compatilhar conhecimento e engajar membros de equipes. Esta apresentação tem como objetivo introduzir "Infrastructure as a Code" assim como o seu potencial para cenários Multi-Cloud.
Análise e uso de qualidade de serviço em uma rede de automação com uso de um sistema supervisório (SCADA) em um ambiente de transporte considerando a analise de tráfego e rede de automação de um sistema supervisório (SCADA) assim como, propor o uso de qualidade de serviço em uma rede de automação adaptando a RFC 4594. Características de volume de tráfego, latência da rede e das aplicações são avaliadas neste trabalho
O documento descreve um treinamento sobre performance e tunagem de ambientes Linux. Ele detalha a pesquisa realizada, os objetivos do treinamento, pré-requisitos, conteúdo e carga horária. O treinamento abordará tópicos como distribuições Linux para performance, gerenciamento de processos, sistemas de arquivos, ferramentas de monitoramento, benchmarking, tunagem para aplicações, virtualização e Docker.
Gustavo Fernandes Araujo - gustavo-fernandes.araujo@itau-unibanco.com.br
O estudo de performance de processamento é crítico em qualquer plataforma visto que pode ter efeito tanto na disponibilidade quanto nos custos de processamento. No ambiente mainframe, onde os recursos são compartilhados, uma piora de performance em um workload especifico pode impactar o processamento de todos demais workloads no mesmo CEC. Este estudo tem como objetivo apresentar um Review de métricas de performance dentre os diferentes workloads que processam na plataforma Mainframe.
PostgreSQL Tuning: O elefante mais rápido que um leopardoelliando dias
O documento fornece dicas sobre como otimizar o desempenho de um banco de dados PostgreSQL. Ele discute problemas comuns de desempenho, escolhas de configuração erradas, melhorias de hardware e software, parâmetros do sistema operacional e do PostgreSQL, ferramentas de teste de desempenho e escalabilidade.
Nessa apresentação, Diego Sueiro vai mostrar como Linux e o RTOS Zephyr podem compartilhar dados usando RPMsg (Remote Processor Messaging), fluxo de inicialização, e configurações necessárias para habilitar essa comunicação em SoC Multicores Híbridos.
Os fabricantes de SoC estão lançando arquiteturas HMP (Multiprocessadores Híbridos) em que um ou mais núcleos lidam com a aplicação do usuário final e outros núcleos implementam recursos específicos. Em vez de “lutar” com o Linux Kernel para atender às restrições de tempo real, você pode delegar o trabalho “sujo” para um microcontrolador em um ambiente isolado e controlado e é onde o RTOS Zephyr se destaca. É importante que os núcleos híbridos se comuniquem entre si para atender aos requisitos da aplicação. O RPMsg pode ser usado nesses tipos de arranjos expondo uma API independente das especificidades da comunicação entre núcleos.
Principais tópicos desta sessão:
Aplicações de tempo real com o HMP
Introdução ao Zephyr
Introdução ao OpenAMP
Introdução ao RPMsg e RPMsg-lite
RPMsg no Linux
Ativando o RPMsg-lite no Zephyr
Setup da comunicação entre o Linux e Zephyr
Demo
Trabalhos futuros
Link para o video:
https://experience.embarcados.com.br/webinars/linux-e-zephyr/
José Carlos de Paiva apresenta seu currículo com mais de 30 anos de experiência em sistemas mainframe IBM, atuando principalmente como analista de sistemas. Ele tem experiência em bancos como Banco Espírito Santo, Banco de Crédito Nacional e Banco Noroeste, onde liderou projetos de migração, integração e controle de versões.
O documento discute os desafios na medição da capacidade de processamento em sistemas mainframe. Apresenta diferentes métricas utilizadas ao longo do tempo para medir desempenho e capacidade, como MIPS, MHz, MSUs. Também discute ferramentas como o zPCR que permitem dimensionar sistemas mainframe de forma mais precisa, levando em conta fatores como carga de trabalho, configuração de LPARs e tipo de processador.
O documento discute a evolução da arquitetura de processadores mainframe. As principais tendências são: 1) Máquinas super escalares com múltiplas unidades de execução; 2) Caches maiores e em múltiplos níveis; 3) Pipelines mais profundos permitindo execução fora de ordem. O documento também descreve a evolução da tecnologia CMOS e como ela permitiu aumentar a frequência e integrar mais componentes nos chips dos processadores modernos como o z196.
- O documento discute as funções dos principais componentes de memória em um computador, incluindo registradores, memória cache, memória principal e memória secundária. Ele explica como cada um desses componentes armazena e acessa dados de forma diferente com base em fatores como velocidade, capacidade e custo.
- O documento discute as funções dos principais componentes de memória em um computador, incluindo registradores, memória cache, memória principal e memória secundária. Ele explica como cada um desses componentes armazena e acessa dados de forma diferente, afetando seu desempenho e capacidade.
Última versão da palestra "Fazendo uma manada de elefantes passarem debaixo da porta", ministrada no PGDay São Paulo 2012, em 09/11. Esta é a versão definitiva, não pretendo atualizar ou ministrar novamente esta palestra.
1) O documento discute tópicos de virtualização de banco de dados, incluindo configurações de BIOS, hyper-threading, mapeamento de CPUs no Linux, escalando frequência, prioridades de agendamento e memória.
2) É apresentado um exemplo de desempenho do Oracle em uma arquitetura Nehalem com e sem SMT habilitado.
3) Fatores como NUMA, huge pages e monitoramento de estatísticas NUMA são discutidos no contexto do desempenho do banco de dados.
A microarquitetura Intel Core é uma arquitetura de processador introduzida em 2006 para substituir a arquitetura NetBurst. Ela possui um pipeline de 14 estágios, três unidades lógicas e aritméticas, e suporte para instruções SSE3. A arquitetura Core introduziu melhorias como fusão de instruções e caminho de dados de 128 bits para aumentar o desempenho.
[1] O documento discute a configuração inicial de roteadores Cisco, incluindo o software Cisco IOS que controla o roteador e o processo de inicialização; [2] Explica os principais componentes de hardware de um roteador, como a CPU e portas de entrada/saída; [3] Detalha como conectar o roteador a um computador via porta de console para acessar a interface de linha de comando e configurar parâmetros básicos.
O documento fornece um resumo histórico do mainframe e da linguagem COBOL, descrevendo seu surgimento em 1946 e 1960 respectivamente. Também explica brevemente como um mainframe funciona, citando seus principais componentes como hardware, sistemas operacionais e linguagens como COBOL e JCL. Por fim, discute aplicações atuais de mainframes, especialmente no setor financeiro.
O chipset determina o desempenho e limites do sistema, controlando a memória RAM e cache, processadores, barramentos e equipamentos suportados. Os principais componentes de um chipset incluem controladores de interrupção, DMA e timers, além de circuitos de clock e relógio em tempo real.
O documento descreve as principais funções dos componentes de memória em um computador, incluindo ROM, RAM, registradores e cache. A memória ROM armazena dados de forma permanente e inclui o BIOS. A memória cache melhora o desempenho ao armazenar temporariamente dados frequentemente usados da memória principal.
- O documento discute as principais memórias e seus papéis em um computador, incluindo memória ROM, registradores, memória cache e memória principal (RAM).
- As memórias ROM armazenam informações de inicialização do sistema de forma permanente. A memória cache é usada para acelerar o acesso à memória principal. A memória principal (RAM) armazena temporariamente instruções e dados durante a execução de programas.
O documento descreve um estudo de benchmarking da plataforma Moodle realizado por meio de testes de carga usando o Apache JMeter. Os testes simularam entre 1 e 1000 usuários e analisaram o uso de CPU, memória RAM e tráfego de rede. Os resultados mostraram que a carga máxima suportada foi de 130 usuários antes do aumento significativo no tempo de resposta.
O documento discute os fundamentos de sistemas operacionais, com foco no Orbis OS. Aborda tópicos como gerenciamento de processos, memória e dispositivos de E/S no Orbis OS, demonstrando alguns de seus mecanismos como fork(), kill, paginação e tabelas de páginas.
FISL14: Como domar uma fera de 1 TFlop que cabe na palma da sua mão!Intel Software Brasil
1) O documento discute como programar computadores multicore para obter o máximo desempenho possível, mencionando técnicas como processamento paralelo, divisão de tarefas e dados, e uso de threads e processos.
2) É destacada a importância da programação paralela para áreas como pesquisa científica, segurança nacional e modelagem do clima, à medida que os desafios computacionais se tornam mais complexos.
3) Ferramentas como Cilk Plus, Threading Building Blocks e bibliotecas de domínio específico
FISL14: Como domar uma fera de 1 TFlop que cabe na palma da sua mão!Luciano Palma
1) O documento discute como programar para tirar proveito da computação paralela em CPUs multicore e aceleradores como o Intel Xeon Phi;
2) A programação paralela é importante para aplicações científicas, de pesquisa e segurança nacional para lidar com problemas cada vez mais complexos mantendo um orçamento energético realista;
3) Ferramentas como OpenMP, MPI, Cilk Plus e TBB podem ajudar a dividir tarefas e dados entre threads e processos para acelerar cálculos através da computação paralela.
Similar to Behind the Scenes: z Systems CACHE por Carolina de Souza Joaquim - IBM Brasil (20)
Apresentação realizada na reunião de 26 de junho de 2019 do Atlassian User Group de São Paulo. Demonstração de como a interface REST dos produtos da plataforma Atlassian podem ser considerados como alternativas aos APPS e a tarefas manuais pela interface Web. Ao final há um exemplo onde a opção de utilizar a interface REST economizou tempo e dinheiro e entregou o trabalho feito
O documento discute as tecnologias de computação empresarial moderna para cargas de trabalho de negócios. Ele descreve como infraestrutura flexível, escalabilidade não disruptiva, continuidade de negócios e eficiência operacional permitem aplicações corporativas modernas e liberdade através de padrões abertos. A segurança de dados confidenciais é essencial nesse ambiente.
This document discusses novelties in z/OS 2.4 and z14 GA2, including enhancements to application development and cloud computing. It introduces buzzwords from the past like OO and ERP that are now outdated, and new buzzwords like cloud, analytics, and microservices. Specific z/OS and hardware enhancements described include 25GbE for OSA and RoCE, crypto enhancements, dynamic I/O configuration for standalone CFs, asynchronous cache cross-invalidation, and HMC enhancements. The document ends with a debate between the presenters on whether new application development approaches will deliver continuous availability, data integrity and performance in production environments.
Marcus Vinicius Bittencourt é um especialista em Data Platform e SQL Server com 4 prêmios MVP. O documento discute cybercrime, brechas de segurança e demonstra como um atacante pode acessar uma rede corporativa e explorar falhas de segurança no SQL Server para escalar privilégios.
O documento descreve a jornada de definição da estratégia de nuvem de um banco brasileiro. O processo envolveu análises técnicas e estratégicas das aplicações, provedores de nuvem e cenários de migração, com o objetivo de identificar as aplicações ideais para a nuvem e os melhores caminhos de migração. A estratégia definida prioriza o uso de nuvem para novos projetos e estima potencial de até 40% das aplicações existentes migrarem para a nuvem.
O documento fornece uma visão geral da área de Ciência de Dados, discutindo como a tecnologia está transformando as profissões e a necessidade de atualização contínua. Também explica conceitos-chave da Ciência de Dados como descritivo, diagnóstico, preditivo e prescritivo e como esses conceitos são aplicados usando algoritmos e machine learning.
The document discusses several new capabilities and enhancements being introduced in z/OS V2.4, including z/OS Container Extensions to enable running Linux containers alongside z/OS applications, 25GbE support for OSA and RoCE, asynchronous cache cross-invalidation to improve performance, and policies to simplify customizing JES2 without assembler exits. It also mentions continued efforts to drive pervasive encryption and support for additional data analytics capabilities.
Geralmente escolhemos uma medida base como, por exemplo, o pico da média horária, ou o pico de um determinado período definido, para mostrar a evolução mensal do consumo de processador passado e fazer projeções de consumo futuro até uma determinada data. Esta medida, porém, pode não justificar, por si só, o crescimento de determinados meses. A proposta aqui é usar a evolução do perfil médio diário de consumo, analisando as mudanças de um mês para outro, e ao longo de anos, que pode ser aplicada à partição, equipamento ou Sysplex. Com essa visão é possível mais rapidamente identificar tendências de crescimento por horários e fazer ajustes no consumo de modo a minimizar os picos recorrentes.
O documento discute boas práticas de programação para melhorar a qualidade e performance de códigos. Ele aborda tópicos como comentários, nomes de variáveis, identação, testes, uso de loops, arrays e funções de forma otimizada. O documento argumenta que seguindo essas práticas recomendadas é possível desenvolver software mais eficiente e de fácil manutenção.
O documento discute a tokenização de ativos e novas linhas de negócios. Ele aborda como empresas como a Microsoft estão apostando na tokenização de ativos usando blockchain e como seguradoras veem grandes oportunidades no armazenamento e cobertura de criptomoedas. Também menciona como a tokenização pode ajudar a combater a pobreza global e a poluição dos oceanos.
O Santo Graal da IoT é a capacidade de distribuir facilmente a inteligência entre a nuvem e os dispositivos (edge). Descubra como inovações edge vão ajudar você a encontrar e certificar hardwares seguros, lucrar com estes módulos e construir soluções da IoT compatíveis com o edge. Veja também com desenvolver, criar e implementar soluções escaláveis e repetíveis alavancando inovações em serviços de Visão, Voz, IoT Edge e Serviços Congnitivos para melhorar soluções da IoT.
O documento discute a solução Eccox Application for Parallel Testing (APT) da Eccox Technology. Em três frases: A APT fornece ambientes de teste isolados no mainframe para permitir testes paralelos, clonando recursos como bancos de dados e arquivos. Isso permite que vários usuários executem testes simultaneamente sem conflitos, reduzindo custos com infraestrutura e horas-homem. A solução também gera dados de teste sintéticos para apoiar cenários de teste isolados.
O documento descreve como o Banco de Brasília implementou uma solução de balanceamento dinâmico para melhorar a gestão da capacidade e desempenho de seu ambiente mainframe IBM ZOS. A solução otimizou o uso dos recursos, reduziu custos com software e adiamento de hardware, com retorno de investimento em 5 meses.
Esta palestra mostrará o “Basicão” [por isso o 1.01 no Título!] da Eletricidade e da Eletrônica, enfocando: Condutores e Isolantes, Relês, Válvulas Termoiônicas [a Retificação e Amplificação começaram assim...], Flip-Flops, Dopagem de Cristais Semi Condutores, Diodos, Transístores, CMOS, SRAM e DRAM. A utilização destes componentes básicos, em Circuitos Sequenciais e Combinatórios, será tema para futuro estudo.
O documento discute a pervasive encryption no IBM Z, que permite a criptografia transparente e em massa de dados em repouso para simplificar a proteção de dados e o cumprimento de normas regulatórias. A pervasive encryption criptografa automaticamente todos os dados em repouso usando chaves gerenciadas pelo sistema, de forma transparente para as aplicações. Isso protege dados em vários níveis, incluindo VSAM, DB2, IMS e logs, entre outros, sem impactar o desempenho.
Nos novos mainframes IBM z, a tecnologia do chip de CPU ficou mais complexa, especialmente incorporando camadas de memória cache. Uma nova terminologia foi introduzida -Relative Nest Intensity (RNI), indicando o nível de atividade para a hierarquia de memória. A área mais sensível ao desempenho da hierarquia de memória é a distribuição de atividade dos caches compartilhados e a memória: quanto maior o RNI, mais profunda será a hierarquia de memória que o processador deve percorrer para recuperar as instruções e os dados de um workload. Discutiremos como podemos diminuir a influência do RNI no CICS fazendo ajustes de desempenho.
O documento discute Infraestrutura como Código (IaC) e como ele pode ser usado para automatizar infraestrutura em nuvem de forma segura e consistente. Ele explica os benefícios do IaC, como aumentar a produtividade das equipes, permitir mudanças contínuas e melhorias incrementais. Também aborda desafios como deriva de configuração e ferramentas IaC populares como Terraform.
A cada nova geração de mainframes, a IBM aumenta a capacidade de suas máquinas. Mas você sabe realmente como a arquitetura do sistema de todos esses processadores afeta a performance e impacta o seu Planejamento da Capacidade? Essa apresentação propõe essa discussão e mostra um caso real sobre como os componentes internos da arquitetura do sistema afetam as diretrizes das disciplinas de Planejamento da Capacidade, Disponibilidade e Desempenho dos ambientes mainframe.
Inspirada na lei europeia GDPR (General Data Protection Regulation) que já foi colocada em prática pela comunidade no final de maio de 2018, a LGPD já em vigor no Brasil com prazo de implantação até agosto 2020, tem como objetivo de reforçar a segurança jurídica dos dados pessoais dos indivíduos e mitigar abusos em relação a estes ativos tão poderosos e valiosos. Nesta apresentação iremos abordar um método de implantação da LGPD nas empresas do Brasil e os principais pontos de adequação a seus requisitos.
Este documento descreve os componentes internos do processador z14. Ele discute os estágios de fetch, parsing, decode e issue de instruções, bem como as unidades de execução fixa, load/store, vetor e flutuante. O documento também fornece diagramas ilustrando o fluxo de dados e instruções entre esses componentes.
PRODUÇÃO E CONSUMO DE ENERGIA DA PRÉ-HISTÓRIA À ERA CONTEMPORÂNEA E SUA EVOLU...Faga1939
Este artigo tem por objetivo apresentar como ocorreu a evolução do consumo e da produção de energia desde a pré-história até os tempos atuais, bem como propor o futuro da energia requerido para o mundo. Da pré-história até o século XVIII predominou o uso de fontes renováveis de energia como a madeira, o vento e a energia hidráulica. Do século XVIII até a era contemporânea, os combustíveis fósseis predominaram com o carvão e o petróleo, mas seu uso chegará ao fim provavelmente a partir do século XXI para evitar a mudança climática catastrófica global resultante de sua utilização ao emitir gases do efeito estufa responsáveis pelo aquecimento global. Com o fim da era dos combustíveis fósseis virá a era das fontes renováveis de energia quando prevalecerá a utilização da energia hidrelétrica, energia solar, energia eólica, energia das marés, energia das ondas, energia geotérmica, energia da biomassa e energia do hidrogênio. Não existem dúvidas de que as atividades humanas sobre a Terra provocam alterações no meio ambiente em que vivemos. Muitos destes impactos ambientais são provenientes da geração, manuseio e uso da energia com o uso de combustíveis fósseis. A principal razão para a existência desses impactos ambientais reside no fato de que o consumo mundial de energia primária proveniente de fontes não renováveis (petróleo, carvão, gás natural e nuclear) corresponde a aproximadamente 88% do total, cabendo apenas 12% às fontes renováveis. Independentemente das várias soluções que venham a ser adotadas para eliminar ou mitigar as causas do efeito estufa, a mais importante ação é, sem dúvidas, a adoção de medidas que contribuam para a eliminação ou redução do consumo de combustíveis fósseis na produção de energia, bem como para seu uso mais eficiente nos transportes, na indústria, na agropecuária e nas cidades (residências e comércio), haja vista que o uso e a produção de energia são responsáveis por 57% dos gases de estufa emitidos pela atividade humana. Neste sentido, é imprescindível a implantação de um sistema de energia sustentável no mundo. Em um sistema de energia sustentável, a matriz energética mundial só deveria contar com fontes de energia limpa e renováveis (hidroelétrica, solar, eólica, hidrogênio, geotérmica, das marés, das ondas e biomassa), não devendo contar, portanto, com o uso dos combustíveis fósseis (petróleo, carvão e gás natural).
A linguagem C# aproveita conceitos de muitas outras linguagens,
mas especialmente de C++ e Java. Sua sintaxe é relativamente fácil, o que
diminui o tempo de aprendizado. Todos os programas desenvolvidos devem
ser compilados, gerando um arquivo com a extensão DLL ou EXE. Isso torna a
execução dos programas mais rápida se comparados com as linguagens de
script (VBScript , JavaScript) que atualmente utilizamos na internet
As classes de modelagem podem ser comparadas a moldes ou
formas que definem as características e os comportamentos dos
objetos criados a partir delas. Vale traçar um paralelo com o projeto de
um automóvel. Os engenheiros definem as medidas, a quantidade de
portas, a potência do motor, a localização do estepe, dentre outras
descrições necessárias para a fabricação de um veículo
Em um mundo cada vez mais digital, a segurança da informação tornou-se essencial para proteger dados pessoais e empresariais contra ameaças cibernéticas. Nesta apresentação, abordaremos os principais conceitos e práticas de segurança digital, incluindo o reconhecimento de ameaças comuns, como malware e phishing, e a implementação de medidas de proteção e mitigação para vazamento de senhas.
Behind the Scenes: z Systems CACHE por Carolina de Souza Joaquim - IBM Brasil
1. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CMG imPACt Maio 2017
Carolina de Souza Joaquim
Behind the Scenes: z Systems CACHE
2. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Apresentação
Carolina de Souza Joaquim
•Especialista em TI com 17 anos de experiência.
•Graduada em Processamento de Dados pela Universidade
Mackenzie;
•Pós-Graduada em Arquitetura de TI pela Faculdade de Informática e
Administração Paulista (FIAP).
•Posição atual: z Systems Client Architect na IBM.
3. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Agenda
• CPU Measurement Facility (CPU MF);
• Relative Nest Intensity (RNI);
• LSPR (Large System Performance Reference);
• zPCR (System z Processor Capacity Reference);
• Conclusão e Dúvidas
4. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU Measurement Facility (CPU MF)
5. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O que é CPU Measurement Facility (CPU MF)
• Intrumentação de Hardware suportada pelo componente z/OS Hardware
Instrumentation Services (HIS);
• Disponível a partir do System z10EC GA2 e z/OS 1.11 (retrofit para z/OS
1.8);
• Possibilita um entendimento mais amplo do uso da Memória Hierárquica do
Hardware e suas diferenças entre gerações;
• Possui duas funções independentes:
• Samples;
• Counters;
6. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU MF Samples
• Deve ser ativado somente se necessário e por curto período de tempo, pois gera
overhead de CPU e volume grande de dados gravados;
• Dados são gravados por LPAR no Unix File System;
• HIS controla os buffers de armazenamento dos dados e a interrupção para coleta
assíncrona;
• Possui um snapshot de informações como instruction address, primary address,
space number e state information. Útil para desenvolvedores de software e
aplicativos, e também para problem determination;
• Proporciona a possibilidade de enriquecer o mecanismo de análise do
comportamento de programas a um nível nunca antes disponível;
• Na zEC12 sua coleta necessita de intervenção do técnico IBM para ativação;
• Na z13 a IBM alterou o processo de ativação e o próprio cliente pode ativar, porém
com orientação da IBM sobre intervalo e parametrização.
7. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU MF Counters
• Tipos de Counters:
• Basic (ciclos, instruções Level1 usage);
• Problem-state (Logical CPU em problem state);
• Group Counter (não recomendado/descontinuado);
• Crypto-activity (CPACF activity);
• Extended (mais detalhes sobre Nest e TLB-diferente entre as gerações);
Basic e Extended devem estar habilitados.
• Dados são gravados por LPAR no Unix File System (opcional, .cnt file) e/ou no
SMF, registro type 113 subtype 1 e subtype 2;
• CPU Overhead e espaço:
• Mínimo (tende a 0), não necessita muito espaço para gravação (1,2% do SMF
70 e 72);
• Recomendação:
• Que esteja ativo em todas as Partições;
8. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU MF Counters (cont.)
• Indica a frequência do vários eventos de Hardware como ciclos por
instruções e cache misses;
• Possibilita uma visão única do uso da estrutura de Cache a partir da z10;
• Input para cálculo da Métrica Relative Nest Intensity (RNI);
• Útil para determinar qual é o melhor perfil de workload da instalação dentro
do Large Systems Performance Reference (LSPR);
• Possibilita um entendimento mais amplo do uso da Memória Hierárquica do
Hardware e suas diferenças entre gerações;
9. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU MF Counters - SMF 113 subtype 1 e subtype 2
• Até o z/OS 2.1, somente subtype 2 era utilizado, subtype 1 era reservado;
• zEC12 e z/OS 2.1: Subtype 1 e Subtype 2 possuem as mesmas informações
para os Counters Basic, Crypto, Extended;
• z13 e z/OS 2.1: Subtype 1 e Subtype 2 possuem as mesmas informações
para os Counters Basic e Crypto. Porém é mais completo para os Counters
Extended;
• Dados são gravados por LPAR no registro SMF type 113 sutype 2 e 1 e/ou
no Unix File System (.cnt file);
10. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU MF Counters – Aplicabilidade
• Dado complementar para:
• Análise de performance de dados já existentes como SMF, RMF, DB2, CICS,
etc.
• Ajuda a entender o motivo de uma mudança de comportamento do workload;
• Suportado por muitos produtos, como o Tivoli TDSz e Spark on z/OS;
• Exemplos
• Impacto do HiperDispatch;
• Mudança de configuração (LPARs adicionais, quantidade de processadores)
• Mudanças de Aplicação
• Upgrades físicos e mudança de geração de máquina
• Suporte ao planejamento de Capacidade
• Utilização do Crypto CPACF
• etc…
11. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
CPU MF Counters – Aplicabilidade Exemplo
• Após upgrade de uma máquina existente ou migração para nova geração
• Possível comparar o comportamento do uso dos diversos níveis de CACHE para identificar
ganhos/perdas. Por exemplo, após adoção de nova geração a quantidade de Ciclos por
Instrução diminuiu/aumentou, o que é um indicativo de eficiência.
zEC12 = CPI 5 / L1 Miss 2,0%
z13 = CPI 4 / L1 Miss 1,7%
• Comportamento atípico
• Em determinados períodos de execução nota-se perda de eficiência para alguns Workloads
Comportamento Normal: CPI 4, L1 Miss 1,7%, MEMP 4
Comportamento Atípico: CPI 10, L1 Miss 1,7%, MEMP 9
12. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Processo para Habilitar o CPU MF Counters
• Hardware e Software mínimos;
• Autorizar a coleta para cada LPAR através do HMC ou SE;
• Definir um userid de RACF para o HIS (started task);
• Verificar se o SMF está ok para coletar os dados;
• Definir HIS em uma Service Class do WLM;
• Configurar o UNIX File System que armazenará os dados;
• Modificar o modo de gravação do SMF para processar e salvar o SMF
Type 113;
• HIS MVS START;
13. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Estruturas de CACHE e
Relative Nest Intensity (RNI)
14. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
z10 x z196 Estrutura de CACHE
15. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
z196 x zEC12 Estrutura de CACHE
16. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zEC12 x z13 Estrutura de CACHE
17. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
O que é Relative Nest Intensity (RNI)
• Reflete a distribuição e latência dos dados na estrutura de CACHE e Memória
entre diferentes arquiteturas;
18. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Cálculo RNI
• For z10 EC and BC RNI = (1.0*L2LP + 2.4*L2RP + 7.5*MEMP) / 100
• For z196 / z114 RNI = 1.67*(0.4*L3P + 1.0*L4LP + 2.4*L4RP + 7.5*MEMP) / 100
• For zEC12 RNI = 2.2*(0.4*L3P + 1.2*L4LP + 2.7*L4RP + 8.2*MEMP) / 100
• For z13 RNI = 2.6*(0.4*L3P + 1.6*L4LP + 3.5*L4RP + 7.5*MEMP) / 100
• For z13 RNI = 2.3*(0.4*L3P + 1.6*L4LP + 3.5*L4RP + 7.5*MEMP) / 100
(Updated!)
(fórmulas são revisadas e sujeitas a mudanças)
L2LP = L2 CACHE no mesmo book/drawer do processador;
L2RP = L2 CACHE em books/drawer diferentes do processador;
L3P = L3 CACHE no mesmo CHIP do processador;;
L4LP = L4 CACHE no same book/drawer do processador;
L4RP = L4 CACHE em books/drawers diferentes do processador;
MEMP = Memória no mesmo book/drawer ou books/drawers diferentes do processador;
19. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Large Systems Performance Reference (LSPR)
20. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Introdução LSPR
• LSPR é um conjunto de benchmarks da IBM com o objetivo de definir e
categorizar tipos de Workloads;
• Historicamente esses benchmarks eram executados e caracterizados
conforme o tipo de workload;
• Uma relação era realizada entre os vários tipos de workloads
executados e os dados SMF coletados referente a quantidade de I/Os
por MSUs;
• Eram considerados diferentes releases de SCP (Sistema Operacional);
21. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Introdução LSPR (cont.)
• Como os índices eram diversos, uma média era calculada e essa média era usada comercialmente na
“LSPR MIPS TABLE”;
• Com a introdução do CPU-MF, determinação de L1 misses e o Cálculo do RNI, agora é possível uma
nova classificação a ser utilizada nas tabelas LSPR, baseada em dados de instalações reais e com
maior precisão;
• Para uso comercial, a “LSPR MIPS TABLE” é agora baseada no RNI Average, que é o Workload de
classificação mais comum nas maioria das instalações analisadas com dados reais;
• O resultado é a publicação da tabela LSPR com um índice ITR (Internal Throughput Rate);
22. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
LSPR Workload MIPS (antigo LSPR Mixes)
23. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
LSPR Workload MIPS (atual)
24. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Caracterização de Workload
25. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Caracterização de Workload
26. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Cálculo RNI - relembrando
• For z10 EC and BC RNI = (1.0*L2LP + 2.4*L2RP + 7.5*MEMP) / 100
• For z196 / z114 RNI = 1.67*(0.4*L3P + 1.0*L4LP + 2.4*L4RP + 7.5*MEMP) / 100
• For zEC12 RNI = 2.2*(0.4*L3P + 1.2*L4LP + 2.7*L4RP + 8.2*MEMP) / 100
• For z13 RNI = 2.6*(0.4*L3P + 1.6*L4LP + 3.5*L4RP + 7.5*MEMP) / 100
• For z13 RNI = 2.3*(0.4*L3P + 1.6*L4LP + 3.5*L4RP + 7.5*MEMP) / 100
(Updated!)
(fórmulas são revisadas e sujeitas a mudanças)
L2LP = L2 CACHE no mesmo book/drawer do processador;
L2RP = L2 CACHE em books/drawer diferentes do processador;
L3P = L3 CACHE no mesmo CHIP do processador;;
L4LP = L4 CACHE no same book/drawer do processador;
L4RP = L4 CACHE em books/drawers diferentes do processador;
MEMP = Memória no mesmo book/drawer ou books/drawers diferentes do processador;
27. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Caracterização Workload LSPR
• Exemplos:
• L1MP 2% e RNI 0.5 = LOW
• L1MP 3% e RNI 0,7 = AVERAGE
• L1MP 3% e RNI 1,5 = HIGH
• L1MP 6% e RNI 1,0 = AVERAGE
• L1MP 6% e RNI 1,1 = HIGH (???) OU AVERAGE HIGH?
28. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
LSPR Workload MIPS (atual)
28
Don’t use “one number” capacity comparisons!
Customers can now use zPCR
?HiperDispatch
GHz
MIPs
tables
MSUs
ratings
The IBM Processor Capacity Reference (zPCR) is a free tool available for download that can be used to size your System z processors.
29. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zProcessor Capacity Reference (zPCR)
30. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zPCR Introdução
• A ferramenta fornece uma relação de sizing entre diferentes famílias System z,
considerando:
• Configurações de cada LPAR (pesos, processadores lógicos)
• SCP (Sistema Operacional);
• Caracterização do workload (LSPR Table baseado no RNI);
• Uso de processadores especialistas (zAAP, zIIP, IFL e ICF);
• Baseado no IBM Large Systems Performance Reference (LSPR)
• É a ferramente apropriada para sizing de upgrades;
• Margem de erro ±5%
• zPCR é uma ferramenta escrita em JAVA disponível desde 2005 para clientes
• Windows XP/Vista/7;
• Free e “As Is”;
• Disponível em:
• http://www-03.ibm.com/support/techdocs/atsmastr.nsf/WebIndex/PRS1381
31. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zPCR Método do Input dos Dados
• 1 – Manualmente
• Nova configuração;
• Configuração existe mas não há outro meio disponível;
• 2 – RMF
• Quando existe uma configuraçao atual e que será alterada;
• 3 - EDF File
• A configuração atual já existe e será utilizado os dados CPU MF para um
estudo mais acurado.
32. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zPCR Exemplo zEC12 Workload Low e Average e Low-Average
• zEC12 HA1 715 COM 2 zIIPs
• MIPS LSPR Average = 16.994 MIPS
• LCP:RCP 2
Low-Average
33. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zPCR Exemplo zEC12 Workload Average e High e Average-High
• zEC12 HA1 715 COM 2 zIIPs
• MIPS LSPR Average = 16.994 MIPS
• LCP:RCP 2
Average-High
34. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zPCR Exemplo z13 Workload Low e Average e Low-Average
• z13 NE1 715 COM 2 zIIPs
• MIPS LSPR Average = 18.700 MIPS
• LCP:RCP 2
Low-Average
35. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
zPCR Exemplo z13 Workload Average e High e Average-High
• z13 NE1 715 COM 2 zIIPs
• MIPS LSPR Average = 18.700 MIPS
• LCP:RCP 2
Low-Average
36. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
z13 CP Drawer Distribution
37. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Conclusões e Dúvidas
• Coletem o CPU MF Counters...sem medo!
• Gerações diferentes de Hardware são, de fato, diferentes.
• A eficiência começa no planejamento adequado.
• Usem as ferramentas disponíveis a seu favor.
• Have fun
38. Proibida cópia ou divulgação sem
permissão escrita do CMG Brasil.
Referências
• Documento LSPR
https://www-304.ibm.com/servers/resourcelink/lib03060.nsf/pages/lsprindex?OpenDocumenthttp
• Getting Started with zPCR
http://www-03.ibm.com/support/techdocs/atsmastr.nsf/WebIndex/PRS1381
• Setting Up and Using System z CPU Measurement Facility with z/OS - RedBook
• CPU MF - 2012 Update and WSC Experiences – John Burg presentation
http://www-03.ibm.com/support/techdocs/atsmastr.nsf/WebIndex/TC000066
• Capacity Planning: Where the Mistakes Are – Kathy Walsh Presentation
• Technical Leadership Library (TLLB) for IBM z13 (z13), zEC12, z196, z10 - Parwez Hamid