The document discusses software defined datacenters. It explains that software defined datacenters separate the control plane from the hardware using software that allows infrastructure services to be consumed as programmable hardware and software. This approach abstracts intelligence from individual hardware components like storage, servers, and networking to create pools of resources that can be delivered as virtual services. It further discusses how this model enables scalability, dynamism, elasticity, automation, and the integration of new applications.
VMworld 2012 - Spotlight Session - EMC Transforms IT - Jeremy BurtonEMCTechMktg
Jeremy Burton (CMO & EVP at EMC) delivered this spotlight session at VMworld 2012. The focus is EMC's vision of how technology transformation will improve IT and Business. It highlights the Software-defined Data Center, EMC's updated product portfolio and how Bg Data and Flash are radically changing how IT can improve innovation for the business.
VMworld 2012 - Spotlight Session - EMC Transforms IT - Jeremy BurtonEMCTechMktg
Jeremy Burton (CMO & EVP at EMC) delivered this spotlight session at VMworld 2012. The focus is EMC's vision of how technology transformation will improve IT and Business. It highlights the Software-defined Data Center, EMC's updated product portfolio and how Bg Data and Flash are radically changing how IT can improve innovation for the business.
Visibility & Security for the Virtualized EnterpriseEMC
Identifying and understanding high-value digital assets in the context of the business is critical in assessing what work-loads to move to the cloud. But doing so is difficult without an effective model to help define and classify these assets. This session presents a down-to-earth methodology for identifying assets and understanding their value that you can apply in critical business decisions.
Objective 1: Understand what to look for when identifying valuable information assets.
After this session you will be able to:
Objective 2: Identify critical steps in the process of identifying and understanding digital assets.
Objective 3: Apply asset value when deciding what digital assets to entrust to the cloud.
Full recording via http://www.brainshark.com/emcworld/vu?pi=zHJzQJGhyzB8sLz0
En esta presentación analizamos varias herramientas de administración disponibles en Microsoft para mejorar nuestra infraestructura.
Ing. Eduardo Castro Martinez, PhD
Microsoft SQL Server MVP
http://ecastrom.blogspot.com
http://mswindowscr.org
http://comunidadwindows.org
Brocade: Storage Networking For the Virtual Enterprise EMC
This Session will review the latest in storage networking protocols for EMC storage platforms. Topics include new architecture for scaling SAN fabrics, new features for enhancing SAN metro connectivity, and new capabilities for SAN Management. We will also review Ethernet Fabric deployments for FCOE, iSCSI and NAS.
Visibility & Security for the Virtualized EnterpriseEMC
Identifying and understanding high-value digital assets in the context of the business is critical in assessing what work-loads to move to the cloud. But doing so is difficult without an effective model to help define and classify these assets. This session presents a down-to-earth methodology for identifying assets and understanding their value that you can apply in critical business decisions.
Objective 1: Understand what to look for when identifying valuable information assets.
After this session you will be able to:
Objective 2: Identify critical steps in the process of identifying and understanding digital assets.
Objective 3: Apply asset value when deciding what digital assets to entrust to the cloud.
Full recording via http://www.brainshark.com/emcworld/vu?pi=zHJzQJGhyzB8sLz0
En esta presentación analizamos varias herramientas de administración disponibles en Microsoft para mejorar nuestra infraestructura.
Ing. Eduardo Castro Martinez, PhD
Microsoft SQL Server MVP
http://ecastrom.blogspot.com
http://mswindowscr.org
http://comunidadwindows.org
Brocade: Storage Networking For the Virtual Enterprise EMC
This Session will review the latest in storage networking protocols for EMC storage platforms. Topics include new architecture for scaling SAN fabrics, new features for enhancing SAN metro connectivity, and new capabilities for SAN Management. We will also review Ethernet Fabric deployments for FCOE, iSCSI and NAS.
Breakout session tijdens Proact's SYNC 2013.
VSPEX en vBlock Converged Infrastructure bouwblokken van hypervisor server network en storage.pptx
John Lavallée
Practice Mgr – Cloud Services EMEA
EMC | Global Services Partners
The world’s information is doubling every two years. In 2011 the world created a staggering 1.8 zettabytes. By 2020 the world will generate 50 times the amount of information and 75 times the number of "information containers", while IT staff to manage it will grow less than 1.5 times. This session introduces students to various storage networking, & business continuity terminologies.
This session reviews what customers need to know about using EMC products in an OpenStack cloud OS environment. This session also reviews which products are available for use in Folsom, Grizzly, and upcoming OpenStack releases. We briefly examine best practices for those products in lab and production deployments. Finally, we will consider where EMC's future participation in OpenStack may lead.
Objective 1: Understand what OpenStack open source software is, how it can be used as a framework to build private clouds, and how EMC is contributing to this open source community.
After this session you will be able to:
Objective 2: Identify which EMC products are available for use in OpenStack today, and how those products add value to private cloud solutions that use OpenStack.
Objective 3: Understand requirements, configurations, and best practices for deployment of EMC products in both lab and production environments.
OneCommand Vision 2.1 webcast: Cutting edge LUN SLAs, AIX on PowerPC and flex...Emulex Corporation
Our customers look to Emulex OneCommand™ Vision for improved I/O performance and availability. The first part of our Performance Assurance Webinar Series will focus on how they can increase their performance and, ultimately their competitiveness, with the upcoming release of OneCommand Vision.
OneCommand Vision 2.1 includes expanded OS support, including AIX, as well as powerful LUN SLA monitoring that reports Class of Service, Path Availability and I/O size specific latency reporting.
Our Performance Assurance Webinar Series features case studies and tips most relevant to today’s data center needs. Join us to discover how you can use OneCommand Vision 2.1 to achieve Performance Assurance on your most critical servers and get the most out of your applications.
Build Scanning into Your Web Based Business Applicationbgalusha
Learn about the new EMC Captiva Cloud Toolkit, a software developer kit (SDK) that allows web application developers to quickly add scanning and imaging functionality directly to their web-based business applications. Learn how partners are leveraging the toolkit to deliver Web-based scanning solutions.
Introducing OneCommand Vision 3.0, I/O management that gives your application...Emulex Corporation
With the release of OneCommand Vision 3.0, Emulex introduces a portfolio of OneCommand Vision products, including the new OneCommand Vision FREE Edition, designed to meet the varying needs of businesses and product groups, large and small.
This webcast and slides review the exciting new benefits of the new 3.0 release.
För att ge rätt kontext till den här presentationen behöver vi börja på en lite högre nivå och bara prata liite om Cloud… Vi haar gjort det länge och idag är det inte bara prat, vi använder det också. Vad är då drivkratferna bakom Cloud? Några stycken är.. SkalbarhetDynamik & Elasticitet, att snabbt vid behov kunna utöka eller minska kapacitet och därmed kostnaden AutomationNya applikationer mm.. Idag kommer jag prata en hel del kring Software Defined Datacenter och det råder en del begreppsförvirring
Idag råder en hel del begreppsförvirring.. Cloud, Public, private och hybrid modeller.. Software defined etc… För att reda ut vad de olika begreppen innebär för oss så ser vi det som att IT as a Service eller cloud har att göra med operationella modeller… Hur vi konsumerar IT. Detta är den långsiktiga visionen som finns för att generera och konsumera IT på det mest effektiva sättet. Software Defined Datacenter är en teknisk plattform för att enklare kunna leverera konsumptionsbaserad IT eller Cloud eller vad vi vill kalla det. IaaS, PaaS SaaS mfl.. Den här presentationen kommer att handla om software defined datacenter med ett fokus kring storage. Det är ju fmycket prat om software defined everything nu förtiden och varför är det så? Vi tar och tittar tillbaka lite i tiden..
Fysisk begränsning - Vi tar en server som exempel för fysiska element.KlickOavsett hur kraftfull server du har så finns det en begränsning i hur mycket den kan hantera.. Någon gång kommer du till en gräns då antingen du själv inte kommer att sova gott eller om du inte har problem med sömn så tar det ett tag till tills servern har nått sin gräns och inte längre kan leverera enligt SLA. KlickAutomation –Nästa del som blir en begränsning i fysisk infrastruktur är svårigheten att automatisera förändring av fysiska konstruktioner eller komponenter. I virtuell hårdvara är det inga problem att addera ytterligare nätverkskort, disk, CPU, minne etc förutsatt att operativsystemet stödjer det. Samma sak är betydligt mer problematiskt i en fysisk hårdvara. KlickMobilitet - Idetta exempel pratar vi om en server, den behöver ju inte vara jättetung, men mobilitet är nästa begränsande faktor som jag vill lyfta fram. En server kanske inte är något problem att flytta, men tänk om vi skall flytta den 50 mil? Hade den vart virtuell skulle vi flyttat den via nätverket eller i värsta fall en extern disk. Nu blir det i stället UPS eller liknande. Om vi vill flytta alla våra servrar till en extern leverantör, vore det inte bra om dessa var virtuella? Det finns såklart en massa andra fördelar med virtualisering så som hårdvaru abstraktion enkapsulering mm.. Men för denna diskussion tror jag argumenten räcker. KlickLösningen - Vi behöver någonting som kan bryta fysikens lagar och överbrygga begränsningarna och ändra datacentret så som vi känner det idag… Detta är något som görs bit för bit och låt oss kika på detta. KLICK förrändringar, låta infrastrukturen förändra hur de olika elementen skall vara konfigurerade för att köra optimalt.
ServrarÖver tiden så har serverplatformen genomgått en stor resa. Från mainframe till virtualiserad x86 platform med allt det innebär. En extremt viktig faktor är standardisering till intel x86 arkitekturen som även återfinns inom andra delar av datacentret som tex storage. En annan viktig faktor är övergången till en mer distribuerad arkitektur för att få en skalbar, flexibel miljö. Vi behöver inte gå in mer på detta nu. KlickNätverk Tittar vi på nätverkssidan så händer liknande saker… Man kan dra en parallell mellan serversidans mainframe till nätverkssidans Chassibaserade Core.. Utvecklingen som vi ser här är att gå från Chassi baserad Core till Distribuerad Core. Man konstruerar virtuella chassin med standardswitchar i Spine/ Leaf konstruktioner som ger möjlighet till extrem skalbarhet och stor flexibilitet. Två stora faktorer driver på denna utveckling och det är SDN samt standardisering. Om vi tar ett standardformat som 1Us 10GbE switch så har nästan alla tillverkare samma chipset där idag. Varför det? Tidigare plöjdes stora summur R&D pengar ner i att bygga egna ASIC´s, proprietär hårdvara med varje tillverkares USPar djupt begravna nere i hårdvarustacken. Själva tanken med software defined är att befria varje hårdvarukomponent från specifik intelligens och lyfta ut den till ett ovanförliggande lager. I nätverkets fall innebär det att all nätverkskonfig ligger i en egen kontroller utanför alla switchar. Med andra ord, så behöver man inte längre manuellt konfigurera varje enhet i nätverket. Sedan finns det en massa andra fördelar så klart. KlickSäkerhetPå säkerhetssidan så har vi ramverket vShield där VMware med hjälp av olika API:er släppt in partners inom säkerhets-ecosystemet att exekvera på i hypervisor lagret utanför själva attackytan vilket är omöjligt i en fysisk implementation. Denna approach kompletteras även här med att lägga intelligensen utanför en begränsande hårdvara. Virtualiserade säkerhetsfunktioner kan enklare skalas ut och anpassa sig efter dynamiken i applikationslagret.. KlickVad som händer i storagelagret är det vi ska titta närmre på i denna presentation.
In the mostly physical world, it often took weeks to fully deploy a new application. [Note: you might want to choose if you want to talk about deploying apps or services. Some people prefer the term “services” because it implies background “services” that apps depend on, as well as apps. Analysts will often refer to it that way.]<click>In a mostly virtual world, it’s certainly better. Many customers can set-up and deliver new applications within hours. But there’s still a lot of work to be done.<click>Setting up a new VM is easy. It’s instant. The difficult part is all the surrounding infrastructure services you need to support that new app. It has dependencies on storage, networking, security. It has requirements around availability and business continuity that must be taken into consideration. It’s all these other services that take the most time, not getting a VM deployed!<click>What if we could shrink down that problem, and make it as simple and straightforward as it is to configure and deploy a new VM. Make it almost “automatic”, by having a fully dynamic, software-driven datacenter.<click>If we can capture a set of policies that can drive and automate the provisioning of all the infrastructure services needed for a new application, and capture it in a container – a virtual datacenter, or VDC – then we can achieve our goal of deploying new applications within minutes or seconds.
What all of this is adding up to is that Virtualized Software is Replacing Specialized Hardware as the core material in designing the modern datacenter. In short, differentiated value lies in how software interacts and integrates, passing hardware control from proprietary management tools to higher level orchestration tools via open programmable APIs rather than deterministic, proprietary, scriptable CLIs.
Exempelpåettflödeinom software defined datacenter. Härkommerettexempelpåhurdetkanfungera… Låtsägaatt du är skallprovisioneraupp 50 virtuellamaskinerför test ochutvecklingeller en utbildningsmiljöellerliknande. <Click> I dennanyamodellgår du då in I en självbetjäningsportalochbeställerdinaservrar. Vi förutsätterattbeställningengodkännsoch vid dennapunkt tar mjukvaranöver. <Click> Orkestreringsmjukvaraanvändsförattkoordineraskapandetochleveransenutavdessatjänster. <Click> Vid användningav en EMC/Vmware stack skulleportalenochorkestreringenutgörasavvCloudAutomationcenterochvCloud Orchestrator. DessaskulleanvändavCloudAPIerföratt be vCloud Director attprovisioneradessaservrar till rättaffärsenhetochdessisoleradebubbla I detvirtuella datacentret. vCloud Director skulleanvändavCenter APIs förattanvända templates I vCenter. Om vi antarattlagringssytemetsupporterar VAAI ,vilketallaemc system gör, såskullevCentergöra en API request till storage attskapa 50 kopiorav de block somutgör din template. Vid dennapunktskullevCenterregistreradessasomunika VMs startaigångdemochresultatetskulle sedan skickasgenomstackenhelavägen till dig somatttransaktionen är genomfördochattdinamaskiner ¨ållerpåattbootaupp. Noteraatt den endamänskligatransaktionenvar I börjannär du beställdedinamaskiner. Allt annatsköttesgenomprogramerbarmjukvaraochhårdvarasomkoordineradesav en orkestreringsmotorfrån start till mål.
Det traditionella datacentret beståroftaavolikateknikochapplikations silos. Ofta är detapplikationenochdessägaresomdikterarkravensom sedan trattasner I olikateknologiskavalförinfrastrukturen. Man kan se appägarnasombortskämdatonårsbarnoch vi är curlingföräldrarna… Varje app har sin egnavertikal med CPU, OS, storage, nät, säkerhetochäven management system. Om vi fortsätteratt CURLA våraapplikationsägarepådettasättkommerinfrastrukturenattblimerspretigochkomplexvilketleder till att vi behövermerresurserförattklappaominfrastrukturenochhållalampantänd. Det blir kostsamt, såmycketsomupp till 70% av OPEX gåråt till detta I många fall. Click
Vadsombehövergörasärattomvandla de olikafysiskasilokonstruktionerna till pooler avgemensammaresurser. Pooler avlagring, server, nätverkochsäkerhetsomärcentraltmanagerat. Idagharnästanalla 80-90% avvadsomkrävsförattåstakommadetta. Detmestasombehövergörasärrelaterat till processer ochorganisatoriskafrågor. Närdettaärgjortkan man bytafokusfrånattkonfigureraochövervakafysiskhårdvara till attjobbamer med affärsunderstöd. Nu har vi kommit till ettlägedär den fiiinaochmycketkompetentahårdvaranfår en nedgraderad roll. Vi behöverintelängrebryossomvilkenmodellellerfärg en hårdvaruprylharlängre.. Detkrävsmycketavhårdvaranföratt den I slutändanskalluppnåstatusenattblinedgraderad till hårvarupryl. Hårdvaranmåstevaraså pass välintegrerad med ovanförliggandeinfrastrukturatt den isigkanförståvilkenkapacatitetprestandaochtillgänglighetsomhårdvaruprylenkanlevereraoch sedan förändrakonfigurationenvarteftersomdetbehövsföratthålla SLA kraven. Hurserdetdåut med integrationerfrån EMC´s sidaupp till Vmware? KLICK
Alternate shorter slide to previous slide … make up your own talk track focusing on multi-year evolution focusingon integration and passing up control … baby steps, over time, leading to SDDC.
All of these things … billions of dollars of R&D … lead us to slides like this. Now its important to look at this through the right lens. This isn’t here to simply flash to the customer, thump our chest and say that we are #1, but rather it is a critical proof point in our most important differentiator. In the current world, the question of why EMC isn’t answered with some list of feature and functionality, but rather our greatest asset is that we have an invisibility cloak. Our software better integrates with everything in the broader IT stack making the lives of our customers easier. Our deep integration allows customers to do the following …
As the Cloud Operations model evolves towards the Software-Defined Data Center, we see greater levels of abstraction of the underlying infrastructure hardware, with greater levels of intelligence moving up the stack. Infrastructure resources are now virtualized and accessed via open RESTful APIs. EMC and VMware have been enabling this type of functionality through VMware APIs (VASA, VAAI, VADP) for the past couple years, allowing greater visibility between Server/VM and Storage. This abstracted, API-driven models will continue to evolve for Networks, Security and other management elements.
Just as we laid out a step-by-step model to help customers on their “journey to the cloud”, we will also lay out a model to manage the transition to the new management models needed for Cloud Operations. [Phase 1] At the foundation is the automation that is needed within each of the technology areas (server, storage, network and security). By leveraging tools that not only provide granular management, but also can integrate with the virtualization platform, IT groups can begin to deliver more agile operations and automate repetitive tasks. [INSERT DISCUSSIONS ABOUT EMC PROSPHERE, UNISPHERE, IONIX, SMARTS, NCM, WATCH4NET][Phase 2] Begin to leverage the Cloud Operations functionality that is available with the virtualization platform. This will treat the infrastructure as pools of resources, allowing IT to manage demand and performance in a more cost-effective, flexible way. [INSERT DISCUSSION OF VMWARE VCLOUD SUITE]
PROJECT BOURNE will allow Cloud Operations to manage heterogenous storage environments, working closely with VMware Software-Defined Data Center architecture components (vCLOUD SUITE). BOURNE provides the control-plane (not the data-plane) for Cloud Operations interaction with VMware. Data plane interaction is still between the Application/VM and the Storage systems using standard protocols.
Mycket I datahallen är idagvirtualiserat, men fortfarandeanvändssammamekanismerföratttilldelaochhanteralagring. Dettakommer VMware attändrapå! Det jag skaprataom nu är framtid, detfinnsinteidag, men detkommertroligen under nästaår. Vad är detdåsom är pågång? Vmwarejobbarpå en ny storage stack där sto9ra förändringarkommerattgöras. Delsförbättringarför den traditionellalagringen, SAN / NAS, men man tittarävenpåattkomplettera med en distribueradinfrastrukturbestående av interndisk (DAS). Det är trehuvudkategorier vi skalltittapå. klickVirtual Volumes ellervVolsKlickKlickVirtual Flash, där intern flash disk blir en Tier 1 resurssomkanstyrasliktminneoch CPU resurs I en host. KlickSamt virtual SAN – distribueradeinternadiskar.. Kommerattpassa bra förnyaapplikationerdärnärhet till disk är viktigttexhadoop. Tillsammansutgör de Software Defined Storage.
Visionen för Software Defined storage är att kunna samla resurser från alla typer avlagring SAN, NAS, DAS & Flash i stora virtualiserade lagrings pooler. Man ska kunna upprätta lagringsenheter baserat på tjänsteprofiler istället för att anpassa sig efter fysiska begränsningar som det är idag. Varje Virtuell maskin får den kapacitet, tillgänglighet och prestanda som just den behöver. Tjänsteprofilen appliceras på varje enskild VMDK, inte per datastore eller LUN / filsystem som det är idag. Varje objekt för sin tjänsteprofil och den är policydefinitionen för all automation som sker i lagringen.
Genom att virtualisera Server flash och konvertera det till en resurspool i klustret precis som man gör med
In the mostly physical world, it often took weeks to fully deploy a new application. [Note: you might want to choose if you want to talk about deploying apps or services. Some people prefer the term “services” because it implies background “services” that apps depend on, as well as apps. Analysts will often refer to it that way.]<click>In a mostly virtual world, it’s certainly better. Many customers can set-up and deliver new applications within hours. But there’s still a lot of work to be done.<click>Setting up a new VM is easy. It’s instant. The difficult part is all the surrounding infrastructure services you need to support that new app. It has dependencies on storage, networking, security. It has requirements around availability and business continuity that must be taken into consideration. It’s all these other services that take the most time, not getting a VM deployed!<click>What if we could shrink down that problem, and make it as simple and straightforward as it is to configure and deploy a new VM. Make it almost “automatic”, by having a fully dynamic, software-driven datacenter.<click>If we can capture a set of policies that can drive and automate the provisioning of all the infrastructure services needed for a new application, and capture it in a container – a virtual datacenter, or VDC – then we can achieve our goal of deploying new applications within minutes or seconds.