Big Data – Back to the Future?Tom BreurJuni 2012InleidingWe leven in een tijdperk met ongekende groei in data volumes.Mome...
aantal beperkingen te hebben die met name voor (zeer) grote datavolumes en ongestructureerde gegevens parten spelen.Het li...
tijdens een “eenvoudige” OV reis. Of denk aan de verbinding tussenzendmast en mobiele telefoon. Meerdere keren per seconde...
bereik. Terwijl je beweegt worden connecties met nieuwe masten gelegd,en andere verbindingen weer verbroken. Al deze data ...
de bezielende leiding van wijlen Jim Gray, tegenwoordig gebundeld in deSloan Digital Sky Survey. 230 Miljoen ruimte object...
Wat nieuw is, zijn de gegevens (en business analytics) die nu beschikbaarzijn om deze belofte in te lossen.Hier wordt ook ...
Aangezien het toch slechts “een spelletje” betreft, waarom zou je dan nietwat compromissen (bijvoorbeeld inconsistenties) ...
De recente opkomst van “Big Data” wordt voor een groot gedeeltegedreven door de recente beschikbaarheid van (veel) goedkop...
Gegevens analyseren in een NoSQL omgeving is bijna net zo moeilijk alshet besturen van een DeLorean DMC-12. Maar de transi...
Ons database vak is wellicht nog nooit zo spannend geweest als vandaagde dag, het is een tijd van inspirerende ontdekkinge...
Upcoming SlideShare
Loading in...5
×

Xlnt consulting big data, back to the future

330

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
330
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
5
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Transcript of "Xlnt consulting big data, back to the future "

  1. 1. Big Data – Back to the Future?Tom BreurJuni 2012InleidingWe leven in een tijdperk met ongekende groei in data volumes.Momenteel wordt het totaal geproduceerde volume aan data in hetafgelopen jaar geschat op zo’n 2 Zettabytes (Giga-Tera-Peta-Exa-Zetta),en de jaarlijkse groei bedraagt zo’n 60% (bron: onderzoeksburo IDC). Datkomt neer op grofweg een vertienvoudiging elke vijf jaar. En het eind isnog lang niet in zicht.Uiteenlopende management boeken zoals “Competing on Analytics”(Davenport & Harris, 2007), “Super Crunchers” (Ayres, 2007) enbijvoorbeeld “Data Driven” (Redman, 2008) hebben de toon gezet bij eenbreed lezerspubliek. In een vorig jaar gepubliceerd rapport over “BigData”, bestempelt de McKinsey Glabal Institute deze als “the next frontierfor innovation, competition and productivity.” De strategische waarde vandata is bij senior management onder de aandacht gekomen.Concurrentie speelt zich niet meer af op nationaal of regionaal, maarsteeds vaker op globaal nivo. Hierdoor neemt concurrentiedruk enefficiëntie van markten toe, waardoor schaalgrootte en ‘slim’ uitnutten vangrote hoeveelheden gegevens een cruciale rol speelt in het verwerven enbehouden van duurzaam concurrentie voordeel. In “The World is Flat”(Friedman, 2005) doet de auteur uit de doeken hoe deze trend zich in dekomende jaren alleen nog maar verder zal uitbreiden.“Big Data” is een hype die ook tot de bestuurskamer is doorgedrongen.Succesverhalen van organisaties die “business analytics” een centrale rolin hun bedrijfsstrategie toekennen. Neem Google bijvoorbeeld. Waarhebben zij hun succes aan te danken? Een superieur zoek algoritme?Google AdWords? Of zou het komen omdat zij de slimste computerexperts aan zich weten te binden, waarmee ze beter en sneller dan hunrivalen (Yahoo, Bing) hun enorme clusters van computers aan het werkzetten?De wens vanuit de business om over steeds meer, en steeds rijkere (lees:ook ongestructureerde) data te beschikken staat op gespannen voet metde traditionele machinerie waarmee we business intelligence tot dusverhebben uitgerust. Er is behoefte aan meer flexibele, beter schaalbarearchitectuur. Traditionele relationele modellen blijken in dat opzicht een 1    www.xlntconsulting.com © 2012 Tom Breur
  2. 2. aantal beperkingen te hebben die met name voor (zeer) grote datavolumes en ongestructureerde gegevens parten spelen.Het lijkt nauwelijks toeval dat ontwikkelingen binnen Google aan de basisstaan van een belangrijk deel van de huidige “Big Data” innovaties.MapReduce en GFS (Google File System) zijn bij hen ontwikkeld (OpenSource!) om meer resultaten te halen uit de bergen van data waar zij overbeschikken. Het is op zijn minst opmerkelijk dat vrijwel alle “Big Data”oplossingen onder een Open Source model tot stand zijn gekomen. Alssoftware zelf niet je kerncompetentie is, kiezen steeds meer organisatieser voor om gebruik te maken van het Open Source model vanontwikkeling.De BI markt werd de afgelopen decennia gedomineerd door leveranciersvan Relational Database Management Systems (RDBMS-en). Die hebbenhun werk steeds prima gedaan, en dat doen ze nog steeds. Maar, zijhebben ook een belangrijk nadeel: de mogelijkheid om het relationelemodel op te schalen over (zeer) grote clusters van servers is uiterstbeperkt. Dat had tot gevolg dat business cases voor toepassingen metzeer grote hoeveelheden aan (met name ongestructureerde) data lastig temaken zijn. De hardware bleek al snel eenvoudigweg te duur. En net zoalshet water achter een dam op zoek gaat naar nieuwe stromen, ontstondenlangzaam maar zeker alternatieve oplossingen voor bestaandeschaalbaarheids problemen.Door de informatie explosie op het internet, en vergaande “digitalisering”van onze maatschappij, produceren we onvoorstelbare hoeveelhedendata. Maar data is nog geen informatie. Het “opwerken” van data totactiegerichte inzichten in de 21e eeuw is het equivalent van de industriëlerevolutie in 19e eeuw. Tussen 1850 en 1900 draaide alles om toegang totgrondstoffen en materialen, en de (logistieke) capaciteit om deze snelaan- en af te voeren. In de 21e eeuw wordt de concurrentieslag gestredendoor steeds meer en betere data te benutten, en dus moet opslag enverwerking zo economisch mogelijk gebeuren. Dit is waar “traditionele”RDBMS-en (gebaseerd op SQL) het steeds vaker afleggen tegennieuwe(re) technologie zoals Apache Hadoop en NoSQL databases.Een kenmerk van de recente groei in data is dat deze van voornamelijkgestructureerd is uitgebreid naar goeddeels ongestructureerde of semi-gestructureerde informatie. Voorheen waren data vooral CRM entransactie georiënteerd: de dialoog tussen klant en bedrijf genereerde hetleeuwendeel van de data. In het nieuwe, “Big Data” tijdperk, zijn het nietlanger alleen mensen, maar vooral machines onderling dieverantwoordelijk zijn voor de explosieve groei in data.Denk aan in- en uitchecken met je OV chipkaart. Afleiden van reislengte,bijwerken van saldo, berekenen van tijd sinds overstap, nieuwe route prijsberekenen, etc. Al deze bewerkingen vinden achter de schermen plaats 2    www.xlntconsulting.com © 2012 Tom Breur
  3. 3. tijdens een “eenvoudige” OV reis. Of denk aan de verbinding tussenzendmast en mobiele telefoon. Meerdere keren per seconde peilt detelefoon de aanwezigheid van signalen, om voortdurend aan te sluiten opde sterkste zender. Etcetera.Enkele toepassingen van “Big Data”Google werd opgericht in 1997, en sinds 2001 biedt Google naast“gewone” zoekresultaten ook afbeeldingen. Het zal duidelijk zijn dat als jealle media wilt integreren met internet pagina’s en tekst, er een zondvloedaan data op je af komt. In hun poging om het hele internet te indexerenliep Google hierdoor als een van de eerste bedrijven tegen de grenzen aanvan bestaande hardware technologie. De combinatie van internetpagina’s, afbeeldingen, audio en video leidde tot ongekende volumes diede bestaande hardware en software uit die tijd in zijn voegen deedkraken. Deze groei in gegevens opslag leidde tot de ontwikkeling vanNoSQL (later meer daar over).Maar behalve indexeren van het internet zijn er meer ontwikkelingen diehebben bijgedragen aan de explosie van gegevens opslag. Relatief nieuwedata voorzieningen als GPS, RFID, social media content, CDR, ofclickstream analyse doen een zwaar beroep op beschikbare processorcapaciteit en opslag. Met de toename van “web-enabled” applicatiesneemt het aantal toepassingen alleen nog maar toe.Waar data voorheen hoofdzakelijk ontsprongen aan interactie tussenmens en machine, worden nu steeds meer (en uiterst waardevolle!) datagegenereerd door interacties tussen machines onderling. Als een mobieletelefoon aan staat, zendt het toestel meerdere keren per secondeberichten naar beschikbare GPS masten (en andere smartphones!) binnen 3    www.xlntconsulting.com © 2012 Tom Breur
  4. 4. bereik. Terwijl je beweegt worden connecties met nieuwe masten gelegd,en andere verbindingen weer verbroken. Al deze data kunnen relevantzijn, bijvoorbeeld als je wilt weten waar exact een bepaald GSM toestelzich bevindt op een bepaald tijdstip. Daar heeft de eigenaar van hettoestel zelf niets voor gedaan.De politie kan een bezitter van een telefoon tot op een meter of tweelokaliseren (mits er voldoende masten in de buurt zijn). Maar daarvoormoeten dan wel al deze machine gegenereerde data worden geïntegreerd!De gezamenlijke interacties tussen alle omringende zendmasten en eenbepaald IMEI nummer (de digitale “identiteit” van een GSM toestel) kanzo gebruikt worden om de fysieke locatie (coördinaten) op elk moment intijd te bepalen, met het bijbehorende betrouwbaarheids interval.Stel je voor dat je bewegingen van meerdere mensen (IMEI nummers)tegelijk zou willen volgen, bijvoorbeeld om file bewegingen in kaart tebrengen. De hoeveelheid rekenkundige bewerkingen neemt dan al snelastronomische proporties aan. Maar als je bedenkt dat vrijwel elkeautomobilist tegenwoordig een mobiele telefoon bij zich heeft, zou jedaarmee wel in real-time files kunnen rapporteren, bijvoorbeeld. De(commerciële) mogelijkheden zijn welhaast eindeloos. Deze zogenaamde“geo-spatial applications” beginnen we eigenlijk nog maar recentelijk teverkennen. Je hebt niet al te veel fantasie nodig om in te zien hoeveelmogelijkheden daarmee open komen te liggen.TomTom blijkt dit soort gegevens (weliswaar gebaseerd op hun “eigen”navigatie data, niet op basis van GSM data) dan ook al te verkopen aanonze overheden die daarmee infrastructuur beter kunnen plannen. Metname secundaire toepassingen, waarbij afgeleide gegevens voor derdenworden beschikbaar gesteld zijn een enorme groeimarkt voor “Big Data.”Maar denk ook eens aan een andere toepassing zoals High FrequencyTrading (HFT, soms “Algorithmic Trading” genoemd). Dit zijn de tovenaarsvan de beursvloer die miljoenen verdienen door binnen millisecondenfinanciële derivaten te kopen en te verkopen. Door zeer grote aantallen“trades” uit te voeren, met ieder een zeer kleine marge, zijn deze spelersde beurshandel gaan overvleugelen. Tegenwoordig nemen zij wereldwijdmeer dan 70% van alle beurstransacties voor hun rekening.Of denk aan de vele weersatellieten die 24 uur per dag rond de aardedraaien, boeien die in alle oceanen drijven, weerstations, windmeters, ofafstand bestuurde sensoren in de regenwouden, en op de Noord- enZuidpool. Al deze gegevens worden “gevoed” aan uiterst complexe weermodellen. Het is niet voor niets dat meteorologen dikwijls voorop lopen bijde ontwikkeling van nieuwe generaties supercomputers.Astronomen waren zo’n beetje de eerste die begonnen om al hunwaarnemingen te bundelen. Aanvankelijk in een Microsoft project onder 4    www.xlntconsulting.com © 2012 Tom Breur
  5. 5. de bezielende leiding van wijlen Jim Gray, tegenwoordig gebundeld in deSloan Digital Sky Survey. 230 Miljoen ruimte objecten zijn daarverzameld, waaronder 930.000 Melkweg stelsels.Of wat te denken van het “Human Genome Project”, waar men in 2000een eerste “concept” opleverde die in 2003 zou worden voltooid.Voornamelijk vooruitgang in rekenkracht en algoritmes stonden aan debasis van deze doorbraak. In de “International Nucleotide SequenceDatabase Collaboration” hebben biologen hiertoe zo’n 250 miljardbestanden hebben opgeslagen.En zo zijn er nog legio voorbeelden te benoemen waar “Big Data” eengrote rol speelt. De komende jaren komen daar ongetwijfeld nog velenieuwe toepassingen bij.Belang van “Long Tail” marketingEen hoeksteen van de “Big Data” trend, is schaalvergroting dienoodzakelijk wordt om op een globale markt te kunnen blijvenconcurreren. Mede door de alsmaar dalende marginale kosten om devolgende klant te benaderen, is “de markt” steeds minder bereid om eenone-size-fits-all propositie te accepteren. Klanten raken verwend, zijngewend dat aanbieders met hun unieke wensen en voorkeuren rekeninghouden.Bedrijven die niet “mee” kunnen in deze ontwikkeling blijven achter.Uitstekende service, een gebruiksvriendelijke website, op maat gesnedenaanbiedingen, ze zijn niet meer voldoende om je te onderscheiden.Klanten verwachten die eenvoudigweg, want concurrenten bieden dat ook,en ze zijn slechts een muisklik verwijderd.Doordat zo veel producten voor iedereen bereikbaar zijn geworden,worden aanbieders als het ware gedwongen om elke niche op zijn eigenmanier te bedienen. Dit principe van “mass-customization” is niet nieuw. 5    www.xlntconsulting.com © 2012 Tom Breur
  6. 6. Wat nieuw is, zijn de gegevens (en business analytics) die nu beschikbaarzijn om deze belofte in te lossen.Hier wordt ook duidelijk waarom schaalgrootte zo cruciaal wordt: alleende spelers met hele grote volumes zullen voldoende “goed gevulde” long-tails hebben om daar commercieel van te kunnen profiteren (Anderson,2006). Zij kunnen beter dan hun concurrenten inspelen op uniekebehoeften van individuen. De toekomst ligt in “minder verkopen vanmeer.” Door heel veel niches te bedienen kun je blijven groeien, enklanten met unieke proposities aan je binden.“Big Data” op zich zichzelf zijn nutteloos, ongeacht vorm of volume. Datakunnen pas waarde creëren als je er iets mee doet waar de klant meegebaat is. Hier komen analytics om de hoek kijken, om het juiste product,op het juiste moment, bij de juiste te klant onder de aandacht te brengen.“Big Data” en NoSQL“Big Data” en NoSQL (Not only SQL) databases lijken welhaastonlosmakelijk met elkaar verbonden te zijn. Waarom is dat? Deschaalbaarheids problemen waar we met RDBMS-en tegen aan lopen,worden in de kern veroorzaakt doordat deze “traditionele” systemenvasthouden aan het ACID principe: Atomicity, Consistency, Isolation, enDurability.De transactie geldt traditioneel als elementaire eenheid van verwerking.In de “Big Data” wereld laten we het ACID principe los omschaalbaarheids problemen het hoofd te bieden. Je zult dan moetenaccepteren dat je soms compromissen moet sluiten ten opzichte van (devoordelen van) relationele SQL verwerking. Met name de relatief “dure”insert-updates zitten je bij verwerking van zeer grote hoeveelheden data“in de weg.”De elementaire eenheid van verwerking wordt bij NoSQL dus eendeelverzameling van de transactie, om optimaal van parallel verwerken tekunnen profiteren. Maar daar kleven ook belangrijke nadelen aan. Wieregelmatig op social media actief is, zal het zeker opvallen dat er somsaperte inconsistenties zichtbaar zijn, zoals volgorde verwisselingen,tijdelijke verdwijningen, of dubbele records. Algemeen principe is dat jemet alle NoSQL oplossingen op ten minste één van de vier ACID principesmoet inleveren ten behoeve van betere performance. Of datgerechtvaardigd is, blijft natuurlijk een business keuze.Interactieve games zoals bijvoorbeeld FarmVille op Facebook trekken zo’n15 miljoen gebruikers per dag. Veel transacties daar zijn inherentcollaboratief, en niet per se sequentieel. En dat geldt voor meer “Web 2.0”toepassingen. Als je al die transacties volgens ACID principes zouproberen te verwerken, heb je ongelofelijk dure hardware nodig. 6    www.xlntconsulting.com © 2012 Tom Breur
  7. 7. Aangezien het toch slechts “een spelletje” betreft, waarom zou je dan nietwat compromissen (bijvoorbeeld inconsistenties) accepteren?Op zich vinden we consistentie nog steeds belangrijk, maar deze hoeftniet per se op elk moment in de tijd te worden gewaarborgd. We kiezendan voor consistentie op den duur. Daarom zie je ook zo vaak in dat soorttoepassingen dat er tussen “refreshes” op je scherm kleine afwijkingenoptreden. Voorbeelden van nieuwe technologie die hiervoor ontwikkeld is,zijn “entangled queries” of “declarative data-driven coordination.” Maarhoe dan ook: er is geen “free lunch”: door de transactie als eenheid vanverwerking op te geven, winnen we (soms dramatisch) aan performance,maar leveren we ook wat in op ten minste één van de vier ACID principes.In het bijzonder (Apache) Hadoop is zo’n beetje de “industry benchmark”voor “Big Data” geworden. Uiteenlopende toepassingen die zeer grotehoeveelheden data gebruiken leunen (zwaar) op Hadoop. Naar verluidtheeft Facebook momenteel het grootste Hadoop cluster draaien: 21PetaByte opslag, in één HDFS (Hadoop Distributed File System) cluster.Meer dan 2000 machines die ieder zo’n 12 TeraByte aan(gecomprimeerde!) data toevoegen per dag. Duizelingwekkende getallen,ook voor degenen (zoals ik) die wel vaker met hele grote data sets temaken hebben.Hadoop is een Apache Open Source product wat als dusdanig eigenlijkeerder als een eco-systeem dan als een product beschouwd moet worden.Hadoop is geïnspireerd door Google’s MapReduce en Google File System(GFS) ontwikkeling. Binnen dit eco-systeem (“Hadoop Common”) vallenproducten als HBase, Hive, en ZooKeeper, respectievelijk een Databaseequivalent, Data Warehouse, en coördinatie dienst voor gedistribueerdeapplicaties. HBase is de Hadoop variant die in meerdere opzichtenvergelijkbaar is met BigTable van Google (ook NoSQL). HDFS (Hadoop FileSystem) is de equivalent van GFS.“Horizontaal” (MPP) versus “verticaal” (SMP) schaalbarearchitectuurNoSQL speelt een centrale rol in “Big Data” architecturen. Maar watbedoelen we eigenlijk met NoSQL? Was er dan “iets mis” met SQL entraditionele RDBMS-en? Nee, niet echt. Of misschien toch. SQL en dehuidige generatie RDBMS-en hebben ontegenzeglijk een aantal voordelen.Maar ook één heel belangrijk nadeel. Transactie verwerking in hetrelationele model laat zich namelijk heel moeilijk partitioneren.Een voorname reden waarom “Big Data” dringend behoefte hebben aaneen MPP architectuur heeft niet alleen te maken met de brute rekenkrachtdie vereist is om gigantische hoeveelheden data te verwerken. Er zijn nogtwee voorname redenen waarom de transitie van voornamelijk SMP naarMPP hardware architectuur een belangrijke rol speelt. 7    www.xlntconsulting.com © 2012 Tom Breur
  8. 8. De recente opkomst van “Big Data” wordt voor een groot gedeeltegedreven door de recente beschikbaarheid van (veel) goedkopere servers,in een MPP architectuur die berekend is op regelmatige storingen en uitvalvan relatief goedkope hardware. Doordat “falen” van techniek isingebouwd in het proces van opslag, backups en onderhoud, is hetmogelijk geworden goedkope hardware te gebruiken. Als bijkomendvoordeel bieden deze (cloud) clusters ook de optie van (bijna) lineaireschaalbaarheid – een onmogelijkheid voor hardware waar “traditionele”relationele RDBMS-en op draaiden. Dat is de belangrijkste reden van dedominatie van NoSQL oplossingen voor “Big Data” toepassingen.We spreken in dit verband van de tegenstelling tussen “horizontaal” en“verticaal” schaalbare architectuur. Traditionele RDMBS servers kun jeverticaal opschalen: je prikt er dan meer RAM in, kiest voor een snellereI/O kaart, of wellicht vervang je de server voor een met een hogerekloksnelheid of meer processoren. Je werkt dan met een zelfde typemachine, maar sneller.Boven een bepaald plafond, lopen de korsten voor een snellere (SMP)server echter exponentieel op. Een NoSQL architectuur met (relatief)goedkope servers in een MPP architectuur laat zich min of meer lineairopschalen, eenvoudigweg door het bij plaatsen van hardware. Ergens ophet groeipad is een breekpunt waar SQL databases te duur worden, enNoSQL het belangrijkste alternatief vormt.Back to the Future?“Back to the Future” was een Science Fiction film uit 1985 (met eenvervolg deel II), waarin Michael Fox de hoofdrol speelde (Marty McFly).Zijn “partner in crime” Dr. Emmett (“Doc”) Brown deed een beetje denkenaan de huidige generatie Hadoop experts die als medicijnmannen van de21e eeuw hun clusters van servers in “de cloud” kunnen bezweren.Als je er op terug kijkt, dan lijkt de technologie (een DeLorean DMC-12)die we in 1985 nog met Science Fiction associeerden hopeloos gedateerd.En dan te bedenken dat de DeLorean werd gekozen voor die film vanwegehet futuristische uiterlijk. Opmerkelijk hoe snel die perceptie weer kanveranderen. NoSQL oplossingen lijken nu geavanceerd en vernieuwend,zou dat beeld ook zo snel weer kunnen wijzigen? 8    www.xlntconsulting.com © 2012 Tom Breur
  9. 9. Gegevens analyseren in een NoSQL omgeving is bijna net zo moeilijk alshet besturen van een DeLorean DMC-12. Maar de transitie van SQL naarNoSQL doet in vele opzichten denken aan een stap terug naar het COBOLtijdperk. Een RDBMS “regelt” heel veel standaard werk voor je. EenNoSQL database doet in dat opzicht denken aan IDMS uit het mainframetijdperk met ponskaarten. Zoiets voor de hand liggends als referentiëleintegriteit afdwingen door het datamodel is er niet meer bij.Conclusie“Big Data” zijn de toekomst. En die toekomt ligt wellicht minder ver wegdan u denkt. Maar belangrijker: gezien het tempo waarin data de laatstejaren groeien, en de schaalbaarheids problemen dit met zich mee brengt,lijken alternatieven voor het traditionele RDBMS en SQL platformsonvermijdelijk.Er zijn geen tekenen dat de groei in data volumes begint af te zwakken,en de business zal voortdurend om hulp vragen hoe deze gegevenskunnen worden omgezet in concurrentie voordeel. Aangezien je je eigendata per definitie nooit aan concurrenten beschikbaar zal (mag) stellen,vormt het slim uitnutten van die gegevens een bron van duurzaamconcurrentie voordeel. Die trend, dat bewustzijn, drijft de recenteopkomst van business analytics.Het aantal mogelijke toepassingen voor “Big Data” kent nauwelijksgrenzen, anders dan onze eigen verbeelding, en rendabele business cases.De data volumes blijven groeien, en hardware prijzen blijven dalen. In dekomende jaren zullen ongetwijfeld belangrijke innovaties uit de (OpenSource!) gemeenschap naar voren komen die weer nieuwe toepassingenmogelijk gaan maken. De insteek “consument-in-tijd-en-ruimte” begintnog maar juist de aandacht te trekken, ofschoon het helder is hoeveelcommerciële mogelijkheden daar nog braak liggen. Maar zo zijn er nogveel meer “Big Data” applicaties te bedenken. 9    www.xlntconsulting.com © 2012 Tom Breur
  10. 10. Ons database vak is wellicht nog nooit zo spannend geweest als vandaagde dag, het is een tijd van inspirerende ontdekkingen en heroïscheprestaties. Uitgangspunten zoals ACID en referentiële integriteit, waar wemee zijn opgegroeid, moeten we los laten. Zoals men in de film Back tothe Future zegt: “Daar waar wij naar toe gaan, hebben we geen wegennodig.”ReferentiesThomas Davenport & Jeanne Harris (2007) Competing on Analytics – TheNew Science of Winning. ISBN# 1422103323Ian Ayres (2007 ) Super Crunchers: Why Thinking-by-Numbers Is theNew Way to Be Smart. ISBN# 0553805401Thomas Redman (2008) Data Driven: Profiting from Your Most ImportantBusiness Asset. ISBN# 1422119122Thomas Friedman (2005) The World is Flat: A Brief History of theTwentieth-first Century. ISBN# 0374292884Chris Anderson (2006) The Long Tail: Why the Future of Business isSelling Less of More. ISBN# 1401302378 10    www.xlntconsulting.com © 2012 Tom Breur

×