SlideShare a Scribd company logo
1 of 21
Download to read offline
TRA MITO ED ANTITRUST:
IL CASO MICROSOFT ALL’INDOMANI DELL’ORDINANZA DEL
PRESIDENTE DEL TRIBUNALE CE
ABSTRACT. La recente ordinanza, emessa dal Tribunale CE, lungi dal riconciliare le
divergenti posizioni, della Microsoft e della Commissione, circa le modalità di
adempimento delle sanzioni imposte, ha in realtà sortito l’effetto opposto. In particolare,
le argomentazioni volte a sorreggere la sussistenza del fumus boni juris appaiono
minare profondamente l’approccio seguito dalla Commissione nell’acclarare la
violazione dell’art. 82 TCE. Il presente articolo, alla luce di ciò e nell’attesa che
pervenga la sentenza definitiva sul ricorso attualmente pendente, si propone di svelare il
vulnus logico che ammanta il ragionamento seguito dalla Commissione e,
conseguentemente, di formulare criteri correttivi atti ad impedire che le decisioni della
Commissione, in special modo nel settore dell’ ”hi-tech”, possano rivelarsi
eccessivamente foriere dell’errore c.d. “falso-positivo”.
2
TRA MITO ED ANTITRUST:
IL CASO MICROSOFT ALL’INDOMANI DELL’ORDINANZA DEL
PRESIDENTE DEL TRIBUNALE CE
di Giuseppe Mastrantonio
*
SOMMARIO: 1. Premessa. – 2. L’ “abc” economico dei “sistemi computerizzati”. – 2.1 Strategie di
conquista della posizione di comando sulla “piattaforma”. Architetture “aperte” e “semi-aperte”
a confronto: dove pende l’ago dell’efficienza? – 2.2. Si apre il sipario: i timori della
Commissione. - 2.2.1. Considerazioni critiche. – 3. La decisione della Commissione: la teoria
dell’ ”effetto leva” nell’Era dei “networked systems”. - 3.1. La definizione del mercato rilevante
nel metamorfico settore dell’ “hi-tech”: il mercato dei Sistemi Operativi per “workgroup
server”? - 3.1.1. La posizione dominante e le barriere tecnologiche all’entrata. – 3.2. La condotta
abusiva o l’abuso del concetto di “super-dominance”? - 4. Conclusioni.
1. Premessa.
Lo scorso marzo 2004, la decisione della Commissione1
accertò la duplice
violazione, perpetrata dalla società produttrice di software, del disposto dell’art. 82
TCE. Microsoft fu giudicata per aver abusato della propria “posizione dominante”
attraverso l’utilizzo di due distinte pratiche: il “technological leveraging” ed il
“technological bundling”. Pertanto, le vennero imposti sia una sanzione pecuniaria pari
a 497 milioni di euro, sia, particolari obblighi di natura quasi-strutturale.
Attualmente, con riguardo alle modalità ed alle tempistiche circa l’adempimento
di tali ultimi rimedi, è dato assistere ad un vero e proprio “braccio di ferro” tra la
Commissione, da un lato, e l’impresa obbligata, dall’altro2
. Tale contrasto, come è
ovvio immaginare, rappresentata solamente la punta dell’iceberg del più ampio e
profondo dibattito che caratterizzò l’intero iter procedimentale svoltosi di fronte alla
Commissione e che potenzialmente minaccia, in maniera indiscriminata, qualsiasi
procedura di accertamento ex art. 82 TCE che si riferisce ad imprese operanti in mercati
afferenti al settore dell’“hi tech”. Non a caso, infatti, le maggiori accuse, rivolte contro
la decisione della Commissione si accentrarono sull’approccio adottato nella fase di
accertamento indiretto della “posizione dominante” – i.e. definizione del mercato e
successiva fase di accertamento del potere di mercato3
.
* Dottorando di ricerca in “Diritto ed Economia” presso la LUISS Guido Carli. LL.M. in
Competition Law and Economics presso l’ Erasmus Universiteit di Rotterdam. E-mail:
gmastrantonio@luiss.it
1
Commissione Europea, Decisione C(2004)900 final, Case COMP/C-3/37.792 Microsoft,
disponibile on-line all’indirizzo http://europa.eu.int/comm/competition/.
2
ANSA, Microsoft: ok a nome proposto da UE per versione Windows, in
http://www.ansa.it/main/notizie/fdg/200503281857193103/200503281857193103.html, 28 marzo 2005.
3
Nonostante, allora, nel presente lavoro ci si soffermi principalmente sulla pratica c.d. di
“technological leveraging”, le considerazioni che verranno svolte, appuntandosi su passaggi logici che si
mostrano comuni all’ accertamento di qualsiasi pratica abusiva in mercati dell’ “hi-tech”, possono valere
anche nell’ analisi riguardante l’ iter seguito per l’ accertamento del secondo comportamento abusivo –
i.e. “technological bundling”. Per un’ analisi critica che si riferisce, in maniera esplicita, anche alla
seconda pratica ritenuta abusiva si veda R. PARDOLESI – A. RENDA, The European Commission’s Case
3
Alla luce, quindi, della recente ordinanza emanata dal Presidente del Tribunale
CE4
lo scorso 22 dicembre 2004 e nell’attesa che giunga la sentenza del Tribunale in
composizione collegiale, ci si chiede se i dubbi posti alla base delle suaccennate critiche
siano ancora attuali e giustificati.
In primo luogo, per quanto concerne la sussistenza del fumus boni juris, il
risultato a cui il Presidente del Tribunale è pervenuto si è dimostrato del tutto scontato,
data la complessità del caso in esame e la natura di accertamento sommario dei
procedimenti d’urgenza. Tuttavia, da tale ovvia constatazione, è dato svelare,
ragionando a contrario sensu, una prima verità. Il Presidente, sostenendo la sussistenza
di tale primo requisito, ha implicitamente avallato e riconosciuto la fondatezza nel
merito del ricorso attualmente pendente. Le argomentazioni addotte dal ricorrente5
,
avverso la decisione della Commissione, non sembrano aver subito alcun effetto
sostanzialmente inficiante in seguito all’emanazione dell’ordinanza. Perciò, gli attacchi
critiche mossi contro la decisione della Commissione appaiono ancora del tutto fondati.
Con riguardo, poi, al secondo requisito – i.e. il periculum in mora - sembra
potersi affermare che l’accertamento della sua sussistenza non abbia, invece, potuto
sortire un risultato positivo proprio a causa del mutamento finale nell’atteggiamento
della Commissione. Ed ecco palesarsi una seconda verità. Attraverso la nuova
formulazione della sanzione – passaggio da una sanzione che comminava l’obbligo di
“disclosure” delle implementazioni ad una riguardante, invece, le sole specificazioni
delle “interfacce” implementate nel proprio sistema operativo6
- la Commissione sembra
essere riuscita ad imporre, de facto, la propria volontà – i.e. favorire l’utilizzo di
architetture “aperte” a discapito delle architetture “semi-aperte”. L’inversione di rotta ha
causato, in definitiva, una riduzione del livello di rischio connesso ad un’eventuale
menomazione della propria decisione in sede di procedimento d’urgenza. Da un lato,
risulta ictu oculi che sarebbe stato estremamente più difficoltoso per il ricorrente fornire
la prova del pericolo “grave” ed “irreparabile” di un obbligo più circoscritto rispetto a
quello avente ad oggetto le sole specificazioni7
. Dall’altro lato, è giusto notare che la
Against Microsoft: Fool Monti Kills Bill?, in http://ssrn.com/abstract=579814 LE Lab Working Paper
No. AT-07-04, 2004
4
Ordinanza del Presidente del Trib. CE, Case T-201/04R, emessa il 22/12/2004.
5
Ibid., para. 98-163.
6
Il processo di produzione di software, nel suo primo stadio, risulta scomponibile in due
successive e ben distinte fasi: la specificazione e l’implementazione. Attraverso la prima il
programmatore delinea quelle che saranno le varie funzioni del proprio software. Ciò avviene
normalmente attraverso la stesura di un “flow-chart” – “foglio di flusso”- dove viene descritto il processo
logico attraverso il quale il programma elaborerà i dati immessi dall’ utente. Mediante, invece, il termine
implementazione si indica la scrittura in forma digitale del “flow chart”. Ciò si realizza attraverso l’
utilizzo di vari linguaggi di programmazione – intelligibili da parte del programmatore- che permettono,
successivamente alla stesura, di compilare il programma così ottenuto in un linguaggio comprensibile
anche per la macchina – i.e. codice binario. In seguito a tale fase, pertanto, il produttore può decidere di
commercializzare il software, ora, soltanto in linguaggio binario, ora, sia in linguaggio macchina che in
linguaggio di programmazione. Dunque, la “disclosure” imposta a Microsoft consiste in un obbligo di
fornire licenze, a condizioni ragionevoli e non discriminatorie, ai propri concorrenti delle sole
specificazioni riguardanti non un intero programma , bensì le sole “interfaccie”. Per ulteriori spiegazioni
tecniche si veda infra para 2.
7
Ordinanza del Presidente del Trib. CE, supra nota 4, para 226-325. Bisogna notare, inoltre, che
il “trade-off”, tra “minore intrusività” e “maggiore durata dell’efficacia medio tempore spiegata dalla
sanzione”, appare decisamente rafforzare il sospetto che la Commissione possa aver agito strategicamente
nel modo descritto. L’apparente minor grado d’intrusività non sembra causare, qualora si tenga in dovuta
considerazione l’elevato utilizzo della strategia di “versioning” nel settore analizzato, una corrispondente
4
Commissione, sapendo che la conclusione di un eventuale e probabile procedimento di
secondo grado avrebbe richiesto un notevole lasso temporale, poteva correttamente
prevedere che, medio tempore, la sanzione imposta avrebbe causato -date le tempistiche
repentine nelle quali il settore dell’ “hi-tech” si sviluppa ed evolve – effetti economici
non più eliminabili ex-post8
.
Dunque, constatato il legittimo sospetto che la Commissione possa agire
strategicamente nel perseguimento dei propri obiettivi di politica concorrenziale e
considerato il duplice ed ambiguo ruolo – di accusa e giudice- che essa geneticamente
svolge, appare lecito, rispondendo affermativamente al precedente quesito, chiedersi se
e quale sia lo strumento più idoneo per proteggere la concorrenza dalla molteplicità
degli obiettivi di cui la politica concorrenziale può farsi carico9
.
Il presente articolo si sviluppa in due parti. La prima fornisce un quadro delle
regole economiche che contraddistinguono il mercato dei c.d. produttori di software,
con particolare enfasi rivolta al mercato dei Sistemi Operativi (SO). La sua funzione
consiste nel delineare un approccio più rispondente alla realtà economica, a cui i
produttori di SO per servers sono inevitabilmente assoggettati. La seconda parte,
facendo tesoro dei risultati raggiunti, analizza sistematicamente l’iter logico seguito
dalla Commissione nell’accertamento della violazione dell’art. 82 TCE. Seguiranno,
infine, le conclusioni.
2. L’ “abc” economico dei “sistemi computerizzati”.
L’appartenenza del SO alla categoria dei “beni di sistema”10
decreta un vistoso
assoggettamento del bene in questione alla c.d. teoria modulare ed alle sue leggi11
. E’
dato constatare, infatti, che qualsiasi SO, come d’altronde ciascun software, non viene
riduzione dell’efficacia coercitiva connessa alla nuova sanzione. Infatti, i produttori di sistemi operativi,
nel momento di riprogettazione dell’architettura del proprio prodotto, focalizzano la propria attenzione
solo sulla versione più avanzata. In un secondo momento – i.e. commercializzazione- potranno poi
semplicemente disabilitare le varie funzioni da quest’ultima implementate ed ottenere così diverse
versioni di livello qualitativo più basso ed utilizzare, pertanto, pratiche di discriminazione di prezzo di
“secondo tipo” al fine di estrarre ulteriore “surplus” dai consumatori. Per maggiori approfondimenti sulle
pratiche di versioning si veda H. R. VARIAN, Versioning in information goods, in
http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 1997. Ergo, l’adempimento da parte di
Microsoft dell’obbligo di “disclosure”, attinente prima facie alle sole specificazioni del sistema operativo
“Windows Workgroup Server Standard Edition”, comporta, di fatto, un sacrificio maggiore rispetto a
quello che sembrerebbe palesarsi – i.e. “disclosure”, anche, delle “interfacce” implementate
inevitabilmente, a causa della suaccennata pratica di “versioning”, nelle versioni superiori.
8
D. L. RUBINFELD, Antitrust Enforcement in Dynamic Network Industries, in 43 Antitrust
Bulletin, 1998, 859 ss.; D. A. BALTO, R. PITOFSKY, Antitrust and High-Technology Industries: The New
Challenge, in 42 Antitrust Bulletin, 1998, 583 ss.,
9
R. H. BORK, The Antitrust Paradox, Basic Books, Inc., 1978, 79.
10
Per maggiori approfondimenti sul tema, con particolare riferimento al settore dell’“hi-tech”, si
veda O. SHY, The economics of network industries, Cambridge University Press, 2001; e C. SHAPIRO,
H.R. VARIAN, Information Rules: A Strategic Guide to the Network Economy, Boston, Harvard Business
School Press, 1999.
11
M. A. SCHILLING, Towards a General Modular Systems Theory & its Application to interfirm
Product Modularity, in 25/2 Accademy of Management Rev., 2000, 312; N. W. HATCH, Design Rules Vol.
1: the power of modularity, in 26/2 Accademy of Management Rev., 2001; H. R. VARIAN, Economics of
Information technologies, in http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 2003, 8 ss; R.
GARUD, A. KUMARASWAMY, R. N. LANGLOIS, Managing in the Modular Age: Architectures, Networks
and Organizations, Oxford, Blackwell, 2002.
5
mai utilizzato da solo. Esso acquista utilità per il consumatore finale, o utente, solo se
utilizzato congiuntamente ad altre componenti o “moduli” - o ancora meglio, volendo
utilizzare un termine economicamente più esatto, “complementors”. In altre parole, esso
diventa un bene in senso economico solo se utilizzato all’interno di un sistema – i.e. la
risultante dell’aggregazione di un numero minimo di “complementors”.
Al riguardo, deve notarsi che il grado di complementarietà fra i vari “moduli”,
lungi dal rappresentare una variabile esogena, si concretizza esclusivamente qualora le
imprese produttrici di uno o più “moduli” scelgano di garantire un livello minimo di
interoperabilità fra i loro rispettivi prodotti12
. Nell’industria dei computers ciò avviene
attraverso l’utilizzo di “moduli interfaccia”. A titolo esemplificativo, questi ultimi ben
possono essere assimilati a dei protocolli di comunicazione utilizzati da “moduli”, di
altro tipo ovviamente, per dialogare tra di loro. Un “sistema computerizzato” basilare –
i.e. “client system”- risulta, quindi, scomponibile nei seguenti “moduli”: hardware, SO,
middleware13
, software applicativo, contenuto, utente.
All’interno di tale schema, il SO è definibile con il termine di “modulo
piattaforma” per il fatto di essere il “componente” che provvede ad implementare i
“moduli interfaccia”. Infatti, come si avrà modo di vedere nei prossimi paragrafi, la
funzione svolta dal SO, rendendo concreto il grado di interoperabilità presente tra i vari
“moduli” e ponendo, quindi, l’utente nella condizione di ritrarre utilità dall’utilizzo del
sistema, permette alle imprese, leader nella produzione di SO, di guidare la domanda di
mercato.
Prima, però, di proseguire nell’analisi delle suddette particolarità, una
brevissima considerazione merita di essere svolta in questa sede preliminare.
E’ dato, infatti, riscontrare che la prospettiva scelta per l’analisi descrittiva di un
“sistema computerizzato”, considerato nel suo complesso o nelle sue singole
componenti, ingenera metamorfiche trasformazioni – i.e. de-frammentazione o
concentrazione- dell’ oggetto stesso dell’ analisi.
Si prenda, ad esempio, lo schema esemplificativo, di cui sopra, quale sistema di
riferimento. Da un lato, qualora la propria analisi si concentri su di un singolo
“modulo”, ad esempio il SO, ed adotti una prospettiva dal basso verso l’alto, ci si
accorgerebbe con stupore che tale componente, classificato ab origine come “modulo”,
è in realtà un sistema in sé - formato da molteplici unità: il codice sorgente o “kernel” e
le varie “interfacce” quali le APIs (Application Program Interfaces), le GUIs
(Graphical User Interfaces), etc. Si assisterà, quindi, ad un processo di de-
frammentazione dell’oggetto analizzato. Dall’altro, invece, qualora l’analisi si concentri
sul sistema di riferimento, considerato nel suo complesso, e adotti una visione dall’alto
verso il basso, si assisterà ad un processo di concentrazione - ingenerato dalla diversa
posizione da cui il sistema di riferimento viene studiato. Ad esempio, il “client system”
potrebbe essere qualificato come “modulo” di un sistema più ampio – i.e. “networked
system”. Tale ultimo sistema, nella sua forma basilare, risulterebbe scomponibile nei
12
A differenza di quanto affermato dalla Commissione, il concetto di interoperabilità implica la
possibilità di graduare il livello di interazione presente tra due “moduli”. N. ECONOMIDES, The Economics
of Networks, in 14/2 International Journal of Industrial Organisation, 1996, 5 ss.
13
Il middleware è un qualsiasi programma che, mostrando “moduli interfaccia” e frapponendosi,
quindi, tra il SO ed i vari programmi applicativi, riesce a neutralizzare la posizione di supremazia del SO.
In altre parole è una sorta di diaframma per mezzo del quale i programmi applicativi, che su di esso
vengono fatti “girare”, possono essere utilizzati indipendentemente dal tipo di SO utilizzato.
6
seguenti “complementors”: servers e clients hardware, SO per servers e clients,
middleware, software applicativo dei clients e dei servers, contenuto, utenti14
.
Tale digressione – che sarà ampliamente sviluppata nella parte riguardante l’
analisi della fase di definizione dei mercati rilevanti- risulta di estrema importanza e
rivela un indubbio monito. La definizione di un “sistema computerizzato”, a causa dell’
elevata modularità che lo contraddistingue, è assoggettata ad un ampio grado di
relatività e, conseguentemente, ad un tanto più elevato rischio di errore, quanto più sia
restrittivo l’approccio classificatorio adoperato.
Perciò, palesandosi sin da ora la necessità di disporre di definizioni che rendano
più agevole l’approccio analitico e volendo limitare il più possibile il suaccennato
rischio di errore, si avverte che nel prosieguo del presente lavoro verranno utilizzati i
termini “client system” e “networked system”: ora, per riferirsi a “sistemi
computerizzati” ideati per essere utilizzati da un solo utente alla volta, ora invece, da più
utenti contemporaneamente.
2.1. Strategie di conquista della posizione di comando sulla “piattaforma”.
Architetture “aperte” e “semi-aperte” a confronto: dove pende l’ago dell’efficienza?
Il SO, in seguito alla “deflagrazione” avvenuta nei primi anni ’80 nel settore
della produzione di hardware, ha acquistato una posizione di supremazia all’interno
della catena del valore dell’industria dei computers15
, diventando il componente
“piattaforma”16
.
Come già è stato brevemente anticipato nel precedente paragrafo, i produttori di
SO – o le libere comunità di sviluppatori- mediante la definizione dell’architettura
implementata dal proprio software, riescono a guidare la domanda e a delineare le
dinamiche competitive del mercato.
Tuttavia, è dato notare che la scelta strategica riguardante il tipo di “architettura”
risulta a sua volta influenzata dalla presenza degli “effetti di rete” e dal modo in cui le
imprese ritengano opportuno innescare e gestire tale fenomeno. La presenza di tali
effetti, pone i produttori dei “moduli” di un “sistema computerizzato” di fronte ad un
palese problema di coordinamento. Essi dovranno garantire la compenetrazione
reciproca dei propri sforzi nella costruzione del sistema per riuscire a soddisfare la
14
Il software applicativo installato sopra alle postazioni servers, a differenza di quello montato
su postazioni clients, può appartenere ad una delle seguenti categorie: DBMS (Database Management
System, Network Management System), firewall software ( nelle reti più complesse tale applicativo viene
fatto “girare” su di un server dedicato, ma altrettanto comune risulta l’utilizzo di firewall hardware
installati all’interno di routers, come ad esempio quelli prodotti da CiscoSystem), Network System
Management, etc. Si veda K. C. MANSFIELD, J.L. ANTONAKOS, An introduction to computer networking,
New Jersey, Prentice Hall, (2002); W. E. B. GARDNER, Windows NT & UNIX: Administration,
Coexistence, Integration and Migration, Addison Wesley Longman Inc., 1998.
15
Per approfondimenti relativi all’evoluzione storica dell’industria dei computers si veda A.
GAWER, M. A. CUSUMANO, Platform Leadership, Harvard Business School Press, 2002.
16
“The fact that Microsoft gives inducement to ISVs to write, easily, application software for its
OS - integrating some functionality developed by them and disclosing needed information to them -
enables the ISVs to save costs and, at the same time, gives to them an incentive to write for its OS. The
latter is a good strategy to “internalise” the “adoption externalities” and, at the same time, might cause
an expansion of the “network effects” therefore enhancing the benefit consumers receive from the
“system goods” N. ECONOMIDES, ‘The Microsoft Antitrust Case’, in 1 Journal of Industry Competition
and Trade, 2001, 20.
7
propria domanda di mercato. Solo attraverso la risoluzione di tale dilemma sarà data
loro la possibilità di sfruttare a pieno gli “effetti di rete”17
.
Questi ultimi possono essere suddivisi in: “diretti” e “indiretti”. I primi sono
detti “diretti”, in quanto tengono in considerazione l’utente quale “modulo” del sistema.
Da ciò la constatazione che il consumatore trae tanta più utilità dall’utilizzo del sistema
quanto più ampia sia la quota di mercato coperta dai suoi sviluppatori – c.d. “installed
base”. I secondi, invece, considerano esclusivamente i rapporti sussistenti tra produttore
del “modulo piattaforma” e produttori di altri “moduli”. Per l’utente, quindi, gli effetti
prodotti da questi rapporti saranno “riflessi” o “indiretti”. Da ciò, quindi, la
considerazione che più ampia sarà l’ “installed base” di un dato sistema, tanto maggiore
sarà, ad esempio, la quantità dei “moduli” per questo sviluppati.
Pertanto, dati questi due effetti, l’utilità che un singolo utente ritrae dall’utilizzo
del sistema può essere rappresentata attraverso l’utilizzo della seguente equazione18
nmiS SSW +=
in cui SW raffigura il prezzo che il consumatore sarebbe disposto a pagare per il
bene sistema, iS rappresenta il valore intrinseco ed nmS il valore di “rete” del bene. In
particolare, le lettere poste al pedice di quest’ultimo valore indicano rispettivamente: il
processo di crescita del sistema causato dagli effetti “diretti” e l’espansione dei
produttori di “moduli” per il sistema dovuta alla presenza degli effetti “indiretti”. Il
prodotto nm denota la compresenza di dette tipologie di effetti - i.e. la presenza del
“circolo virtuoso” di espansione della domanda mercato19
.
I produttori dei “moduli” del sistema saranno, quindi, incentivati ad escogitare
un metodo per riuscire ad innescare entrambi gli effetti di “rete”, contemporaneamente
ed in modo coordinato, al fine di garantire il suaccennato aumento a “catena” della
variabile nmS .
Per l’analisi di tale “dilemma” numerosi approcci sono stati formulati dalla
letteratura economica20
. Nella pratica attuale due strategie appaiono utilizzate: quella
“proprietaria” e quella “aperta”. La loro implementazione rende l’architettura del
sistema, ora, “semi-aperta”, ora, “aperta”21
.
17
J.E. LOPATKA, W.H. PAGE, Network Externalities, in B. Bouckaert, G. Geest (ed.), in 1
Encyclopedia of Law and Economics, 2000, 952 ss.
18
Formula ripresa da R. PARDOLESI, A. RENDA, How safe is the king’s throne? Network
externalities on trial, in A. Cucinotta, R. Pardolesi, R.J. Van den Bergh (ed.), Post-Chicago developments
in Antitrust Law, Cheltenham, 2002, 215.
19
Maggiore sarà il network – o sistema-, tanto più elevato risulterà il prezzo che i consumatori
saranno disposti a pagare per esso. Dunque, tanto più ampia sarà la quantità di applicazioni che verranno
sviluppate.
20
Tale problematica è stata descritta, ora, con il termine di “chicken egg dilemma” – si veda M.
KATZ, C. SHAPIRO, Systems Competition and Network Effects, in 8/2 Journal of Economic Perspectives,
1994, 93-115 – ora, qualificata come un problema causato dalla presenza di esternalità presenti nella fase
di adozione di una nuova tecnologia - si veda M. KATZ, C. SHAPIRO, Technology Adoption in the
Presence of Network Externalities, in 94 Journal of Political Economy ,1986(a), 822 ss.; R. PARDOLESI,
A. RENDA, 2002, 213 ss.; J.E. LOPATKA, W.H. PAGE, 2000, op.cit. 952 ss.; J. CHURCH, N. GANDAL,
Complementary Network Externalities and Technology Adoption, in 11 International Journal of
Industrial Organization, 1993, 239 ss. – ora, studiata come problema di coordinamento tra soggetti
presenti nei c.d. “two-sided market” - si veda D. S. EVANS, The Antitrust Economics of Two-Sided
Markets, in 20 Yale Journal of Regulation, 2003.
21
Inizialmente, almeno sino alla prima metà degli anni ’90, è dato riscontrare anche un terzo tipo
di architettura, comunque scaturiente da una strategia “proprietaria”. Si parla, infatti, di architettura
8
Si è in presenza di un’architettura “semi-aperta” allorquando un’impresa risulti
controllare il componente “piattaforma” – middleware o SO che sia. Tale controllo è
esercitato attraverso due strumenti. Giuridicamente, mediante la titolarità e l’esercizio di
diritti di proprietà sulle “interfacce” – si ipotizzi per semplicità espositiva che esse
consistano solo nelle c.d. APIs- e sul “codice sorgente” del “modulo piattaforma”.
Tecnicamente, mediante l’implementazione di queste in un codice difficilmente
decifrabile da parte degli avversari – i.e. codice binario22
.
L’uso di tale strategia di controllo – parzialmente disintegrato- determina il
passaggio, nella fase di adozione, da uno scenario di competizione “nel” mercato ad uno
di competizione “per” il mercato. In tale situazione l’impresa, che controlla il
componente “piattaforma”, risulta altamente incentivata a svolgere il ruolo di
“intermediario” tra la domanda di mercato ed offerta di “moduli” del sistema. In altre
parole, l’impresa acquista, quindi, il ruolo di sponsor dell’ intero sistema. Pertanto,
quanto più vigoroso risulti il processo di espansione della domanda di mercato, tanto
più questa si prodigherà nel formare coalizioni con imprese produttrici di altri “moduli”
– per semplicità espositiva si considerino gli ISVs (Independent Software Vendors)23
. Si
“completamente chiusa”, allorquando la titolarità del diritto di proprietà investe non solo la “piattaforma”
ma anche tutti gli altri “moduli”. Esempi emblematici di tale tipologia sono stati il “System/360” di IBM
ed il “Macintosh System” di Apple. L’implementazione di questa tipologia di architettura fa sì che nel
mercato si instauri una pura competizione tra i proprietari dei diversi sistemi – i.e. “pure inter-firm
competition”. Anche “Windows” di Microsoft utilizzava tale tipologia di architettura, almeno nelle sue
prime versioni – i.e. Wintel. Tuttavia, successivamente, anche il gigante di Redmond è stato costretto,
dalle forze di mercato, ad aprire il proprio sistema. “When Microsoft faced competition coming from the
Internet – i.e. Sun Java and Netscape – it had to adopt a different strategy. It adopted a more open policy
in such a way to collect more ISVs – Independent Software Vendors. Thus sharing, with a bigger
plethora, information about its APIs and kernel in a way to expand its system – enhancing intra-system
competition”, A. GAWER, M. A. CUSUMANO, 2002, 141, op.cit. Si veda anche T.F. BRESHNAHAN, ‘New
Modes of Competition: Implications for the future structure of the computer industry’, in J. A. Eisenach,
T. M. Lenard (ed.) ‘Competition, Innovation and the Microsoft Monopoly: Antitrust in the Digital
Marketplace’, Kluwer Academic Publishers, 1999, 155 ss.; N. ECONOMIDES, ‘The Microsoft Antitrust
Case’, in 1 Journal of Industry Competition and Trade, 2001, 7-39. Pertanto, l’assunzione restrittiva - da
due ad una sola tipologia di architettura scaturiente dall’implementazione di una strategia “proprietaria”
di controllo della “piattaforma”- dovrebbe apparire quanto mai corretta. Deve inoltre osservarsi che
persino Sun Microsystem, il principale accusatore di Microsoft nel caso in esame, sembra preferire
l’implementazione di un’architettura “semi-aperta”. Pur mostrando apertamente il “codice sorgente” e le
APIs della propria “piattaforma” – i.e. middleware che permette ad altri middleware di agire come
“piattaforme” indipendentemente dal SO utilizzato- ritiene un controllo – i.e. approvazione e
certificazione- sullo sviluppo del proprio software. Da ciò è derivata, infatti, la sanzione imposta a
Microsoft per aver sviluppato, contrariamente a quanto imposto dalla relativa licenza SDK (Software
Developers Kit), una propria versione del “Java Virtual Machine”. R. PARDOLESI, A. RENDA, 2004, nota
44, op.cit.; A. GAWER, M. A. CUSUMANO, 2002, 141, op.cit. e M. LAMLEY, D. MCGOWAN, Could Java
Change everything: The Competition,in 42 Antitrust Bulletin, 1998. 715 ss.
22
Si veda infra nota 61.
23
L’analisi di tali particolari rapporti tra imprese operanti nel settore dell’”hi-tech”, ed in
particolare in quello dei computers, implica l’utilizzo di sofisticati modelli di Teoria dei giochi. Da ciò il
termine co-opetizione. Il concetto chiave nella tipologia di gioco cooperativo è il BATNA (Best
Alternative To Negotiate Agreement) che utilizzato congiuntamente alla regola dello Shapley’s Value
cerca di quantificare gli incentivi delle imprese a rimanere in una determinata coalizione o a romperla, per
formarne altre più convenienti. A. DIXIT, S. SKEATH, Games of Strategy, W.W. Norton & Company, Inc.,
1999. Per un’applicazione di tali concetti si veda N. ECONOMIDES, A. SKRZYPACZ, Standards Coalitions
Formation and Market Structure in Network Industries, in http://raven.stern.byu.edu/networks/, 2003.
9
assisterà, quindi, ad un mix tra la forma di competizione verticale e quella orizzontale24
.
Tuttavia, il grado di competizione verticale – ottenuto mediante l’aggregazione delle
imprese in coalizioni- risulterà essere tanto più forte quanto più “chiuse” si rivelino
essere le architetture implementate. In tal modo l’ impresa sponsor cercherà di ampliare
la “installed base”del “proprio” sistema al fine di raggiungere il livello di “massa
critica”.
Una volta raggiunto tale punto da parte di una coalizione, la forza del “circolo
virtuoso”, innescatosi nel mercato, proietterà il sistema, in cui il produttore del “modulo
piattaforma” riveste una posizione di supremazia, verso la conquista dell’intero mercato.
Dunque, il processo competitivo risulterà localizzato all’interno del “sistema
computerizzato” vincente. Si assisterà all’affermarsi di una tanto più pura forma di
“intra-firm competition”, quanto più il produttore del ”modulo piattaforma” risulti
implementare una forma di architettura “chiusa”.
In tale scenario, quindi, l’impresa sponsor, nella previsione che il “proprio”
sistema risulti vincitore – i.e. possibilità di recuperare gli elevati costi sostenuti nell’
innescare detto “circolo virtuoso”- si mostrerà tanto più incentivata ad investire nello
sviluppo del sistema e a garantire un determinato livello di interoperabilità all’interno
della propria coalizione, quanto più vasto risulti il mercato25
. Ciò avverrà al fine di
promuovere le aspettative dei consumatori. Ad esempio, fornendo loro garanzie, ora,
sulla varietà, sulla quantità26
e qualità – o sicurezza-27
dei programmi applicativi e del
24
M. KATZ, C. SHAPIRO, 1986(a), op.cit.; M. KATZ, C. SHAPIRO, Product Compatibility Choice in
a Market with Technological Progress’, in 38 Oxford Economic Papers, 1986(b), 146 ss.; J. FARRELL, G.
SALONER, Standardization, Compatibility and Innovation, in 16 Rand Journal of Economics, 1985, 70 ss.;
J. FARRELL, G. SALONER, Coordination Through Committees and Markets, in 19/2 Rand Journal of
Economics, 1988, 235 ss.; W. J. CURRAN III, Mystery or Magic: the intriguing interface of antitrust law,
in 42 Antitrust Bulletin, 1998, 775 ss. Si tenga, inoltre, presente quanto detto precedentemente alla nota
21.
25
In un mercato caratterizzato da un elevato grado di co-opetizione –vedi supra nota 23 - la
scelta strategica riguardante il grado di interoperabilità garantita ai propri “alleati-potenziali avversari”,
non potrebbe essere determinata, aprioristicamente, sulla base della sola quota di mercato dell’impresa
produttrice - ad esempio, del SO. Essa dipenderà, infatti, dalla seguente equazione: “your value = your
share × total industry value […] When total industry value depends strongly on the size of the market,
adopting a standard may increase total value so much that it overcomes the possible dilution in market
share”. H. R. VARIAN, 2003, op.cit., 13.
26
Con riguardo alle variabili quantità e varietà dei “complementors” si osservava, già,
precedentemente – supra nota precedente- che qualora il livello della domanda per il sistema “ibrido” o
“semi-aperto” – formato, ad esempio, da un SO proprietario e da “complementors” prodotti da altre
imprese- superi quello della domanda per un sistema ad architettura completamente “chiusa”, il
proprietario del sistema, verticalmente integrato, non sarà incentivato – a parte le considerazioni di ordine
strategico di cui infra- a rifiutarsi di fornire interoperabilità agli ISVs. Sono quindi le forze competitive in
gioco ad influenzare le scelte riguardanti il livello di compatibilità, di varietà e quantità dei “moduli” del
sistema - ad esempio, dei programmi applicativi. Non stupisce, infatti, l’utilizzo, da parte sia di Microsoft
che di Sun, della c.d. “second-sourcing strategy”– i.e. apertura del “proprio” sistema agli ISVs. Tale
strategia, oltre a garantire un più incisivo sfruttamento degli “effetti di rete”, consente loro di rafforzare la
credibilità delle proprie promesse nei confronti dei consumatori, risultando la loro libertà di scelta sul
livello dei prezzi fortemente ridotta , nei successivi periodi di gioco, a causa della presenza degli ISVs. Si
veda J. FARRELL, N. GALLINI, Second-Sourcing as a commitment: Monopoly Incentives to Attract
Competition, in 103 Quartely Journal of Economics, 1988, 673-694; ma anche D.W. CARLTON, J.M.
PERLOFF, Modern Industrial Organisation, Addison-Wesley Longman, Inc., 2000, 112 ss. per un’analisi
del funzionamento del “dominant-fringe” model, di cui il “second sourcing” altro non è che una
specificazione.
27
Economides and Lehr dimostrano che un monopolista integrato risulta fornire un più alto
livello di qualità rispetto a due monopolisti indipendenti. N. ECONOMIDES, W. LEHR, The Quality of
10
sistema nel suo complesso, ora, sul livello della tecnologia adottata28
, sul grado di
portabilità29
, sulla facilità d’uso30
, sul prezzo e sulla quantità31
del sistema globalmente
considerato.
Perciò, concludendo sul punto, l’utilizzo del tipo di strategia “proprietaria”,
implicante una gestione “semi-aperta”, ben potrebbe, in linea teorica, risultare
rispondente all’obiettivo di massimizzazione del benessere dei consumatori.
Si procede, quindi, ad analizzare le caratteristiche presenti nel secondo tipo di
strategia di controllo della “piattaforma”. Questa si contrappone nettamente alla
precedente per il fatto di basarsi su di un’ architettura completamente “aperta”. Ora, il
controllo sulla “piattaforma” viene suddiviso tra tutti i produttori dei “moduli” e
nessuno di loro può vantare alcun diritto di proprietà su di esso. Chiunque può
liberamente accedere e modificare il “codice sorgente” e le “interfacce” della
“piattaforma” –anche qui si considerino, a titolo esemplificativo, le sole APIs- purché
renda la propria variante pubblicamente disponibile. Il potere di controllo dell’
architettura risulta decentrato e l’incentivo a svolgere la funzione di sponsor spezzettato
tra tutti i produttori di “moduli” per il sistema – per semplicità si considerino, anche qui,
solo gli ISVs. Questi si affronteranno in uno scenario di competizione orizzontale pura,
del tutto assimilabile ad una completa possibilità di emulazione reciproca. Attraverso l’
utilizzo di strategie di commercializzazione c.d. a “pacchetto” - comprensive del
modulo “piattaforma” appositamente rielaborato e del proprio prodotto- gli ISVs
otterranno i profitti necessari per stimolare il loro incentivo ad investire risorse nello
sviluppo della “piattaforma” comune32
.
Quindi, rispetto allo scenario precedente, a causa di tale tipologia di
commercializzazione e della relativa riduzione dei costi fissi, si dovrebbe assistere ad un
abbassamento del livello dei prezzi. Tuttavia, come giustamente osservato, tale
Complex Systems and Industry Structure, in W. Lehr (ed.), Quality and Reliability of Telecommunications
Infrastructure, Lawrence Erlbaum, 1995. Tale risultato appare del tutto coerente con le risultanze ottenute
dal Prof. Varian quando afferma che “ […] less transfer of information between teams which are engaged
in building the system, lowering the level of “free riding” to which they are exposed, enhances the quality
of the entire system”. H. R. Varian, Reliability and Free Riding, in
http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 2004. Si veda anche, N. ECONOMIDES,
Competition and Vertical Integration in the Computing Industry, in J.A. Eisenach, Th.M. Lenard (eds.),
Competition, Innovation and the Microsoft Monopoly: Antitrust in the Digital Marketplace, Kluwer
Academic Publishers, 1999, 209 ss. e N. ECONOMIDES, S. C. SALOP, Competition and Integration among
Complements and Network Market Structure, in 40 Journal of Industrial Economics, 1992, 105 ss.
28
S. LIEBOWITZ, S. MARGOLIS, Path dependence, lock-in and history, in
http://wwwpub.utdallas.edu/liebowitz/path.html, 1995.
29
Per approfondimenti sulle strategie volte a risolvere tale “dilemma” - esplorato per la prima
volta nell’articolo di R. COASE, Durability and monopoly, in 15/1 Journal of Law and Economics, 1972,
143 ss. – mediante la c.d. “backward compatibility strategy” si veda H. R. VARIAN, 2003, 25 ss. Si veda,
inoltre, infra nota 39.
30
H. R. VARIAN, Economic Incentives in Software Design, in
http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 1993.
31
Attraverso la risoluzione del problema della “doppia marginalizzazione” si ottiene, infatti, una
conseguente espansione della quantità e riduzione del prezzo. N. ECONOMIDES, 1996, 21 ss. Inoltre, data
la possibilità di effettuare una strategia di discriminazione di prezzo di “primo tipo”, tali effetti
risulteranno ulteriormente amplificati. H. R. VARIAN, Economics of Information technologies, 2003, 13
ss.
32
J. LERNER, J. TIROLE, The simple economics of open source, in http://www.nber.org/papers/
NBER Working Paper no. W7600, 2000.
11
congettura non sembra tenere conto della possibilità che contestualmente si assista ad
un aumento dei prezzi per i servizi IT forniti dagli ISVs.33
Inoltre, è dato notare che il processo di “specializzazione”, attraverso il quale
l’architettura “aperta” sfrutta gli “effetti di rete”, potrebbe mostrarsi rallentato nella
stessa fase iniziale, qualora la conformazione delle preferenze dei consumatori finali
non risulti sufficientemente specializzata. Infatti: “ […] il grado di difficoltà che i
consumatori affrontano nell’assemblaggio dei componenti sarà negativamente correlato
all’aumento del livello di modularità tra le varie imprese produttrici del sistema
computerizzato” 34
. Ciò rappresenta un forte limite, da un lato, alla espansione della
domanda di mercato e, dall’altro, al risultato di massimizzazione del benessere dei
consumatori. Ovviamente, la presenza di detto limite si dimostra inversamente
proporzionale rispetto al grado di “specializzazione” presente nella domanda di
mercato. Pertanto, quanto maggiore risulterà essere quest’ultimo livello, tanto minore
risulterà il suddetto limite.
Dunque, alla luce delle riflessioni fin qui svolte, risulta lecito dubitare riguardo
la correttezza di un approccio che affermi aprioristicamente la superiorità, in termini di
efficienza, di un’architettura “aperta” rispetto ad una “semi-aperta”. Anzi, attraverso la
suesposta comparazione, sembra potersi sostenere l’esatto contrario. Le imprese che
implementano una strategia di controllo “aperta” si mostrano meno incentivate a
svolgere la funzione di “intermediario”35
.
Tuttavia, è dato osservare, che in presenza di particolari condizioni – di cui
infra- l’implementazione di strategie “proprietarie” di controllo della “piattaforma”
potrebbe causare vere e proprie distorsioni del processo concorrenziale.
2.2. Si apre il sipario: i timori della Commissione.
33
R. PARDOLESI, A. RENDA, 2004, 28, op. cit.
34
M.A. SCHILLING, 2000, op. cit., 318.
35
In primo luogo, è dato rilevare che lo scenario totalmente disintegrato, che contraddistingue
una strategia di controllo “aperta”, dovrebbe comportare un relativo innalzamento del livello dei costi di
transazione. Quindi, la sommatoria degli incentivi di ciascun ISV a svolgere la funzione di
“intermediario” dovrebbe risultare inferiore rispetto all’ incentivo dell’ unico sponsor di un’architettura
“semi-aperta”. Inoltre in tale ultimo scenario si assiste, nella fase di adozione, ad una tanto più feroce
competizione “per” il mercato quanto più l’architettura “proprietaria” risulti “chiusa”. Tanto maggiore
risulterà, quindi, il profitto atteso in caso di vittoria. Pertanto, il processo d’innovazione, in tali
circostanze, dovrebbe essere caratterizzato, in modo preponderante, da uno sviluppo a “salti”. Ed in
definitiva, quanto più drastiche sono le innovazioni tanto più difficile dovrebbe risultare, per il vincitore,
l’implementazione di strategie volte ad innalzare barriere protettive. Invece, nell’ipotesi delle architetture
“aperte”, il livello di co-opetizione risulterà inferiore - potendo queste liberamente utilizzare le
innovazioni apportate da altri sulla “piattaforma” ed implementarvi modifiche atte ad aumentare la
“performance” del proprio software applicativo. Il processo di innovazione si svilupperà, quindi, in modo
incrementale. Pertanto, aumentando il lasso temporale - idoneo a realizzare una espansione della domanda
di mercato equivalente a quella che si verificherebbe nel precedente scenario - si dovrebbe assistere ad un
aumento del tasso di sconto praticato sul profitto atteso. Dunque, il volume delle risorse investite in R&S
dovrebbe risultare inferiore rispetto alla situazione precedente –i.e. implementazione di un’ architettura
“chiusa” o “semi-aperta”. D. J. TEECE, M. COLEMAN, The Meaning of Monopoly: Antitrust Analysis in
High-Technology Markets, in 42 Antitrust Bulletin, 1998, 801ss.
12
La presenza di forti “effetti di rete”, dei “learning effects”36
, dei “rendimenti di
scala crescenti” 37
e di una forma di competizione “per” il mercato - nella fase di
adozione - può infatti innescare un vero e proprio “circolo vizioso”, tanto più forte
quanto più la strategia di controllo del SO appaia implementare un’architettura “chiusa”.
Ciò, producendo una perdita di “flessibilità” del mercato, aumenterebbe il rischio di
“cristallizzazione” in equilibri sub-ottimali38
.
In tale scenario la concorrenza potrebbe risultare eliminata attraverso l’utilizzo,
da parte dell’impresa dominante, di diversi comportamenti strategici atti a manipolare
gli “switching costs”: ora, provocando un aumento di quelli afferenti al proprio sistema,
ora, una riduzione di quelli relativi ai sistemi concorrenti39
. In tal modo, erigendo
36
Questi effetti sono dovuti a causa dell’investimento idiosincratico che l’utente deve affrontare
al fine di trarre l’utilità attesa dall’utilizzo di un dato prodotto. Ad esempio, per poter utilizzare un
programma di videoscrittura l’ utente necessiterà di essere in possesso delle conoscenze necessarie sul
funzionamento del SO e del software applicativo. Graficamente, la presenza di tali effetti determina una
rotazione in senso orario della curva di domanda. Pertanto, in una situazione di quasi-monopolio,
mantenendo invariate tutte le altre variabili, si dovrebbe assistere, rispetto ad uno scenario perfettamente
concorrenziale, ad una diminuzione della quantità prodotta ed un aumento del prezzo. Tuttavia, prima di
trarre affrettate conclusioni al riguardo, si dovrebbero tenere presenti due ulteriori considerazioni. In
primo luogo, la maggiore rigidità della domanda di mercato potrebbe comportare un aumento dell’
incentivo, del quasi-monopolista, a fornire il livello di qualità socialmente desiderabile – ottimale- del
prodotto in questione – si veda supra nota 27. Inoltre, in uno scenario caratterizzato dalla presenza degli
“effetti di rete”, l’espansione della domanda di mercato potrebbe ben controbilanciare la riduzione di
benessere di cui sopra. Si veda R. PARDOLESI, A. RENDA, 2002, 213 ss.
37
I “moduli” di un “sistema coputerizzato”, pur essendo assimilabili ai “complementors” che
formano ad esempio una bicicletta, differiscono da questi ultimi per il fatto di essere componenti
immateriali. Il produttore di un componente per biciclette potrebbe dover affrontare, infatti, un aumento
dei costi delle materie prime utilizzate – dovuto, ad esempio, alla loro sopravvenuta scarsità. Invece, il
produttore di un componente per un “sistema computerizzato” non affronterà mai tale scenario, in quanto
la materia prima da lui utilizzata –i.e. bits - non potrà mai esaurirsi. Pertanto, quest’ ultimo, una volta
investite le ingenti somme nel settore della R&S per lo sviluppo del sistema, sopporterà, nella fase di
produzione, un livello di costi marginali quasi pari a zero. La produzione di un ”modulo” del “sistema
computerizzato” sarà, quindi, caratterizzata da rendimenti di scala crescenti. Y. BAKOS, E.
BRYNJOLFFSON, Shared Informaion Goods, in 42 Journal of Law and Economics, 1999, 117 ss.; C.
SHAPIRO, H.R. VARIAN, 1999, op. cit.; D.J. TEECE, Information Sharing, Innovation and Antitrust, in 62
Antitrust Law Journal, 1994, 465 ss.
38
W.B. ARTHUR, Increasing Returns and Path Dependence in the Economy, University of
Michigan Press, 1990.
39
Tali costi rappresentano l’altra faccia della medaglia della presenza dei “learning effects” –
vedi supra nota 36. L’utente, infatti, a seguito dell’investimento idiosincratico nell’ imparare ad
utilizzare, ad esempio il sistema A, deciderà di cambiare e sceglierà il sistema concorrente, ad esempio B,
solo qualora la somma, del prezzo del sistema B e del nuovo investimento che dovrà effettuare per
utilizzare tale sistema, risulti inferiore rispetto alla sommatoria del prezzo che dovrà pagare per
aggiornare il sistema A e l’ammontare investito per usufruire a pieno degli aggiornamenti. Ciò,
ovviamente, a parità di utilità ritraibile dall’utilizzo di entrambi i sistemi A e B. Gli “switching costs”
rappresentano, quindi, il differenziale tra il prezzo del sistema concorrente, sommato ai costi che l’utente
dovrà affrontare per imparare ad utilizzare detto sistema, ed il prezzo affrontato per rimanere fedele al
sistema A. Si noti che, per l’ utente, gli investimenti sopportati per imparare ad utilizzare il sistema A
sono oramai considerati “affondati”.
Nella pratica, le imprese operanti nella produzione di software riescono attraverso l’utilizzo di
differenti pratiche a manipolare i suddetti costi: ora, innalzando quelli afferenti al proprio sistema, ora,
abbassando quelli dei sistemi avversari. Rendendo così, da una parte, più difficoltoso, per i propri utenti,
passare ad utilizzare un sistema antagonista, dall’altra, più facile, per gli utenti dei sistemi concorrenti, il
passaggio al proprio sistema. Ad esempio, il proprietario del de facto standard potrebbe esercitare i
diritti di proprietà, di cui risulta essere titolare, ed utilizzare determinati meccanismi tecnici atti a rendere
più difficile per i concorrenti l’interoperabilità con il proprio componente. Potrebbe implementare
13
vistose barriere all’ entrata, l’impresa potrebbe rendere stabile la posizione conquistata
nel mercato trasferendo il proprio, attuale, vantaggio competitivo anche nelle future
competizioni “per” il mercato.
Questo sembra essere stato l’approccio della Commissione nel caso in esame. In
particolare, Microsoft avrebbe strategicamente diminuito il livello di interoperabilità tra
il proprio SO per servers ed i SO antagonisti – sia quelli per clients sia quelli per
servers. Agli occhi della Commissione, ciò sarebbe avvenuto attraverso l’esercizio
abusivo dei diritti di proprietà vantati su alcune delle “interfaccie” del SO “Windows
Server”- si veda infra.
Ergo, concludendo sul punto, solamente qualora si constati la presenza delle
suaccennate condizioni40
e si riscontri un elevato grado di specializzazione della
domanda nel mercato dei “networked systems”, si potrebbe palesare la necessità di
imporre alle imprese l’adozione di architetture “aperte”, poiché più sicure ed efficienti
rispetto a quelle c.d. “chiuse” o “semi-aperte”.
2.2.1. Considerazioni critiche.
Malgrado la Commissione abbia cercato di dimostrare la presenza di tale
scenario apocalittico, quest’ultimo non appare concretizzarsi appieno nel mercato dei
“networked systems” – a differenza, invece, di quanto avviene in quello dei “client
systems”.
In primo luogo, i c.d. “learning effects” appaiono ridotti dalla presenza dei
sysops. Non è dato riscontrare, infatti, che il consumatore finale debba effettuare alcun
investimento idiosincratico al fine di trarre utilità da un “networked system”. Ciò risulta
un dato di fatto tanto più indiscusso, quanto più si considerino reti di modeste
dimensioni. I consumatori investono risorse per imparare ad utilizzare i software
applicativi installati sui clients, ma non per l’utilizzazione dei SO per servers e dei loro
strategie di vendita c.d. “a pacchetto” o “technological bundling”, oppure, aumentare in via incrementale
le funzioni implementate dal proprio software e scegliere una strategia di “backward compatibility” – i.e.
compatibilità della versione più recente del software con le precedenti, ma non il contrario. Per un’ampia
disamina di tali ed altre pratiche si veda S. M. BESEN, J. FARRELL, Choosing How to Compete: Strategies
and Tactics in Standardization, in 8/2 Journal of Economic Perspectives, 1994, 117 ss.; F. DENOZZA,
Raising consumers’s costs as an antitrust problem: a sketch of the argument from Kodak to Microsoft
(the European proceedings), in A. Cucinotta, R. Pardolesi, R. J. Van den Bergh (eds.), Post-Chicago
developments in Antitrust Law, Cheltenham, 2002; S. C. SALOP, New Economic Theories of
Anticompetitive Exclusion, in 56 Antitrust Law Journal, 1987, 57 ss.; S. C. SALOP, T. G. KRATTENMAKER,
Appendix A: Analyzing Anticompetitive Exclusion, in 56 Antitrust Law Journal, 1987, 71 ss.; P.
KLEMPTER, J. FARRELL, Coordination and Lock-In: Competition with Switching Costs and Network
Effects, in http://www.paulklempter.org, 2001; J. FARREL, C. SHAPIRO, Dynamic Competition with
switching costs, The RAND Journal of Economics, Spring, 1998, Vol.19, No. 1, 123 ss.; C. SHAPIRO, H.
R. VARIAN, 1999, op. cit.
40
Infatti, linea teorica, qualora si riscontri la presenza di un monopolio Schumpteriano e delle
suaccennate condizioni, è dato riscontrare un elevato incentivo in capo all’impresa dominante ad
implementare le suddette tipologie di comportamenti strategici volti ad innalzare i costi dei rivali – supra
nota precedente. Ciò è essenzialmente dovuto alla constatazione che i costi supportati dalla impresa
dominante si possano rivelare, con alta probabilità, inferiori rispetto all’aumento dei profitti ottenibili
qualora l’entrata del concorrente venga di fatto impedita. Ad esempio, in quanto all’impresa venga
imposto, qualora voglia entrare, di farlo contemporaneamente in tutti i mercati che formano la catena del
valore. R. A. POSNER, Antitrust in the New Economy, in http://papers.ssrn.com/, John M. Olin Law &
Economics Working Paper No. 106, 2000.
14
software applicativi di gestione e manutenzione della rete. A tal fine preferiranno
avvalersi di esperti della materia. Graficamente, non si assisterà, quindi, ad alcuna
rotazione della domanda di mercato e, di conseguenza, ad un suo irrigidimento.
Inoltre, è dato derivare, da tale ultima constatazione, un importante ulteriore
corollario. Il fatto che gli utenti finali non utilizzino le postazioni servers come
“piattaforme”, ad esempio per l’uso di programmi applicativi, comporta una implicita
riconsiderazione restrittiva della forza degli “effetti di rete” presenti nel mercato preso
in considerazione.
Infine, per quanto concerne le reti di medio-grandi dimensioni, è possibile
rinvenire, nella loro struttura, un elevato grado di eterogeneità. Si assiste, nella realtà del
settore, alla contemporanea presenza, all’ interno dei “networked systems”, di “moduli”
sviluppati da differenti produttori. La domanda di mercato per tali “complementors” si
mostra caratterizzata da un elevato grado di specializzazione. Da un lato, quindi, le
imprese produttrici saranno maggiormente incentivate ad investire risorse al fine di
ottenere soluzioni in grado di garantire un maggiore livello di interoperabilità41
tra i
propri prodotti – “moduli” per “client” o “networked systems” - ed il sistema che è
riuscito ad imporre il proprio de facto standard. Dall’altro, l’impresa sponsor del
sistema sarà incentivata a garantire un più elevato livello di interoperabilità quanto più
la domanda per il sistema “ibrido” risulti maggiore di quella per il sistema “chiuso”42
.
Con ciò ovviamente, non si vuol certo dire che bisognerebbe escludere
completamente la possibilità che Microsoft abbia potuto intraprendere il comportamento
strategico, di cui al precedente paragrafo, al fine di “cristallizzare” il proprio vantaggio
competitivo nel mercato dei “client systems”. Tuttavia, in seguito a tali ultime
considerazioni, la probabilità, che attraverso detta strategia Microsoft sia riuscita ad
imporre la propria tecnologia anche nel mercato dei “networked systems”, dovrebbe
essere ridimensionata. Come si avrà modo di dimostrare nel prosieguo, la Commissione
non avrebbe dovuto, per le suddette ragioni, ritenere “per se” elevato il pericolo di
“cristallizzazione” nel mercato dei “networked systems”.
3. La decisione della Commissione: la teoria dell’ “effetto leva” nell’Era dei
“networked systems”.
Teoricamente, per la realizzazione di una strategia c.d. di “ technological
leveraging”, si necessita di provare l’esistenza di tre elementi. In primis, devono essere
individuati ben due distinti, ma strettamente collegati, mercati rilevanti: quello in cui il
potere di mercato è già presente – c.d. “tying market”- e quello in cui tale potere viene
ad essere proiettato – c.d. “tied market”. In secondo luogo, deve essere accertato che
l’impresa risulti dominante nel primo e nel secondo mercato – ciò, ovviamente, a causa
del comportamento abusivo posto in essere. Infine, dovrà essere fornita la prova della
idoneità dello strumento utilizzato dall’ impresa come “leva”.
3.1. La definizione del mercato rilevante nel metamorfico settore dell’ “hi-tech”: il
mercato dei SO per "workgroup server”?
41
Si veda infra nota 61.
42
Si veda supra nota 25.
15
Nulla quaestio sulla individuazione del “tying market”. Il mercato dei SO per
clients appare, di fatto, costituire un mercato indipendente. Tale definizione si mostra
del tutto coerente con l’approccio finora utilizzato, risultando coincidere con il mercato
dei “client systems” – supra para. 2.1- è dato distinguere tra “moduli” software e
“modulo piattaforma”.
Tuttavia, lo stesso non può essere detto con riguardo alla definizione, operata
dalla Commissione, del “tied market”. Numerosi dubbi sorgono, infatti, circa la
possibilità d’individuare il mercato dei SO per “workgroup server” come distinto ed
indipendente rispetto al più ampio mercato dei SO per “networked system”.
In primo luogo, infatti, la Commissione non sembra aver tenuto nella dovuta
considerazione l’elevato grado di modularità presente nell’industria dei computers e le
connesse difficoltà che si presentano nel corso della fase di individuazione dei mercati
rilevanti.
Il punto di partenza del consueto SSNIP test43
sembra, infatti, essere stato
ristretto in maniera artificiosa. La definizione del “proxy” di mercato rilevante – i.e.
definizione approssimativa che costituisce il punto di partenza del suaccennato test- è
apparsa ab initio coincidente con quella del mercato dei SO per “workgroup servers” 44
.
La Commissione, dopo aver definito quale “proxy” il mercato dei SO per servers, è
giunta, sulla base di criteri assai discutibili - quali l’ “uso inteso” da parte dei
consumatori finali 45
e le caratteristiche fisiche del bene di sistema 46
- ad operare un suo
restringimento, definendo, quindi, il mercato rilevante come il mercato dei SO per
“workgroup servers”. Secondo tale visione, i SO per “workgroup servers”
svolgerebbero esclusivamente funzioni di “clustering” – i.e. atte ad aumentare la
“scalabilità del sistema- mentre, ai SO ideati per “hi-level server” competerebbero
esclusivamente le c.d. “missioni critiche”.
Tale approccio risulta assai discutibile. La Commissione, una volta individuato
il “proxy” nel mercato dei SO per servers, avrebbe dovuto procedere ad un suo
restringimento solamente sulla base delle risultanze dello SSNIP test .
Infatti, contrariamente a quanto aprioristicamente affermato dalla Commissione,
la funzione di “clustering”47
non sembra essere circoscritta al solo mercato rilevante
come da questa definito. Tale funzione, contraddistingue ogni sistema operativo
sviluppato per postazioni server. E’ questa mansione che permette al SO di rendere
“scalabile” il “networked system” – i.e. aumento esponenziale della potenza di calcolo
43
(Small but Significant Increase in Price).
44
A. C. HRUSKA, A Broad Market Approach to Antitrust Product Market Definition in
Innovative Industries, in 102 Yale Law Journal, 1992, 305 ss.
45
Commissione Europea, Decisione C(2004)900 final, supra nota 1, para. 345.
46
Sulla inopportunità di criteri, quali l’ “uso inteso” e le caratteristiche fisiche del bene, si veda
R. J. VAN DEN BERGH, CAMESASCA P.D., European Competition Law and Economics, Interesentia, 2001,
97-117.
47
“A computer cluster is simply a group of otherwise independent systems operating as a single,
locigal unit. Client systems function as if they were part of a single server. Clustering promises to reduce
downtime and to expand system power. The utilisation of clustering servers takes two basic forms:
scalability and redundancy and accessibility. The first means that clusters allows system to share
incremental additions of memory, CPUs, and storage devices. The sharing of resources permits the
cluster to grow in relative power. Conceptually, when a cluster is overloaded, other servers can be
added. “Redundancy and accessibility” means that the cluster also provides fail over support in the event
of computer failures - as it is for the RAID function for hard disks”. W. E. B. GARDNER, 1998, 302 e 310-
12, op.cit.
16
dell’intera rete causato dallo sfruttamento decentrato e razionalizzato delle prestazioni
delle varie postazioni.
Inoltre, la Commissione non avrebbe dovuto considerare le c.d. “missioni
critiche” – i.e. “firewall”, “redundancy” o “database management”- come indipendenti
dalla funzionalità di “clustering”. Pertanto non avrebbe dovuto utilizzarle al fine di
delineare una sorta di spartiacque tra il mercato dei SO per servers di “alto” e “basso”
livello. Tale ultima distinzione, mutuata dal settore dei produttori di hardware, mal si
presta ad essere trasposta, sic et simpliciter, nel settore dei produttori di SO. A meno
che, ovviamente, non si voglia ingenerare una pericolosa ed artificiale commistione tra i
due livelli della filiera, che dovrebbero, invece, rimanere ben distinti48
. Le c.d. “missioni
critiche” dovrebbero riferirsi, pertanto, solo al tipo di hardware piuttosto che al tipo di
SO utilizzato. Perciò, contrariamente all’approccio seguito dalla Commissione, non
dovrebbe essere consentito di inferire dalla pratica di commercializzazione c.d. a
“pacchetto” – i.e. SO e hardware- che il SO , ivi inserito, debba essere utilizzato
esclusivamente per permettere alla postazione server di svolgere le c.d. “missioni
critiche”49
.
L’Autorità avrebbe dovuto utilizzare lo SSNIP test, al fine di accertare la
correttezza delle proprie intuizioni. Avrebbe potuto ipotizzare, infatti, il verificarsi di un
aumento di prezzo del SO “Windows 2003 server - standard edition” - ad esempio del
5-10%- e vedere se si sarebbe ottenuto un sufficiente grado di sostituibilità con un altro
prodotto. Ad esempio, con il SO Linux. Tale effetto di sostituzione si sarebbe potuto
riscontrare, sia, dal lato della domanda di mercato, sia, dal lato dell’offerta. Considerato,
infatti, l’utilizzo della c.d. strategia di “versioning”50
, l’effetto si sarebbe potuto
verificare anche su quest’ultimo fronte. Vieppiù, date le brevi tempistiche necessarie per
l’implementazione di tale pratica, la Commissione avrebbe potuto – e dovuto-
considerare l’impatto di tale fenomeno nella stessa fase di definizione del mercato
rilevante. Ad esempio, con il SO di Sun. E’ vero che tale software viene appositamente
elaborato per essere utilizzato su di una postazione server con una potenza di calcolo
molto elevata. Tuttavia, dato l’aumento di prezzo, Sun sarebbe potuta risultare
sufficientemente incentivata a disabilitare alcune delle funzioni del proprio SO – ad
esempio “Sun One” – al fine di entrare nel mercato servito dalla suaccennata versione
del SO Microsoft.
La Commissione, inoltre, avrebbe potuto utilizzare una versione più raffinata del
precedente strumento, al fine di strutturare una sorta di “prova del nove” circa la
correttezza delle proprie risultanze. Lo SSNIPP 51
, forma più estesa del precedente test,
dimostra, infatti, di tenere in maggiore considerazione l’elevato utilizzo dei diritti di
proprietà intellettuale ed il notevole grado di fluidità che contraddistinguono il settore
considerato. Con tale metodo, assumendo costante il livello di prezzo, si sarebbero
potuti analizzare gli effetti competitivi causati da una ipotetica variazione del livello di
“performance” del SO in un orizzonte temporale di 3-4 anni. Si tenga presente che tale
lasso temporale risulta un’approssimazione conservativa del tempo necessario affinché,
48
Commissione Europea, Decisione C(2004)900 final, supra nota 45, paras. 346, 364.
49
Tale strategia di commercializzazione - utilizzata da imprese come HP, IBM e Sun
Microsystem- sembra aver giocato un ruolo fuorviante nell’analisi della Commissione. Ibid. para. 359 e
ss. Per un’ appronfondita disamina relativa alle strategie di commercializzazione invalse nel settore si
veda H. R. VARIAN, 2003, 13 ss. op. cit.
50
Si veda supra nota 7.
51
(Small but Significant Increase in Price and Performance). Si veda D. J. TEECE, M. COLEMAN,
1998, 801 ss., op. cit.
17
dall’introduzione nel mercato della c.d. versione “beta”, l’impresa possa sviluppare e
mettere a disposizione pubblicamente una versione più evoluta della precedente. Si
prenda ad esempio, il passaggio verificatosi dal SO “Windows NT” all’odierno
“Windows 2000”. Si sarebbe potuto, pertanto, procedere nel modo seguente. La
Commissione avrebbe dovuto, innanzitutto, prendere quale parametro di riferimento del
livello di “performance” la funzionalità di “clustering” o “scalabilità” – consistente
nella variazione del numero di clients controllati da un unico SO per server. Quindi,
avrebbe dovuto ipotizzare il verificarsi di un aumento di “scalabilità” del SO “Windows
2003 server” – ad esempio del 25%- mantenendo invariato il prezzo dello stesso. Infine,
avrebbe dovuto accertare la presenza o meno dell’effetto di sostituzione, ad esempio,
con il SO Linux o Unix - in tutte le loro molteplici “fragranze”. Infine, solo sulla base
dei risultati così ottenuti, avrebbe potuto procedere rispettivamente ad un allargamento o
restringimento della propria definizione del mercato rilevante 52
.
Purtroppo, la Commissione, preferendo l’utilizzo dei suaccennati opinabili
criteri, non ha neanche considerato la possibilità di utilizzare lo SSNIPP test 53
. Tale
scelta avrebbe potuto fondarsi su di un’appropriata giustificazione – almeno
apparentemente. Ad esempio, qualora fosse stata basata sulla constatazione che,
altrimenti, l’analisi svolta avrebbe rischiato di incorrere nella c.d. “cellophane
fallacy”54
. Tuttavia, in primo luogo, è dato notare che tale giustificazione non potrebbe
essere neanche ipotizzata come implicitamente sottesa al ragionamento svolto dalla
Commissione sul punto. Qualora, infatti, ciò venisse per assurdo supposto, l’iter logico
seguito dalla Commissione sarebbe stato tacciato, in maniera incontrovertibile, di
manifesta illogicità. Da un lato, la Commissione avrebbe fatto uso – come in realtà è
avvenuto55
- del semplice SSNIP test, il quale non risulta, comunque, immune dal
suddetto pericolo. Dall’altro, invece, avrebbe giustificato il mancato utilizzo di uno
strumento più evoluto asserendo che i risultati del test avrebbero potuto essere distorti?
Inoltre, anche se la Commissione avesse adotto esplicitamente una tale
argomentazione e coerentemente non avesse fatto alcun uso del test nemmeno nella sua
forma più semplice, si sarebbe potuto, ciononostante, controargomentare nel modo
seguente. Bisogna notare, infatti, che Microsoft risultava – come risulta tuttora- essere
l’impresa entrate nel mercato dei SO per servers. Da ciò, quindi, il rilievo che i risultati
ottenuti attraverso l’utilizzo dello SSNIPP test non sarebbero stati falsati, potendosi
correttamente assumere che il prezzo, praticato dall’impresa, fosse il più possibile
vicino a quello competitivo - se non addirittura sottocosto.
52
All’ uopo dovrebbero essere utilizzati dei moduli o questionari con domande ben strutturate.
53
A. C. HRUSKA, 1992, 305 ss., op. cit.; C. ALBORN, D. EVANS, A.J. PADILLA, Competition
Policy in the New Economy: Is European Competition Law Up to the Challenge?, in 22 European
Competition Law Review, 2001, 156 ss.
54
Stante, infatti, la prospettiva analitica ex-post, l’ applicazione del disposto dell’ art. 82 TCE
presuppone inevitabilmente che l’impresa abbia già acquistato un certo livello di potere di mercato.
Pertanto, l’analisi svolta dalla Commissione avrebbe potuto prendere, quale “benchmark” del prezzo
competitivo, il prezzo prevalente nel mercato, che lungi dal risultare competitivo sarebbe stato, invece,
monopolistico o quasi. S. C. SALOP, The first principles approach to antitrust, Kodak, and antitrust at the
millennium, in 68 Antitrust Law Journal, 2000, 187.
55
Decisione C(2004)900 final, supra paras. 334, 338, 395. Tuttavia, lo SSNIP test è stato
utilizzato solo nell’accertamento della sostituibilità dell’ offerta nella fase II – i.e. di accertamento del
potere di mercato.
18
3.1.1. La posizione dominante e le barriere tecnologiche all’entrata.
Dalle considerazioni sin qui svolte appare con tutta evidenza che l’accertamento
della posizione dominante sul “tied maket” è stato reso tanto più semplice, quanto più la
Commissione è riuscita a far coincidere la definizione del mercato stesso con la
versione “base” del SO per servers prodotto da Microsoft. Tuttavia, tale artificiosa
restrizione, da sola, non sarebbe stata sufficiente per concludere positivamente un
accertamento della posizione dominate. Infatti, l’ iter stabilito dalla Commissione, nella
Comunicazione del ’97 sulla definizione del mercato rilevante, impone a tal fine di
tenere in considerazione anche il livello di concorrenza potenziale - attraverso
l’accertamento, dal lato dell’offerta, della sostituibilità del prodotto e la presenza di
barriere all’ingresso.
L’accertamento della “posizione dominante” viene normalmente condotto
attraverso l’utilizzo della quota di mercato, dell’impresa accusata, quale “proxy” del
relativo potere di mercato. Ora, a parte l’ovvia constatazione che tale metodo di
misurazione appare assai discutibile specialmente nel settore dell’ “hi-tech”56
, è dato
constatare, come autorevolmente asserito, che nel caso in questione tale metodo sia stato
ostentatamente strutturato al fine di ottenere un accertamento della posizione di
dominanza detenuta da Microsoft nel mercato dei SO per “workgroup servers”57
.
Inoltre, passando all’ accertamento riguardante il livello di contestabilità di tale
mercato, la Commissione ha sì provveduto ad indicare il fattore che avrebbe potuto
rappresentare una barriera all’ingresso, tuttavia non ha successivamente fornito alcuna
quantificazione al riguardo. Mediante, infatti, un approccio, che consideri lo stretto
legame sussistente tra il mercato dei SO per clients e quello per servers, è dato
qualificare il primo come mercato “primario” ed il secondo come mercato “secondario”.
E’ in sostanza il primo mercato, attraverso i programmi applicativi, a guidare la
domanda anche nel mercato “secondario”. Giustamente, quindi, sarebbe possibile
individuare le barriere all’ingresso del mercato “secondario” nel mercato “primario”, o
ancora meglio nel mercato dei programmi applicativi. Ciononostante, tali barriere
dovrebbero essere successivamente quantificate. Solo in tale modo sarebbe possibile
acclarare se vi sia o meno un livello sufficiente di concorrenza potenziale tale da
limitare l’agire indiscriminato di Microsoft nel mercato “secondario”.
Le barriere all’entrata dovrebbero consistere nella differenza asimmetrica tra i
costi supportati dall’impresa già presente nel mercato - ed ora completamente
“affondati”- ed i costi nei quali l’ impresa entrante dovrà incorrere. I costi fissi, anche se
soggettivamente elevati, non costituiscono di per sé una barriera. Ciò è tanto più vero,
56
C. ALBORN, D. EVANS, A. J. PADILLA, 2001, 156 ss., op. cit.; W. A. SHEREMATA, New Issues
in Competition Policy Raised by Information Technology Markets, in 43 Antitrust Bulletin, 1998, 547 ss.,
D.J. TEECE, M. COLEMAN, 1998, 801ss., op. cit.; D.L. RUBINFELD, 1998, 859 ss., op. cit; D. A. BALTO, R.
PITOFSKY, 1998, 583 ss., op. cit.
57
R. PARDOLESI, A. RENDA, 2004, 42 ss., op. cit. Gli A. mostrano, infatti, come l’Autorità abbia
utilizzato in modo “invertito” i parametri mediante i quali calcolare le quote di mercato detenute da
Microsoft nel mercato dei SO per “clients” ed in quello per “workgroup servers”. Per il primo è stato
utilizzato un calcolo delle quote basato sul valore. Per il secondo, invece, un metodo basato sulle unità.
Infine, deve notarsi che la Commissione, recependo le critiche mosse da Microsoft su tale modo di
procedere, ha sì provveduto a cambiare il metodo di calcolo utilizzato, ma solo limitatamente al mercato
dei SO per clients – mercato nel quale la posizione di dominanza di Microsoft risulta ampliamente
accertata. Rimane, quindi, del tutto opinabile l’accertamento della posizione dominante dell’ impresa nel
secondo dei suaccennati mercati.
19
qualora si tenga nella dovuta considerazione, sia, l’ampiezza del mercato in questione,
sia, i considerevoli profitti attesi dalle imprese che competono “per” il mercato.
Tuttavia, la constatazione che la Commissione non abbia neanche tentato di
abbozzare una tale quantificazione inevitabilmente mortifica la correttezza del proprio
approccio, inficiandone i risultati ottenuti.
3.2. La condotta abusiva o l’abuso del concetto di “super-dominance”?
Nella disciplina antitrust comunitaria il limite della posizione “dominante” lungi
dall’essere un mero prerequisito sostanziale dell’abuso – come accade per la disciplina
statunitense- svolge una funzione particolare. Il superamento di detto limite comporta,
infatti, il sorgere in capo all’impresa di una particolare responsabilità.
La Commissione dovrà, comunque, fornire una prova dell’abuso – i.e. capacità
dell’ impresa, data la sua posizione, di comportarsi in maniera indipendente dai propri
concorrenti attuali e potenziali. Ed in mercati, come quelli qui analizzati, caratterizzati
da forme oligopolistiche di concorrenza e da un elevato grado di co-opetizione, sarà
inoltre tenuta a corroborare tali prove mediante l’utilizzo di argomentazioni e modelli
economici. Una volta raggiunto il “livello minimo” di prova si assisterà al sorgere di
una presunzione juris tantum di abuso e ad una, consequenziale, inversione dell’onere
probatorio in capo all’impresa accusata. Quest’ultima, quindi, per vincere la
presunzione, dovrà fornire la c.d. probatio diabolica – i.e. prova delle “ragioni
oggettive” dell’effetto pro-concorrenziale della pratica.
In linea teorica, quindi, quanto più l’impresa risulti essere dominante tanto più
stringente risulterà la propria responsabilità e tanto minore dovrà essere il “livello
minimo” della prova fornito dalla Commissione.
Si è già avuto modo di sintetizzare, all’inizio del presente paragrafo, i requisiti di
cui un’impresa necessita al fine di implementare una strategia di “technological
leveraging”. Pertanto, tenendo a mente le considerazioni già svolte con riguardo ai
primi due requisiti e tale suaccennato rapporto tra accertamento della posizione di
dominanza e livello minimo della prova del comportamento abusivo, si procede, ora, a
svolgere l’esame circa la sussistenza del terzo requisito - i.e. idoneità dello strumento
“leva” a realizzare il proprio fine.
Al riguardo, la Commissione ha affermato che lo strumento “leva”, utilizzato da
Microsoft per proiettare il proprio potere di mercato anche nel mercato dei SO per
“workgroup servers”, sia consistito nel rifiuto di fornire informazioni riguardanti le
APIs, il Kerberos58
, l’Active Directory59
e le CALs60
implementate nel proprio SO per
servers. Ciò sarebbe avvenuto, sia, attraverso l’esercizio dei propri diritti vantati su tali
componenti, sia, mediante procedure tecnico-informatiche –i.e. diretta implementazione
del SO in codice binario. Tale comportamento, secondo la Commissione, eliminando
ogni possibilità d’interoperabilità con i SO clients e servers delle imprese concorrenti,
58
Il Kerberos è un protocollo di sicurezza implementato nelle versioni successive all’avvento di
Windows 2000. K. C. MANSFIELD, J.L. ANTONAKOS, 2002, op. cit.
59
L’ Active Directory altro non è che uno dei componenti principali di tutte le diverse edizioni di
SO successive all’avvento di Windows 2000. Il suo principale scopo è quello di gestire in maniera
ottimizzata le funzioni di “clustering” – i.e. file-sharing, file-printing, etc. Si veda
http://www.microsoft.com/italy/windows2000/technologies/directory/activedirectory.asp
60
(Clients Access Licences).
20
avrebbe permesso a Microsoft di eliminare le pressioni concorrenziali da quest’ultime
esercitate.
Come si è avuto modo di notare – vedi para. 2.2- non è possibile procedere ad
una aprioristica esclusione della possibilità che la suddetta strategia possa essere stata
adottata con successo. Tuttavia, alcune considerazioni critiche meritano di essere svolte.
In primo luogo – si veda para. 2.2.1- il pericolo di “cristallizzazione” della
posizione di Microsoft anche nel mercato dei SO per servers appare improbabile. Il
“tied market”, infatti, non sembra essere caratterizzato da elevati “switching costs”, né
da elevati “effetti di rete” e la relativa domanda di mercato appare alquanto
specializzata.
In secondo luogo, il concetto d’interoperabilità, utilizzato dalla Commissione,
appare avulso dal contesto economico presente nel settore oggetto d’ indagine. Vi sono,
infatti, varie gradazioni di interoperabilità e vari modi per ottenerla – unilateralmente o
bilateralmente61
. La Commissione non sembra aver dato il dovuto peso a tali
considerazioni, né alla constatazione che l’implementazione di architetture “semi-
aperte” implica, di per sé, la presenza di un determinato livello di interoperabilità62
.
Essa, propendendo per una accezione più flessibile del termine, avrebbe dovuto
accertare se detto livello di interoperabilità, garantito da Microsoft ai SO non nativi,
fosse qualificabile come razionale anche qualora non avesse provocato l’uscita dal
mercato di imprese concorrenti63
. Non solo. La Commissione avrebbe, anche, potuto
propendere per l’utilizzo di un diverso approccio. Volto, ad esempio, a dimostrare che l’
implementazione dell’Active Directory, del Kerberos64
e delle CALs fosse
strumentalizzata al fine di manipolare le aspettative dei consumatori finali nel corso
della fase di adozione della nuova tecnologia nel mercato dei servers. Ad esempio,
peggiorando il livello di “performance” di altri sistemi operativi servers o clients all’
interno del proprio “networked system”. Tale modo di agire avrebbe potuto, in effetti,
intaccare profondamente e rovinare la reputazione dei propri concorrenti attuali o
potenziali agli occhi dei consumatori finali, permettendo, in definitiva, a Microsoft di
imporre la propria tecnologia, anche, all’interno del “tied market”.
Purtroppo, la Commissione non ha fornito alcuna delle su richiamate “prove”
economiche. Ciononostante, è riuscita ad imporre la propria decisione. Attraverso,
infatti, l’accertamento della posizione di “super dominance” 65
nel mercato dei SO per
61
“ […] by reverse-engineering, by porting the protocol into the system which is not provided
with it or by the use of simulators or adapters [...]Examples of NFS third party porting are for example
Intergraph’ AccessNFS or Hummingbird’s Maestro […]”. W. E. B. GARDNER, 1998, 312, op. cit. Per
alcuni esempi di come garantire accesso ed interoperabilità tra il SO Windows server e Linux si veda D.
ELSON, Active directory and Linux, in http://online.securityfocus.com/infocus, 2002.
62
Si veda supra nota 25.
63
M. MOTTA, Competition policy: theory and practice, Cambridge University Press, (2004), 483
ss.
64
R. M. HENDERSON, Declaration presented at the remedy hearing hold by Judge Kollar-
Kotelly, in www.usdoj.gov/atr/, Apr. 28 2000.
65
Il concetto di “super dominance” venne utilizzato, per la prima volta, in due casi emblematici.
Precisamente in AKZO Chemie BV v. Commission e in Tetra PakII. In entrambi i casi la Corte asserì che
la prova del “recupero” delle perdite supportate per implementare la strategia ritenuta abusiva non
dovesse essere fornita. Con riferimento alla pratica di “prezzi predatori” si veda il Caso C-62/86, AKZO
Chemie BV v. Commission, C.M.L.R., (1993), Vol. 5, p. 215. Con riguardo, invece, ad un caso di abuso
mediante la strategia dell’ “effetto leva” si veda il Caso T-83/91, Tetra Pak International SA v.
Commission, C.M.L.R., (1997), Vol. 4, p. 726, paras. 109-110, e Caso C-333/94P, Tetra Pack
International SA v. Commission, C.M.L.R., (1997), Vol. 4, 662.
21
clients e la assai discutibile restrizione del mercato dei SO per servers è riuscita a
ridurre oltre il minimo il livello dello “standard di prova” ed a conseguire l’inversione
dell’onere probatorio.
4. Conclusioni.
La facoltà di utilizzare il concetto di “super dominance” ha conferito alla
Commissione maggiori spazi di discrezionalità decisionale. L’ampliamento di tale
potere ha determinato un vistoso aumento del rischio connesso all’imposizione di
“scelte”, contenenti errori di tipo “falso-positivo”, che purtroppo, lungi dal risultare
circoscritto al singolo caso in esame, fatalmente si è esteso, in tempi rapidissimi, ad un’
intero settore economico. Infatti lo scenario frenetico ed instabile, in cui operano i
produttori dei “moduli piattaforma” per i “networked systems”, rappresenta il cuore
pulsante di tutta l’industria dell’ “hi-tech”.
Pertanto, alla luce delle considerazioni svolte dal Presidente del Tribunale CE
nell’acclarare la sussistenza del fumus boni juris - i cui punti salienti sono stati
ricostruiti e sviluppati cercando di palesare le numerose macchie d’ombra che oscurano
l’intelaiatura logico-argomentativa della decisione – risulta di estrema importanza,
qualora non si voglia menomare il principio di certezza del diritto, che venga dichiarata,
nel minor tempo possibile, l’illegittimità di tale provvedimento a causa del mancato
raggiungimento del livello “minimo di prova”66
. Questo risulta, l’arduo compito che il
Tribunale CE è chiamato a svolgere, ora che il caso risulta davanti a sé pendente.
Solo liberando la disciplina antitrust dalle catene dell’immaginifico –che, nel
presente caso, traslando la figura del mitologico mostro Idra sul gigante Microsoft,
vorrebbe giustificare agli occhi dei consumatori i tentativi che vengono sferrati con
l’obiettivo di abbatterlo- ed ancorandola ad una solida base di analisi economica si
garantirebbe una sua maggiore rispondenza al principio di certezza del diritto ed un suo
più effettivo allineamento con il solo obiettivo che da essa dovrebbe essere perseguito –
i.e. la massimizzazione del benessere dei consumatori.
66
Il requisito del livello “ minimo di prova” dovrebbe essere ritenuto indispensabile, e quindi non
manipolabile, qualora si voglia garantire, con un efficiente livello di probabilità, che lo svolgimento di un
processo antitrust risulti soprattutto “giusto”.

More Related Content

Viewers also liked

Barangolások magyarországon a budapesti várkertbazár
Barangolások magyarországon a budapesti várkertbazárBarangolások magyarországon a budapesti várkertbazár
Barangolások magyarországon a budapesti várkertbazárZoltán Gerő
 
Barangolások norvégiában gleccserek, vízesések
Barangolások norvégiában gleccserek, vízesésekBarangolások norvégiában gleccserek, vízesések
Barangolások norvégiában gleccserek, vízesésekZoltán Gerő
 
Barangolások a székely magyarok földjén
Barangolások a székely magyarok földjénBarangolások a székely magyarok földjén
Barangolások a székely magyarok földjénZoltán Gerő
 
Barangolások erdélyben beszterce
Barangolások erdélyben beszterceBarangolások erdélyben beszterce
Barangolások erdélyben beszterceZoltán Gerő
 

Viewers also liked (6)

Barangolások magyarországon a budapesti várkertbazár
Barangolások magyarországon a budapesti várkertbazárBarangolások magyarországon a budapesti várkertbazár
Barangolások magyarországon a budapesti várkertbazár
 
Barangolások norvégiában gleccserek, vízesések
Barangolások norvégiában gleccserek, vízesésekBarangolások norvégiában gleccserek, vízesések
Barangolások norvégiában gleccserek, vízesések
 
Barangolások a székely magyarok földjén
Barangolások a székely magyarok földjénBarangolások a székely magyarok földjén
Barangolások a székely magyarok földjén
 
gestione dell'etere
gestione dell'eteregestione dell'etere
gestione dell'etere
 
engCV 2014
engCV 2014engCV 2014
engCV 2014
 
Barangolások erdélyben beszterce
Barangolások erdélyben beszterceBarangolások erdélyben beszterce
Barangolások erdélyben beszterce
 

Similar to TRA MITO ED ANTITRUST_ITA_DEF

Novità normative in tema di esecuzioni immobiliari di Gianluigi Morlini
Novità normative in tema di esecuzioni immobiliari di Gianluigi MorliniNovità normative in tema di esecuzioni immobiliari di Gianluigi Morlini
Novità normative in tema di esecuzioni immobiliari di Gianluigi Morliniunicost
 
Illegittimita' accertamento usucapione mediante accordo negoziale o conciliativo
Illegittimita' accertamento usucapione mediante accordo negoziale o conciliativoIllegittimita' accertamento usucapione mediante accordo negoziale o conciliativo
Illegittimita' accertamento usucapione mediante accordo negoziale o conciliativoMarco Krogh
 
93 2015 cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...
93   2015   cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...93   2015   cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...
93 2015 cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...http://www.studioingvolpi.it
 
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...Federico Costantini
 
Carlo Malinconico: Introduzione all’Antitrust
Carlo Malinconico: Introduzione all’AntitrustCarlo Malinconico: Introduzione all’Antitrust
Carlo Malinconico: Introduzione all’AntitrustCarlo Malinconico
 
Cassazione Sezioni Unite
Cassazione Sezioni UniteCassazione Sezioni Unite
Cassazione Sezioni Unitegianlkr
 
Deposito telematico presso la Cassazione: il vademecum della FIIF
Deposito telematico presso la Cassazione: il vademecum della FIIFDeposito telematico presso la Cassazione: il vademecum della FIIF
Deposito telematico presso la Cassazione: il vademecum della FIIFSimone Aliprandi
 
Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...
Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...
Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...Francesco Posati
 
E book sui compensi d.m.140 12
E book sui compensi d.m.140 12E book sui compensi d.m.140 12
E book sui compensi d.m.140 12avvocatocalvanese
 
Rating di Legalità - Osservazioni Avv. Arena
Rating di Legalità - Osservazioni Avv. ArenaRating di Legalità - Osservazioni Avv. Arena
Rating di Legalità - Osservazioni Avv. ArenaMaurizio Arena
 
34 _-infortunio mortale del trattorista trascinato dalla presa di forza del...
34   _-infortunio mortale del trattorista trascinato dalla presa di forza del...34   _-infortunio mortale del trattorista trascinato dalla presa di forza del...
34 _-infortunio mortale del trattorista trascinato dalla presa di forza del...http://www.studioingvolpi.it
 
Stefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdf
Stefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdfStefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdf
Stefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdfenlacasademiguel29
 
Gli Strumenti Open Source dell'Investigatore Digitale
Gli Strumenti Open Source dell'Investigatore DigitaleGli Strumenti Open Source dell'Investigatore Digitale
Gli Strumenti Open Source dell'Investigatore DigitaleVincenzo Calabrò
 

Similar to TRA MITO ED ANTITRUST_ITA_DEF (20)

Novità normative in tema di esecuzioni immobiliari di Gianluigi Morlini
Novità normative in tema di esecuzioni immobiliari di Gianluigi MorliniNovità normative in tema di esecuzioni immobiliari di Gianluigi Morlini
Novità normative in tema di esecuzioni immobiliari di Gianluigi Morlini
 
Illegittimita' accertamento usucapione mediante accordo negoziale o conciliativo
Illegittimita' accertamento usucapione mediante accordo negoziale o conciliativoIllegittimita' accertamento usucapione mediante accordo negoziale o conciliativo
Illegittimita' accertamento usucapione mediante accordo negoziale o conciliativo
 
93 2015 cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...
93   2015   cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...93   2015   cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...
93 2015 cassazione penale, sez. 4, 16 marzo 2015, n. 11135 - infortunio m...
 
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
20171031 Cosa vuol dire «essere avvocato» oggi? Il giurista tra «complessità ...
 
Carlo Malinconico: Introduzione all’Antitrust
Carlo Malinconico: Introduzione all’AntitrustCarlo Malinconico: Introduzione all’Antitrust
Carlo Malinconico: Introduzione all’Antitrust
 
Fausto Vecchio, Un nuovo capitolo nella "saga" del data retention: la Corte c...
Fausto Vecchio, Un nuovo capitolo nella "saga" del data retention: la Corte c...Fausto Vecchio, Un nuovo capitolo nella "saga" del data retention: la Corte c...
Fausto Vecchio, Un nuovo capitolo nella "saga" del data retention: la Corte c...
 
Cassazione Sezioni Unite
Cassazione Sezioni UniteCassazione Sezioni Unite
Cassazione Sezioni Unite
 
Deposito telematico presso la Cassazione: il vademecum della FIIF
Deposito telematico presso la Cassazione: il vademecum della FIIFDeposito telematico presso la Cassazione: il vademecum della FIIF
Deposito telematico presso la Cassazione: il vademecum della FIIF
 
Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...
Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...
Tecnica, Procedura e Giurisprudenza del Processo Amministrativo Telematico - ...
 
E book sui compensi d.m.140 12
E book sui compensi d.m.140 12E book sui compensi d.m.140 12
E book sui compensi d.m.140 12
 
88 _ responsabilita del coordinatore sicurezza
88 _ responsabilita del  coordinatore sicurezza88 _ responsabilita del  coordinatore sicurezza
88 _ responsabilita del coordinatore sicurezza
 
Adr Silvia Stefanelli
Adr Silvia StefanelliAdr Silvia Stefanelli
Adr Silvia Stefanelli
 
02 sentenza sicurezza autocertificazione
02   sentenza sicurezza autocertificazione02   sentenza sicurezza autocertificazione
02 sentenza sicurezza autocertificazione
 
Rating di Legalità - Osservazioni Avv. Arena
Rating di Legalità - Osservazioni Avv. ArenaRating di Legalità - Osservazioni Avv. Arena
Rating di Legalità - Osservazioni Avv. Arena
 
34 _-infortunio mortale del trattorista trascinato dalla presa di forza del...
34   _-infortunio mortale del trattorista trascinato dalla presa di forza del...34   _-infortunio mortale del trattorista trascinato dalla presa di forza del...
34 _-infortunio mortale del trattorista trascinato dalla presa di forza del...
 
La riforma del contenzioso tributario - d.lgs.156/2015
La riforma del contenzioso tributario - d.lgs.156/2015La riforma del contenzioso tributario - d.lgs.156/2015
La riforma del contenzioso tributario - d.lgs.156/2015
 
Costi di sicurezza TAR Umbria
Costi di sicurezza TAR UmbriaCosti di sicurezza TAR Umbria
Costi di sicurezza TAR Umbria
 
Mensi -plenaria_workshop_24-05-13
Mensi  -plenaria_workshop_24-05-13Mensi  -plenaria_workshop_24-05-13
Mensi -plenaria_workshop_24-05-13
 
Stefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdf
Stefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdfStefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdf
Stefano Rodotà, Il problema della responsabilità civile [1964], 2023.pdf
 
Gli Strumenti Open Source dell'Investigatore Digitale
Gli Strumenti Open Source dell'Investigatore DigitaleGli Strumenti Open Source dell'Investigatore Digitale
Gli Strumenti Open Source dell'Investigatore Digitale
 

TRA MITO ED ANTITRUST_ITA_DEF

  • 1. TRA MITO ED ANTITRUST: IL CASO MICROSOFT ALL’INDOMANI DELL’ORDINANZA DEL PRESIDENTE DEL TRIBUNALE CE ABSTRACT. La recente ordinanza, emessa dal Tribunale CE, lungi dal riconciliare le divergenti posizioni, della Microsoft e della Commissione, circa le modalità di adempimento delle sanzioni imposte, ha in realtà sortito l’effetto opposto. In particolare, le argomentazioni volte a sorreggere la sussistenza del fumus boni juris appaiono minare profondamente l’approccio seguito dalla Commissione nell’acclarare la violazione dell’art. 82 TCE. Il presente articolo, alla luce di ciò e nell’attesa che pervenga la sentenza definitiva sul ricorso attualmente pendente, si propone di svelare il vulnus logico che ammanta il ragionamento seguito dalla Commissione e, conseguentemente, di formulare criteri correttivi atti ad impedire che le decisioni della Commissione, in special modo nel settore dell’ ”hi-tech”, possano rivelarsi eccessivamente foriere dell’errore c.d. “falso-positivo”.
  • 2. 2 TRA MITO ED ANTITRUST: IL CASO MICROSOFT ALL’INDOMANI DELL’ORDINANZA DEL PRESIDENTE DEL TRIBUNALE CE di Giuseppe Mastrantonio * SOMMARIO: 1. Premessa. – 2. L’ “abc” economico dei “sistemi computerizzati”. – 2.1 Strategie di conquista della posizione di comando sulla “piattaforma”. Architetture “aperte” e “semi-aperte” a confronto: dove pende l’ago dell’efficienza? – 2.2. Si apre il sipario: i timori della Commissione. - 2.2.1. Considerazioni critiche. – 3. La decisione della Commissione: la teoria dell’ ”effetto leva” nell’Era dei “networked systems”. - 3.1. La definizione del mercato rilevante nel metamorfico settore dell’ “hi-tech”: il mercato dei Sistemi Operativi per “workgroup server”? - 3.1.1. La posizione dominante e le barriere tecnologiche all’entrata. – 3.2. La condotta abusiva o l’abuso del concetto di “super-dominance”? - 4. Conclusioni. 1. Premessa. Lo scorso marzo 2004, la decisione della Commissione1 accertò la duplice violazione, perpetrata dalla società produttrice di software, del disposto dell’art. 82 TCE. Microsoft fu giudicata per aver abusato della propria “posizione dominante” attraverso l’utilizzo di due distinte pratiche: il “technological leveraging” ed il “technological bundling”. Pertanto, le vennero imposti sia una sanzione pecuniaria pari a 497 milioni di euro, sia, particolari obblighi di natura quasi-strutturale. Attualmente, con riguardo alle modalità ed alle tempistiche circa l’adempimento di tali ultimi rimedi, è dato assistere ad un vero e proprio “braccio di ferro” tra la Commissione, da un lato, e l’impresa obbligata, dall’altro2 . Tale contrasto, come è ovvio immaginare, rappresentata solamente la punta dell’iceberg del più ampio e profondo dibattito che caratterizzò l’intero iter procedimentale svoltosi di fronte alla Commissione e che potenzialmente minaccia, in maniera indiscriminata, qualsiasi procedura di accertamento ex art. 82 TCE che si riferisce ad imprese operanti in mercati afferenti al settore dell’“hi tech”. Non a caso, infatti, le maggiori accuse, rivolte contro la decisione della Commissione si accentrarono sull’approccio adottato nella fase di accertamento indiretto della “posizione dominante” – i.e. definizione del mercato e successiva fase di accertamento del potere di mercato3 . * Dottorando di ricerca in “Diritto ed Economia” presso la LUISS Guido Carli. LL.M. in Competition Law and Economics presso l’ Erasmus Universiteit di Rotterdam. E-mail: gmastrantonio@luiss.it 1 Commissione Europea, Decisione C(2004)900 final, Case COMP/C-3/37.792 Microsoft, disponibile on-line all’indirizzo http://europa.eu.int/comm/competition/. 2 ANSA, Microsoft: ok a nome proposto da UE per versione Windows, in http://www.ansa.it/main/notizie/fdg/200503281857193103/200503281857193103.html, 28 marzo 2005. 3 Nonostante, allora, nel presente lavoro ci si soffermi principalmente sulla pratica c.d. di “technological leveraging”, le considerazioni che verranno svolte, appuntandosi su passaggi logici che si mostrano comuni all’ accertamento di qualsiasi pratica abusiva in mercati dell’ “hi-tech”, possono valere anche nell’ analisi riguardante l’ iter seguito per l’ accertamento del secondo comportamento abusivo – i.e. “technological bundling”. Per un’ analisi critica che si riferisce, in maniera esplicita, anche alla seconda pratica ritenuta abusiva si veda R. PARDOLESI – A. RENDA, The European Commission’s Case
  • 3. 3 Alla luce, quindi, della recente ordinanza emanata dal Presidente del Tribunale CE4 lo scorso 22 dicembre 2004 e nell’attesa che giunga la sentenza del Tribunale in composizione collegiale, ci si chiede se i dubbi posti alla base delle suaccennate critiche siano ancora attuali e giustificati. In primo luogo, per quanto concerne la sussistenza del fumus boni juris, il risultato a cui il Presidente del Tribunale è pervenuto si è dimostrato del tutto scontato, data la complessità del caso in esame e la natura di accertamento sommario dei procedimenti d’urgenza. Tuttavia, da tale ovvia constatazione, è dato svelare, ragionando a contrario sensu, una prima verità. Il Presidente, sostenendo la sussistenza di tale primo requisito, ha implicitamente avallato e riconosciuto la fondatezza nel merito del ricorso attualmente pendente. Le argomentazioni addotte dal ricorrente5 , avverso la decisione della Commissione, non sembrano aver subito alcun effetto sostanzialmente inficiante in seguito all’emanazione dell’ordinanza. Perciò, gli attacchi critiche mossi contro la decisione della Commissione appaiono ancora del tutto fondati. Con riguardo, poi, al secondo requisito – i.e. il periculum in mora - sembra potersi affermare che l’accertamento della sua sussistenza non abbia, invece, potuto sortire un risultato positivo proprio a causa del mutamento finale nell’atteggiamento della Commissione. Ed ecco palesarsi una seconda verità. Attraverso la nuova formulazione della sanzione – passaggio da una sanzione che comminava l’obbligo di “disclosure” delle implementazioni ad una riguardante, invece, le sole specificazioni delle “interfacce” implementate nel proprio sistema operativo6 - la Commissione sembra essere riuscita ad imporre, de facto, la propria volontà – i.e. favorire l’utilizzo di architetture “aperte” a discapito delle architetture “semi-aperte”. L’inversione di rotta ha causato, in definitiva, una riduzione del livello di rischio connesso ad un’eventuale menomazione della propria decisione in sede di procedimento d’urgenza. Da un lato, risulta ictu oculi che sarebbe stato estremamente più difficoltoso per il ricorrente fornire la prova del pericolo “grave” ed “irreparabile” di un obbligo più circoscritto rispetto a quello avente ad oggetto le sole specificazioni7 . Dall’altro lato, è giusto notare che la Against Microsoft: Fool Monti Kills Bill?, in http://ssrn.com/abstract=579814 LE Lab Working Paper No. AT-07-04, 2004 4 Ordinanza del Presidente del Trib. CE, Case T-201/04R, emessa il 22/12/2004. 5 Ibid., para. 98-163. 6 Il processo di produzione di software, nel suo primo stadio, risulta scomponibile in due successive e ben distinte fasi: la specificazione e l’implementazione. Attraverso la prima il programmatore delinea quelle che saranno le varie funzioni del proprio software. Ciò avviene normalmente attraverso la stesura di un “flow-chart” – “foglio di flusso”- dove viene descritto il processo logico attraverso il quale il programma elaborerà i dati immessi dall’ utente. Mediante, invece, il termine implementazione si indica la scrittura in forma digitale del “flow chart”. Ciò si realizza attraverso l’ utilizzo di vari linguaggi di programmazione – intelligibili da parte del programmatore- che permettono, successivamente alla stesura, di compilare il programma così ottenuto in un linguaggio comprensibile anche per la macchina – i.e. codice binario. In seguito a tale fase, pertanto, il produttore può decidere di commercializzare il software, ora, soltanto in linguaggio binario, ora, sia in linguaggio macchina che in linguaggio di programmazione. Dunque, la “disclosure” imposta a Microsoft consiste in un obbligo di fornire licenze, a condizioni ragionevoli e non discriminatorie, ai propri concorrenti delle sole specificazioni riguardanti non un intero programma , bensì le sole “interfaccie”. Per ulteriori spiegazioni tecniche si veda infra para 2. 7 Ordinanza del Presidente del Trib. CE, supra nota 4, para 226-325. Bisogna notare, inoltre, che il “trade-off”, tra “minore intrusività” e “maggiore durata dell’efficacia medio tempore spiegata dalla sanzione”, appare decisamente rafforzare il sospetto che la Commissione possa aver agito strategicamente nel modo descritto. L’apparente minor grado d’intrusività non sembra causare, qualora si tenga in dovuta considerazione l’elevato utilizzo della strategia di “versioning” nel settore analizzato, una corrispondente
  • 4. 4 Commissione, sapendo che la conclusione di un eventuale e probabile procedimento di secondo grado avrebbe richiesto un notevole lasso temporale, poteva correttamente prevedere che, medio tempore, la sanzione imposta avrebbe causato -date le tempistiche repentine nelle quali il settore dell’ “hi-tech” si sviluppa ed evolve – effetti economici non più eliminabili ex-post8 . Dunque, constatato il legittimo sospetto che la Commissione possa agire strategicamente nel perseguimento dei propri obiettivi di politica concorrenziale e considerato il duplice ed ambiguo ruolo – di accusa e giudice- che essa geneticamente svolge, appare lecito, rispondendo affermativamente al precedente quesito, chiedersi se e quale sia lo strumento più idoneo per proteggere la concorrenza dalla molteplicità degli obiettivi di cui la politica concorrenziale può farsi carico9 . Il presente articolo si sviluppa in due parti. La prima fornisce un quadro delle regole economiche che contraddistinguono il mercato dei c.d. produttori di software, con particolare enfasi rivolta al mercato dei Sistemi Operativi (SO). La sua funzione consiste nel delineare un approccio più rispondente alla realtà economica, a cui i produttori di SO per servers sono inevitabilmente assoggettati. La seconda parte, facendo tesoro dei risultati raggiunti, analizza sistematicamente l’iter logico seguito dalla Commissione nell’accertamento della violazione dell’art. 82 TCE. Seguiranno, infine, le conclusioni. 2. L’ “abc” economico dei “sistemi computerizzati”. L’appartenenza del SO alla categoria dei “beni di sistema”10 decreta un vistoso assoggettamento del bene in questione alla c.d. teoria modulare ed alle sue leggi11 . E’ dato constatare, infatti, che qualsiasi SO, come d’altronde ciascun software, non viene riduzione dell’efficacia coercitiva connessa alla nuova sanzione. Infatti, i produttori di sistemi operativi, nel momento di riprogettazione dell’architettura del proprio prodotto, focalizzano la propria attenzione solo sulla versione più avanzata. In un secondo momento – i.e. commercializzazione- potranno poi semplicemente disabilitare le varie funzioni da quest’ultima implementate ed ottenere così diverse versioni di livello qualitativo più basso ed utilizzare, pertanto, pratiche di discriminazione di prezzo di “secondo tipo” al fine di estrarre ulteriore “surplus” dai consumatori. Per maggiori approfondimenti sulle pratiche di versioning si veda H. R. VARIAN, Versioning in information goods, in http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 1997. Ergo, l’adempimento da parte di Microsoft dell’obbligo di “disclosure”, attinente prima facie alle sole specificazioni del sistema operativo “Windows Workgroup Server Standard Edition”, comporta, di fatto, un sacrificio maggiore rispetto a quello che sembrerebbe palesarsi – i.e. “disclosure”, anche, delle “interfacce” implementate inevitabilmente, a causa della suaccennata pratica di “versioning”, nelle versioni superiori. 8 D. L. RUBINFELD, Antitrust Enforcement in Dynamic Network Industries, in 43 Antitrust Bulletin, 1998, 859 ss.; D. A. BALTO, R. PITOFSKY, Antitrust and High-Technology Industries: The New Challenge, in 42 Antitrust Bulletin, 1998, 583 ss., 9 R. H. BORK, The Antitrust Paradox, Basic Books, Inc., 1978, 79. 10 Per maggiori approfondimenti sul tema, con particolare riferimento al settore dell’“hi-tech”, si veda O. SHY, The economics of network industries, Cambridge University Press, 2001; e C. SHAPIRO, H.R. VARIAN, Information Rules: A Strategic Guide to the Network Economy, Boston, Harvard Business School Press, 1999. 11 M. A. SCHILLING, Towards a General Modular Systems Theory & its Application to interfirm Product Modularity, in 25/2 Accademy of Management Rev., 2000, 312; N. W. HATCH, Design Rules Vol. 1: the power of modularity, in 26/2 Accademy of Management Rev., 2001; H. R. VARIAN, Economics of Information technologies, in http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 2003, 8 ss; R. GARUD, A. KUMARASWAMY, R. N. LANGLOIS, Managing in the Modular Age: Architectures, Networks and Organizations, Oxford, Blackwell, 2002.
  • 5. 5 mai utilizzato da solo. Esso acquista utilità per il consumatore finale, o utente, solo se utilizzato congiuntamente ad altre componenti o “moduli” - o ancora meglio, volendo utilizzare un termine economicamente più esatto, “complementors”. In altre parole, esso diventa un bene in senso economico solo se utilizzato all’interno di un sistema – i.e. la risultante dell’aggregazione di un numero minimo di “complementors”. Al riguardo, deve notarsi che il grado di complementarietà fra i vari “moduli”, lungi dal rappresentare una variabile esogena, si concretizza esclusivamente qualora le imprese produttrici di uno o più “moduli” scelgano di garantire un livello minimo di interoperabilità fra i loro rispettivi prodotti12 . Nell’industria dei computers ciò avviene attraverso l’utilizzo di “moduli interfaccia”. A titolo esemplificativo, questi ultimi ben possono essere assimilati a dei protocolli di comunicazione utilizzati da “moduli”, di altro tipo ovviamente, per dialogare tra di loro. Un “sistema computerizzato” basilare – i.e. “client system”- risulta, quindi, scomponibile nei seguenti “moduli”: hardware, SO, middleware13 , software applicativo, contenuto, utente. All’interno di tale schema, il SO è definibile con il termine di “modulo piattaforma” per il fatto di essere il “componente” che provvede ad implementare i “moduli interfaccia”. Infatti, come si avrà modo di vedere nei prossimi paragrafi, la funzione svolta dal SO, rendendo concreto il grado di interoperabilità presente tra i vari “moduli” e ponendo, quindi, l’utente nella condizione di ritrarre utilità dall’utilizzo del sistema, permette alle imprese, leader nella produzione di SO, di guidare la domanda di mercato. Prima, però, di proseguire nell’analisi delle suddette particolarità, una brevissima considerazione merita di essere svolta in questa sede preliminare. E’ dato, infatti, riscontrare che la prospettiva scelta per l’analisi descrittiva di un “sistema computerizzato”, considerato nel suo complesso o nelle sue singole componenti, ingenera metamorfiche trasformazioni – i.e. de-frammentazione o concentrazione- dell’ oggetto stesso dell’ analisi. Si prenda, ad esempio, lo schema esemplificativo, di cui sopra, quale sistema di riferimento. Da un lato, qualora la propria analisi si concentri su di un singolo “modulo”, ad esempio il SO, ed adotti una prospettiva dal basso verso l’alto, ci si accorgerebbe con stupore che tale componente, classificato ab origine come “modulo”, è in realtà un sistema in sé - formato da molteplici unità: il codice sorgente o “kernel” e le varie “interfacce” quali le APIs (Application Program Interfaces), le GUIs (Graphical User Interfaces), etc. Si assisterà, quindi, ad un processo di de- frammentazione dell’oggetto analizzato. Dall’altro, invece, qualora l’analisi si concentri sul sistema di riferimento, considerato nel suo complesso, e adotti una visione dall’alto verso il basso, si assisterà ad un processo di concentrazione - ingenerato dalla diversa posizione da cui il sistema di riferimento viene studiato. Ad esempio, il “client system” potrebbe essere qualificato come “modulo” di un sistema più ampio – i.e. “networked system”. Tale ultimo sistema, nella sua forma basilare, risulterebbe scomponibile nei 12 A differenza di quanto affermato dalla Commissione, il concetto di interoperabilità implica la possibilità di graduare il livello di interazione presente tra due “moduli”. N. ECONOMIDES, The Economics of Networks, in 14/2 International Journal of Industrial Organisation, 1996, 5 ss. 13 Il middleware è un qualsiasi programma che, mostrando “moduli interfaccia” e frapponendosi, quindi, tra il SO ed i vari programmi applicativi, riesce a neutralizzare la posizione di supremazia del SO. In altre parole è una sorta di diaframma per mezzo del quale i programmi applicativi, che su di esso vengono fatti “girare”, possono essere utilizzati indipendentemente dal tipo di SO utilizzato.
  • 6. 6 seguenti “complementors”: servers e clients hardware, SO per servers e clients, middleware, software applicativo dei clients e dei servers, contenuto, utenti14 . Tale digressione – che sarà ampliamente sviluppata nella parte riguardante l’ analisi della fase di definizione dei mercati rilevanti- risulta di estrema importanza e rivela un indubbio monito. La definizione di un “sistema computerizzato”, a causa dell’ elevata modularità che lo contraddistingue, è assoggettata ad un ampio grado di relatività e, conseguentemente, ad un tanto più elevato rischio di errore, quanto più sia restrittivo l’approccio classificatorio adoperato. Perciò, palesandosi sin da ora la necessità di disporre di definizioni che rendano più agevole l’approccio analitico e volendo limitare il più possibile il suaccennato rischio di errore, si avverte che nel prosieguo del presente lavoro verranno utilizzati i termini “client system” e “networked system”: ora, per riferirsi a “sistemi computerizzati” ideati per essere utilizzati da un solo utente alla volta, ora invece, da più utenti contemporaneamente. 2.1. Strategie di conquista della posizione di comando sulla “piattaforma”. Architetture “aperte” e “semi-aperte” a confronto: dove pende l’ago dell’efficienza? Il SO, in seguito alla “deflagrazione” avvenuta nei primi anni ’80 nel settore della produzione di hardware, ha acquistato una posizione di supremazia all’interno della catena del valore dell’industria dei computers15 , diventando il componente “piattaforma”16 . Come già è stato brevemente anticipato nel precedente paragrafo, i produttori di SO – o le libere comunità di sviluppatori- mediante la definizione dell’architettura implementata dal proprio software, riescono a guidare la domanda e a delineare le dinamiche competitive del mercato. Tuttavia, è dato notare che la scelta strategica riguardante il tipo di “architettura” risulta a sua volta influenzata dalla presenza degli “effetti di rete” e dal modo in cui le imprese ritengano opportuno innescare e gestire tale fenomeno. La presenza di tali effetti, pone i produttori dei “moduli” di un “sistema computerizzato” di fronte ad un palese problema di coordinamento. Essi dovranno garantire la compenetrazione reciproca dei propri sforzi nella costruzione del sistema per riuscire a soddisfare la 14 Il software applicativo installato sopra alle postazioni servers, a differenza di quello montato su postazioni clients, può appartenere ad una delle seguenti categorie: DBMS (Database Management System, Network Management System), firewall software ( nelle reti più complesse tale applicativo viene fatto “girare” su di un server dedicato, ma altrettanto comune risulta l’utilizzo di firewall hardware installati all’interno di routers, come ad esempio quelli prodotti da CiscoSystem), Network System Management, etc. Si veda K. C. MANSFIELD, J.L. ANTONAKOS, An introduction to computer networking, New Jersey, Prentice Hall, (2002); W. E. B. GARDNER, Windows NT & UNIX: Administration, Coexistence, Integration and Migration, Addison Wesley Longman Inc., 1998. 15 Per approfondimenti relativi all’evoluzione storica dell’industria dei computers si veda A. GAWER, M. A. CUSUMANO, Platform Leadership, Harvard Business School Press, 2002. 16 “The fact that Microsoft gives inducement to ISVs to write, easily, application software for its OS - integrating some functionality developed by them and disclosing needed information to them - enables the ISVs to save costs and, at the same time, gives to them an incentive to write for its OS. The latter is a good strategy to “internalise” the “adoption externalities” and, at the same time, might cause an expansion of the “network effects” therefore enhancing the benefit consumers receive from the “system goods” N. ECONOMIDES, ‘The Microsoft Antitrust Case’, in 1 Journal of Industry Competition and Trade, 2001, 20.
  • 7. 7 propria domanda di mercato. Solo attraverso la risoluzione di tale dilemma sarà data loro la possibilità di sfruttare a pieno gli “effetti di rete”17 . Questi ultimi possono essere suddivisi in: “diretti” e “indiretti”. I primi sono detti “diretti”, in quanto tengono in considerazione l’utente quale “modulo” del sistema. Da ciò la constatazione che il consumatore trae tanta più utilità dall’utilizzo del sistema quanto più ampia sia la quota di mercato coperta dai suoi sviluppatori – c.d. “installed base”. I secondi, invece, considerano esclusivamente i rapporti sussistenti tra produttore del “modulo piattaforma” e produttori di altri “moduli”. Per l’utente, quindi, gli effetti prodotti da questi rapporti saranno “riflessi” o “indiretti”. Da ciò, quindi, la considerazione che più ampia sarà l’ “installed base” di un dato sistema, tanto maggiore sarà, ad esempio, la quantità dei “moduli” per questo sviluppati. Pertanto, dati questi due effetti, l’utilità che un singolo utente ritrae dall’utilizzo del sistema può essere rappresentata attraverso l’utilizzo della seguente equazione18 nmiS SSW += in cui SW raffigura il prezzo che il consumatore sarebbe disposto a pagare per il bene sistema, iS rappresenta il valore intrinseco ed nmS il valore di “rete” del bene. In particolare, le lettere poste al pedice di quest’ultimo valore indicano rispettivamente: il processo di crescita del sistema causato dagli effetti “diretti” e l’espansione dei produttori di “moduli” per il sistema dovuta alla presenza degli effetti “indiretti”. Il prodotto nm denota la compresenza di dette tipologie di effetti - i.e. la presenza del “circolo virtuoso” di espansione della domanda mercato19 . I produttori dei “moduli” del sistema saranno, quindi, incentivati ad escogitare un metodo per riuscire ad innescare entrambi gli effetti di “rete”, contemporaneamente ed in modo coordinato, al fine di garantire il suaccennato aumento a “catena” della variabile nmS . Per l’analisi di tale “dilemma” numerosi approcci sono stati formulati dalla letteratura economica20 . Nella pratica attuale due strategie appaiono utilizzate: quella “proprietaria” e quella “aperta”. La loro implementazione rende l’architettura del sistema, ora, “semi-aperta”, ora, “aperta”21 . 17 J.E. LOPATKA, W.H. PAGE, Network Externalities, in B. Bouckaert, G. Geest (ed.), in 1 Encyclopedia of Law and Economics, 2000, 952 ss. 18 Formula ripresa da R. PARDOLESI, A. RENDA, How safe is the king’s throne? Network externalities on trial, in A. Cucinotta, R. Pardolesi, R.J. Van den Bergh (ed.), Post-Chicago developments in Antitrust Law, Cheltenham, 2002, 215. 19 Maggiore sarà il network – o sistema-, tanto più elevato risulterà il prezzo che i consumatori saranno disposti a pagare per esso. Dunque, tanto più ampia sarà la quantità di applicazioni che verranno sviluppate. 20 Tale problematica è stata descritta, ora, con il termine di “chicken egg dilemma” – si veda M. KATZ, C. SHAPIRO, Systems Competition and Network Effects, in 8/2 Journal of Economic Perspectives, 1994, 93-115 – ora, qualificata come un problema causato dalla presenza di esternalità presenti nella fase di adozione di una nuova tecnologia - si veda M. KATZ, C. SHAPIRO, Technology Adoption in the Presence of Network Externalities, in 94 Journal of Political Economy ,1986(a), 822 ss.; R. PARDOLESI, A. RENDA, 2002, 213 ss.; J.E. LOPATKA, W.H. PAGE, 2000, op.cit. 952 ss.; J. CHURCH, N. GANDAL, Complementary Network Externalities and Technology Adoption, in 11 International Journal of Industrial Organization, 1993, 239 ss. – ora, studiata come problema di coordinamento tra soggetti presenti nei c.d. “two-sided market” - si veda D. S. EVANS, The Antitrust Economics of Two-Sided Markets, in 20 Yale Journal of Regulation, 2003. 21 Inizialmente, almeno sino alla prima metà degli anni ’90, è dato riscontrare anche un terzo tipo di architettura, comunque scaturiente da una strategia “proprietaria”. Si parla, infatti, di architettura
  • 8. 8 Si è in presenza di un’architettura “semi-aperta” allorquando un’impresa risulti controllare il componente “piattaforma” – middleware o SO che sia. Tale controllo è esercitato attraverso due strumenti. Giuridicamente, mediante la titolarità e l’esercizio di diritti di proprietà sulle “interfacce” – si ipotizzi per semplicità espositiva che esse consistano solo nelle c.d. APIs- e sul “codice sorgente” del “modulo piattaforma”. Tecnicamente, mediante l’implementazione di queste in un codice difficilmente decifrabile da parte degli avversari – i.e. codice binario22 . L’uso di tale strategia di controllo – parzialmente disintegrato- determina il passaggio, nella fase di adozione, da uno scenario di competizione “nel” mercato ad uno di competizione “per” il mercato. In tale situazione l’impresa, che controlla il componente “piattaforma”, risulta altamente incentivata a svolgere il ruolo di “intermediario” tra la domanda di mercato ed offerta di “moduli” del sistema. In altre parole, l’impresa acquista, quindi, il ruolo di sponsor dell’ intero sistema. Pertanto, quanto più vigoroso risulti il processo di espansione della domanda di mercato, tanto più questa si prodigherà nel formare coalizioni con imprese produttrici di altri “moduli” – per semplicità espositiva si considerino gli ISVs (Independent Software Vendors)23 . Si “completamente chiusa”, allorquando la titolarità del diritto di proprietà investe non solo la “piattaforma” ma anche tutti gli altri “moduli”. Esempi emblematici di tale tipologia sono stati il “System/360” di IBM ed il “Macintosh System” di Apple. L’implementazione di questa tipologia di architettura fa sì che nel mercato si instauri una pura competizione tra i proprietari dei diversi sistemi – i.e. “pure inter-firm competition”. Anche “Windows” di Microsoft utilizzava tale tipologia di architettura, almeno nelle sue prime versioni – i.e. Wintel. Tuttavia, successivamente, anche il gigante di Redmond è stato costretto, dalle forze di mercato, ad aprire il proprio sistema. “When Microsoft faced competition coming from the Internet – i.e. Sun Java and Netscape – it had to adopt a different strategy. It adopted a more open policy in such a way to collect more ISVs – Independent Software Vendors. Thus sharing, with a bigger plethora, information about its APIs and kernel in a way to expand its system – enhancing intra-system competition”, A. GAWER, M. A. CUSUMANO, 2002, 141, op.cit. Si veda anche T.F. BRESHNAHAN, ‘New Modes of Competition: Implications for the future structure of the computer industry’, in J. A. Eisenach, T. M. Lenard (ed.) ‘Competition, Innovation and the Microsoft Monopoly: Antitrust in the Digital Marketplace’, Kluwer Academic Publishers, 1999, 155 ss.; N. ECONOMIDES, ‘The Microsoft Antitrust Case’, in 1 Journal of Industry Competition and Trade, 2001, 7-39. Pertanto, l’assunzione restrittiva - da due ad una sola tipologia di architettura scaturiente dall’implementazione di una strategia “proprietaria” di controllo della “piattaforma”- dovrebbe apparire quanto mai corretta. Deve inoltre osservarsi che persino Sun Microsystem, il principale accusatore di Microsoft nel caso in esame, sembra preferire l’implementazione di un’architettura “semi-aperta”. Pur mostrando apertamente il “codice sorgente” e le APIs della propria “piattaforma” – i.e. middleware che permette ad altri middleware di agire come “piattaforme” indipendentemente dal SO utilizzato- ritiene un controllo – i.e. approvazione e certificazione- sullo sviluppo del proprio software. Da ciò è derivata, infatti, la sanzione imposta a Microsoft per aver sviluppato, contrariamente a quanto imposto dalla relativa licenza SDK (Software Developers Kit), una propria versione del “Java Virtual Machine”. R. PARDOLESI, A. RENDA, 2004, nota 44, op.cit.; A. GAWER, M. A. CUSUMANO, 2002, 141, op.cit. e M. LAMLEY, D. MCGOWAN, Could Java Change everything: The Competition,in 42 Antitrust Bulletin, 1998. 715 ss. 22 Si veda infra nota 61. 23 L’analisi di tali particolari rapporti tra imprese operanti nel settore dell’”hi-tech”, ed in particolare in quello dei computers, implica l’utilizzo di sofisticati modelli di Teoria dei giochi. Da ciò il termine co-opetizione. Il concetto chiave nella tipologia di gioco cooperativo è il BATNA (Best Alternative To Negotiate Agreement) che utilizzato congiuntamente alla regola dello Shapley’s Value cerca di quantificare gli incentivi delle imprese a rimanere in una determinata coalizione o a romperla, per formarne altre più convenienti. A. DIXIT, S. SKEATH, Games of Strategy, W.W. Norton & Company, Inc., 1999. Per un’applicazione di tali concetti si veda N. ECONOMIDES, A. SKRZYPACZ, Standards Coalitions Formation and Market Structure in Network Industries, in http://raven.stern.byu.edu/networks/, 2003.
  • 9. 9 assisterà, quindi, ad un mix tra la forma di competizione verticale e quella orizzontale24 . Tuttavia, il grado di competizione verticale – ottenuto mediante l’aggregazione delle imprese in coalizioni- risulterà essere tanto più forte quanto più “chiuse” si rivelino essere le architetture implementate. In tal modo l’ impresa sponsor cercherà di ampliare la “installed base”del “proprio” sistema al fine di raggiungere il livello di “massa critica”. Una volta raggiunto tale punto da parte di una coalizione, la forza del “circolo virtuoso”, innescatosi nel mercato, proietterà il sistema, in cui il produttore del “modulo piattaforma” riveste una posizione di supremazia, verso la conquista dell’intero mercato. Dunque, il processo competitivo risulterà localizzato all’interno del “sistema computerizzato” vincente. Si assisterà all’affermarsi di una tanto più pura forma di “intra-firm competition”, quanto più il produttore del ”modulo piattaforma” risulti implementare una forma di architettura “chiusa”. In tale scenario, quindi, l’impresa sponsor, nella previsione che il “proprio” sistema risulti vincitore – i.e. possibilità di recuperare gli elevati costi sostenuti nell’ innescare detto “circolo virtuoso”- si mostrerà tanto più incentivata ad investire nello sviluppo del sistema e a garantire un determinato livello di interoperabilità all’interno della propria coalizione, quanto più vasto risulti il mercato25 . Ciò avverrà al fine di promuovere le aspettative dei consumatori. Ad esempio, fornendo loro garanzie, ora, sulla varietà, sulla quantità26 e qualità – o sicurezza-27 dei programmi applicativi e del 24 M. KATZ, C. SHAPIRO, 1986(a), op.cit.; M. KATZ, C. SHAPIRO, Product Compatibility Choice in a Market with Technological Progress’, in 38 Oxford Economic Papers, 1986(b), 146 ss.; J. FARRELL, G. SALONER, Standardization, Compatibility and Innovation, in 16 Rand Journal of Economics, 1985, 70 ss.; J. FARRELL, G. SALONER, Coordination Through Committees and Markets, in 19/2 Rand Journal of Economics, 1988, 235 ss.; W. J. CURRAN III, Mystery or Magic: the intriguing interface of antitrust law, in 42 Antitrust Bulletin, 1998, 775 ss. Si tenga, inoltre, presente quanto detto precedentemente alla nota 21. 25 In un mercato caratterizzato da un elevato grado di co-opetizione –vedi supra nota 23 - la scelta strategica riguardante il grado di interoperabilità garantita ai propri “alleati-potenziali avversari”, non potrebbe essere determinata, aprioristicamente, sulla base della sola quota di mercato dell’impresa produttrice - ad esempio, del SO. Essa dipenderà, infatti, dalla seguente equazione: “your value = your share × total industry value […] When total industry value depends strongly on the size of the market, adopting a standard may increase total value so much that it overcomes the possible dilution in market share”. H. R. VARIAN, 2003, op.cit., 13. 26 Con riguardo alle variabili quantità e varietà dei “complementors” si osservava, già, precedentemente – supra nota precedente- che qualora il livello della domanda per il sistema “ibrido” o “semi-aperto” – formato, ad esempio, da un SO proprietario e da “complementors” prodotti da altre imprese- superi quello della domanda per un sistema ad architettura completamente “chiusa”, il proprietario del sistema, verticalmente integrato, non sarà incentivato – a parte le considerazioni di ordine strategico di cui infra- a rifiutarsi di fornire interoperabilità agli ISVs. Sono quindi le forze competitive in gioco ad influenzare le scelte riguardanti il livello di compatibilità, di varietà e quantità dei “moduli” del sistema - ad esempio, dei programmi applicativi. Non stupisce, infatti, l’utilizzo, da parte sia di Microsoft che di Sun, della c.d. “second-sourcing strategy”– i.e. apertura del “proprio” sistema agli ISVs. Tale strategia, oltre a garantire un più incisivo sfruttamento degli “effetti di rete”, consente loro di rafforzare la credibilità delle proprie promesse nei confronti dei consumatori, risultando la loro libertà di scelta sul livello dei prezzi fortemente ridotta , nei successivi periodi di gioco, a causa della presenza degli ISVs. Si veda J. FARRELL, N. GALLINI, Second-Sourcing as a commitment: Monopoly Incentives to Attract Competition, in 103 Quartely Journal of Economics, 1988, 673-694; ma anche D.W. CARLTON, J.M. PERLOFF, Modern Industrial Organisation, Addison-Wesley Longman, Inc., 2000, 112 ss. per un’analisi del funzionamento del “dominant-fringe” model, di cui il “second sourcing” altro non è che una specificazione. 27 Economides and Lehr dimostrano che un monopolista integrato risulta fornire un più alto livello di qualità rispetto a due monopolisti indipendenti. N. ECONOMIDES, W. LEHR, The Quality of
  • 10. 10 sistema nel suo complesso, ora, sul livello della tecnologia adottata28 , sul grado di portabilità29 , sulla facilità d’uso30 , sul prezzo e sulla quantità31 del sistema globalmente considerato. Perciò, concludendo sul punto, l’utilizzo del tipo di strategia “proprietaria”, implicante una gestione “semi-aperta”, ben potrebbe, in linea teorica, risultare rispondente all’obiettivo di massimizzazione del benessere dei consumatori. Si procede, quindi, ad analizzare le caratteristiche presenti nel secondo tipo di strategia di controllo della “piattaforma”. Questa si contrappone nettamente alla precedente per il fatto di basarsi su di un’ architettura completamente “aperta”. Ora, il controllo sulla “piattaforma” viene suddiviso tra tutti i produttori dei “moduli” e nessuno di loro può vantare alcun diritto di proprietà su di esso. Chiunque può liberamente accedere e modificare il “codice sorgente” e le “interfacce” della “piattaforma” –anche qui si considerino, a titolo esemplificativo, le sole APIs- purché renda la propria variante pubblicamente disponibile. Il potere di controllo dell’ architettura risulta decentrato e l’incentivo a svolgere la funzione di sponsor spezzettato tra tutti i produttori di “moduli” per il sistema – per semplicità si considerino, anche qui, solo gli ISVs. Questi si affronteranno in uno scenario di competizione orizzontale pura, del tutto assimilabile ad una completa possibilità di emulazione reciproca. Attraverso l’ utilizzo di strategie di commercializzazione c.d. a “pacchetto” - comprensive del modulo “piattaforma” appositamente rielaborato e del proprio prodotto- gli ISVs otterranno i profitti necessari per stimolare il loro incentivo ad investire risorse nello sviluppo della “piattaforma” comune32 . Quindi, rispetto allo scenario precedente, a causa di tale tipologia di commercializzazione e della relativa riduzione dei costi fissi, si dovrebbe assistere ad un abbassamento del livello dei prezzi. Tuttavia, come giustamente osservato, tale Complex Systems and Industry Structure, in W. Lehr (ed.), Quality and Reliability of Telecommunications Infrastructure, Lawrence Erlbaum, 1995. Tale risultato appare del tutto coerente con le risultanze ottenute dal Prof. Varian quando afferma che “ […] less transfer of information between teams which are engaged in building the system, lowering the level of “free riding” to which they are exposed, enhances the quality of the entire system”. H. R. Varian, Reliability and Free Riding, in http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 2004. Si veda anche, N. ECONOMIDES, Competition and Vertical Integration in the Computing Industry, in J.A. Eisenach, Th.M. Lenard (eds.), Competition, Innovation and the Microsoft Monopoly: Antitrust in the Digital Marketplace, Kluwer Academic Publishers, 1999, 209 ss. e N. ECONOMIDES, S. C. SALOP, Competition and Integration among Complements and Network Market Structure, in 40 Journal of Industrial Economics, 1992, 105 ss. 28 S. LIEBOWITZ, S. MARGOLIS, Path dependence, lock-in and history, in http://wwwpub.utdallas.edu/liebowitz/path.html, 1995. 29 Per approfondimenti sulle strategie volte a risolvere tale “dilemma” - esplorato per la prima volta nell’articolo di R. COASE, Durability and monopoly, in 15/1 Journal of Law and Economics, 1972, 143 ss. – mediante la c.d. “backward compatibility strategy” si veda H. R. VARIAN, 2003, 25 ss. Si veda, inoltre, infra nota 39. 30 H. R. VARIAN, Economic Incentives in Software Design, in http://www.sims.berkley.edu/~hal/Papers/, Mattioli Lectures, 1993. 31 Attraverso la risoluzione del problema della “doppia marginalizzazione” si ottiene, infatti, una conseguente espansione della quantità e riduzione del prezzo. N. ECONOMIDES, 1996, 21 ss. Inoltre, data la possibilità di effettuare una strategia di discriminazione di prezzo di “primo tipo”, tali effetti risulteranno ulteriormente amplificati. H. R. VARIAN, Economics of Information technologies, 2003, 13 ss. 32 J. LERNER, J. TIROLE, The simple economics of open source, in http://www.nber.org/papers/ NBER Working Paper no. W7600, 2000.
  • 11. 11 congettura non sembra tenere conto della possibilità che contestualmente si assista ad un aumento dei prezzi per i servizi IT forniti dagli ISVs.33 Inoltre, è dato notare che il processo di “specializzazione”, attraverso il quale l’architettura “aperta” sfrutta gli “effetti di rete”, potrebbe mostrarsi rallentato nella stessa fase iniziale, qualora la conformazione delle preferenze dei consumatori finali non risulti sufficientemente specializzata. Infatti: “ […] il grado di difficoltà che i consumatori affrontano nell’assemblaggio dei componenti sarà negativamente correlato all’aumento del livello di modularità tra le varie imprese produttrici del sistema computerizzato” 34 . Ciò rappresenta un forte limite, da un lato, alla espansione della domanda di mercato e, dall’altro, al risultato di massimizzazione del benessere dei consumatori. Ovviamente, la presenza di detto limite si dimostra inversamente proporzionale rispetto al grado di “specializzazione” presente nella domanda di mercato. Pertanto, quanto maggiore risulterà essere quest’ultimo livello, tanto minore risulterà il suddetto limite. Dunque, alla luce delle riflessioni fin qui svolte, risulta lecito dubitare riguardo la correttezza di un approccio che affermi aprioristicamente la superiorità, in termini di efficienza, di un’architettura “aperta” rispetto ad una “semi-aperta”. Anzi, attraverso la suesposta comparazione, sembra potersi sostenere l’esatto contrario. Le imprese che implementano una strategia di controllo “aperta” si mostrano meno incentivate a svolgere la funzione di “intermediario”35 . Tuttavia, è dato osservare, che in presenza di particolari condizioni – di cui infra- l’implementazione di strategie “proprietarie” di controllo della “piattaforma” potrebbe causare vere e proprie distorsioni del processo concorrenziale. 2.2. Si apre il sipario: i timori della Commissione. 33 R. PARDOLESI, A. RENDA, 2004, 28, op. cit. 34 M.A. SCHILLING, 2000, op. cit., 318. 35 In primo luogo, è dato rilevare che lo scenario totalmente disintegrato, che contraddistingue una strategia di controllo “aperta”, dovrebbe comportare un relativo innalzamento del livello dei costi di transazione. Quindi, la sommatoria degli incentivi di ciascun ISV a svolgere la funzione di “intermediario” dovrebbe risultare inferiore rispetto all’ incentivo dell’ unico sponsor di un’architettura “semi-aperta”. Inoltre in tale ultimo scenario si assiste, nella fase di adozione, ad una tanto più feroce competizione “per” il mercato quanto più l’architettura “proprietaria” risulti “chiusa”. Tanto maggiore risulterà, quindi, il profitto atteso in caso di vittoria. Pertanto, il processo d’innovazione, in tali circostanze, dovrebbe essere caratterizzato, in modo preponderante, da uno sviluppo a “salti”. Ed in definitiva, quanto più drastiche sono le innovazioni tanto più difficile dovrebbe risultare, per il vincitore, l’implementazione di strategie volte ad innalzare barriere protettive. Invece, nell’ipotesi delle architetture “aperte”, il livello di co-opetizione risulterà inferiore - potendo queste liberamente utilizzare le innovazioni apportate da altri sulla “piattaforma” ed implementarvi modifiche atte ad aumentare la “performance” del proprio software applicativo. Il processo di innovazione si svilupperà, quindi, in modo incrementale. Pertanto, aumentando il lasso temporale - idoneo a realizzare una espansione della domanda di mercato equivalente a quella che si verificherebbe nel precedente scenario - si dovrebbe assistere ad un aumento del tasso di sconto praticato sul profitto atteso. Dunque, il volume delle risorse investite in R&S dovrebbe risultare inferiore rispetto alla situazione precedente –i.e. implementazione di un’ architettura “chiusa” o “semi-aperta”. D. J. TEECE, M. COLEMAN, The Meaning of Monopoly: Antitrust Analysis in High-Technology Markets, in 42 Antitrust Bulletin, 1998, 801ss.
  • 12. 12 La presenza di forti “effetti di rete”, dei “learning effects”36 , dei “rendimenti di scala crescenti” 37 e di una forma di competizione “per” il mercato - nella fase di adozione - può infatti innescare un vero e proprio “circolo vizioso”, tanto più forte quanto più la strategia di controllo del SO appaia implementare un’architettura “chiusa”. Ciò, producendo una perdita di “flessibilità” del mercato, aumenterebbe il rischio di “cristallizzazione” in equilibri sub-ottimali38 . In tale scenario la concorrenza potrebbe risultare eliminata attraverso l’utilizzo, da parte dell’impresa dominante, di diversi comportamenti strategici atti a manipolare gli “switching costs”: ora, provocando un aumento di quelli afferenti al proprio sistema, ora, una riduzione di quelli relativi ai sistemi concorrenti39 . In tal modo, erigendo 36 Questi effetti sono dovuti a causa dell’investimento idiosincratico che l’utente deve affrontare al fine di trarre l’utilità attesa dall’utilizzo di un dato prodotto. Ad esempio, per poter utilizzare un programma di videoscrittura l’ utente necessiterà di essere in possesso delle conoscenze necessarie sul funzionamento del SO e del software applicativo. Graficamente, la presenza di tali effetti determina una rotazione in senso orario della curva di domanda. Pertanto, in una situazione di quasi-monopolio, mantenendo invariate tutte le altre variabili, si dovrebbe assistere, rispetto ad uno scenario perfettamente concorrenziale, ad una diminuzione della quantità prodotta ed un aumento del prezzo. Tuttavia, prima di trarre affrettate conclusioni al riguardo, si dovrebbero tenere presenti due ulteriori considerazioni. In primo luogo, la maggiore rigidità della domanda di mercato potrebbe comportare un aumento dell’ incentivo, del quasi-monopolista, a fornire il livello di qualità socialmente desiderabile – ottimale- del prodotto in questione – si veda supra nota 27. Inoltre, in uno scenario caratterizzato dalla presenza degli “effetti di rete”, l’espansione della domanda di mercato potrebbe ben controbilanciare la riduzione di benessere di cui sopra. Si veda R. PARDOLESI, A. RENDA, 2002, 213 ss. 37 I “moduli” di un “sistema coputerizzato”, pur essendo assimilabili ai “complementors” che formano ad esempio una bicicletta, differiscono da questi ultimi per il fatto di essere componenti immateriali. Il produttore di un componente per biciclette potrebbe dover affrontare, infatti, un aumento dei costi delle materie prime utilizzate – dovuto, ad esempio, alla loro sopravvenuta scarsità. Invece, il produttore di un componente per un “sistema computerizzato” non affronterà mai tale scenario, in quanto la materia prima da lui utilizzata –i.e. bits - non potrà mai esaurirsi. Pertanto, quest’ ultimo, una volta investite le ingenti somme nel settore della R&S per lo sviluppo del sistema, sopporterà, nella fase di produzione, un livello di costi marginali quasi pari a zero. La produzione di un ”modulo” del “sistema computerizzato” sarà, quindi, caratterizzata da rendimenti di scala crescenti. Y. BAKOS, E. BRYNJOLFFSON, Shared Informaion Goods, in 42 Journal of Law and Economics, 1999, 117 ss.; C. SHAPIRO, H.R. VARIAN, 1999, op. cit.; D.J. TEECE, Information Sharing, Innovation and Antitrust, in 62 Antitrust Law Journal, 1994, 465 ss. 38 W.B. ARTHUR, Increasing Returns and Path Dependence in the Economy, University of Michigan Press, 1990. 39 Tali costi rappresentano l’altra faccia della medaglia della presenza dei “learning effects” – vedi supra nota 36. L’utente, infatti, a seguito dell’investimento idiosincratico nell’ imparare ad utilizzare, ad esempio il sistema A, deciderà di cambiare e sceglierà il sistema concorrente, ad esempio B, solo qualora la somma, del prezzo del sistema B e del nuovo investimento che dovrà effettuare per utilizzare tale sistema, risulti inferiore rispetto alla sommatoria del prezzo che dovrà pagare per aggiornare il sistema A e l’ammontare investito per usufruire a pieno degli aggiornamenti. Ciò, ovviamente, a parità di utilità ritraibile dall’utilizzo di entrambi i sistemi A e B. Gli “switching costs” rappresentano, quindi, il differenziale tra il prezzo del sistema concorrente, sommato ai costi che l’utente dovrà affrontare per imparare ad utilizzare detto sistema, ed il prezzo affrontato per rimanere fedele al sistema A. Si noti che, per l’ utente, gli investimenti sopportati per imparare ad utilizzare il sistema A sono oramai considerati “affondati”. Nella pratica, le imprese operanti nella produzione di software riescono attraverso l’utilizzo di differenti pratiche a manipolare i suddetti costi: ora, innalzando quelli afferenti al proprio sistema, ora, abbassando quelli dei sistemi avversari. Rendendo così, da una parte, più difficoltoso, per i propri utenti, passare ad utilizzare un sistema antagonista, dall’altra, più facile, per gli utenti dei sistemi concorrenti, il passaggio al proprio sistema. Ad esempio, il proprietario del de facto standard potrebbe esercitare i diritti di proprietà, di cui risulta essere titolare, ed utilizzare determinati meccanismi tecnici atti a rendere più difficile per i concorrenti l’interoperabilità con il proprio componente. Potrebbe implementare
  • 13. 13 vistose barriere all’ entrata, l’impresa potrebbe rendere stabile la posizione conquistata nel mercato trasferendo il proprio, attuale, vantaggio competitivo anche nelle future competizioni “per” il mercato. Questo sembra essere stato l’approccio della Commissione nel caso in esame. In particolare, Microsoft avrebbe strategicamente diminuito il livello di interoperabilità tra il proprio SO per servers ed i SO antagonisti – sia quelli per clients sia quelli per servers. Agli occhi della Commissione, ciò sarebbe avvenuto attraverso l’esercizio abusivo dei diritti di proprietà vantati su alcune delle “interfaccie” del SO “Windows Server”- si veda infra. Ergo, concludendo sul punto, solamente qualora si constati la presenza delle suaccennate condizioni40 e si riscontri un elevato grado di specializzazione della domanda nel mercato dei “networked systems”, si potrebbe palesare la necessità di imporre alle imprese l’adozione di architetture “aperte”, poiché più sicure ed efficienti rispetto a quelle c.d. “chiuse” o “semi-aperte”. 2.2.1. Considerazioni critiche. Malgrado la Commissione abbia cercato di dimostrare la presenza di tale scenario apocalittico, quest’ultimo non appare concretizzarsi appieno nel mercato dei “networked systems” – a differenza, invece, di quanto avviene in quello dei “client systems”. In primo luogo, i c.d. “learning effects” appaiono ridotti dalla presenza dei sysops. Non è dato riscontrare, infatti, che il consumatore finale debba effettuare alcun investimento idiosincratico al fine di trarre utilità da un “networked system”. Ciò risulta un dato di fatto tanto più indiscusso, quanto più si considerino reti di modeste dimensioni. I consumatori investono risorse per imparare ad utilizzare i software applicativi installati sui clients, ma non per l’utilizzazione dei SO per servers e dei loro strategie di vendita c.d. “a pacchetto” o “technological bundling”, oppure, aumentare in via incrementale le funzioni implementate dal proprio software e scegliere una strategia di “backward compatibility” – i.e. compatibilità della versione più recente del software con le precedenti, ma non il contrario. Per un’ampia disamina di tali ed altre pratiche si veda S. M. BESEN, J. FARRELL, Choosing How to Compete: Strategies and Tactics in Standardization, in 8/2 Journal of Economic Perspectives, 1994, 117 ss.; F. DENOZZA, Raising consumers’s costs as an antitrust problem: a sketch of the argument from Kodak to Microsoft (the European proceedings), in A. Cucinotta, R. Pardolesi, R. J. Van den Bergh (eds.), Post-Chicago developments in Antitrust Law, Cheltenham, 2002; S. C. SALOP, New Economic Theories of Anticompetitive Exclusion, in 56 Antitrust Law Journal, 1987, 57 ss.; S. C. SALOP, T. G. KRATTENMAKER, Appendix A: Analyzing Anticompetitive Exclusion, in 56 Antitrust Law Journal, 1987, 71 ss.; P. KLEMPTER, J. FARRELL, Coordination and Lock-In: Competition with Switching Costs and Network Effects, in http://www.paulklempter.org, 2001; J. FARREL, C. SHAPIRO, Dynamic Competition with switching costs, The RAND Journal of Economics, Spring, 1998, Vol.19, No. 1, 123 ss.; C. SHAPIRO, H. R. VARIAN, 1999, op. cit. 40 Infatti, linea teorica, qualora si riscontri la presenza di un monopolio Schumpteriano e delle suaccennate condizioni, è dato riscontrare un elevato incentivo in capo all’impresa dominante ad implementare le suddette tipologie di comportamenti strategici volti ad innalzare i costi dei rivali – supra nota precedente. Ciò è essenzialmente dovuto alla constatazione che i costi supportati dalla impresa dominante si possano rivelare, con alta probabilità, inferiori rispetto all’aumento dei profitti ottenibili qualora l’entrata del concorrente venga di fatto impedita. Ad esempio, in quanto all’impresa venga imposto, qualora voglia entrare, di farlo contemporaneamente in tutti i mercati che formano la catena del valore. R. A. POSNER, Antitrust in the New Economy, in http://papers.ssrn.com/, John M. Olin Law & Economics Working Paper No. 106, 2000.
  • 14. 14 software applicativi di gestione e manutenzione della rete. A tal fine preferiranno avvalersi di esperti della materia. Graficamente, non si assisterà, quindi, ad alcuna rotazione della domanda di mercato e, di conseguenza, ad un suo irrigidimento. Inoltre, è dato derivare, da tale ultima constatazione, un importante ulteriore corollario. Il fatto che gli utenti finali non utilizzino le postazioni servers come “piattaforme”, ad esempio per l’uso di programmi applicativi, comporta una implicita riconsiderazione restrittiva della forza degli “effetti di rete” presenti nel mercato preso in considerazione. Infine, per quanto concerne le reti di medio-grandi dimensioni, è possibile rinvenire, nella loro struttura, un elevato grado di eterogeneità. Si assiste, nella realtà del settore, alla contemporanea presenza, all’ interno dei “networked systems”, di “moduli” sviluppati da differenti produttori. La domanda di mercato per tali “complementors” si mostra caratterizzata da un elevato grado di specializzazione. Da un lato, quindi, le imprese produttrici saranno maggiormente incentivate ad investire risorse al fine di ottenere soluzioni in grado di garantire un maggiore livello di interoperabilità41 tra i propri prodotti – “moduli” per “client” o “networked systems” - ed il sistema che è riuscito ad imporre il proprio de facto standard. Dall’altro, l’impresa sponsor del sistema sarà incentivata a garantire un più elevato livello di interoperabilità quanto più la domanda per il sistema “ibrido” risulti maggiore di quella per il sistema “chiuso”42 . Con ciò ovviamente, non si vuol certo dire che bisognerebbe escludere completamente la possibilità che Microsoft abbia potuto intraprendere il comportamento strategico, di cui al precedente paragrafo, al fine di “cristallizzare” il proprio vantaggio competitivo nel mercato dei “client systems”. Tuttavia, in seguito a tali ultime considerazioni, la probabilità, che attraverso detta strategia Microsoft sia riuscita ad imporre la propria tecnologia anche nel mercato dei “networked systems”, dovrebbe essere ridimensionata. Come si avrà modo di dimostrare nel prosieguo, la Commissione non avrebbe dovuto, per le suddette ragioni, ritenere “per se” elevato il pericolo di “cristallizzazione” nel mercato dei “networked systems”. 3. La decisione della Commissione: la teoria dell’ “effetto leva” nell’Era dei “networked systems”. Teoricamente, per la realizzazione di una strategia c.d. di “ technological leveraging”, si necessita di provare l’esistenza di tre elementi. In primis, devono essere individuati ben due distinti, ma strettamente collegati, mercati rilevanti: quello in cui il potere di mercato è già presente – c.d. “tying market”- e quello in cui tale potere viene ad essere proiettato – c.d. “tied market”. In secondo luogo, deve essere accertato che l’impresa risulti dominante nel primo e nel secondo mercato – ciò, ovviamente, a causa del comportamento abusivo posto in essere. Infine, dovrà essere fornita la prova della idoneità dello strumento utilizzato dall’ impresa come “leva”. 3.1. La definizione del mercato rilevante nel metamorfico settore dell’ “hi-tech”: il mercato dei SO per "workgroup server”? 41 Si veda infra nota 61. 42 Si veda supra nota 25.
  • 15. 15 Nulla quaestio sulla individuazione del “tying market”. Il mercato dei SO per clients appare, di fatto, costituire un mercato indipendente. Tale definizione si mostra del tutto coerente con l’approccio finora utilizzato, risultando coincidere con il mercato dei “client systems” – supra para. 2.1- è dato distinguere tra “moduli” software e “modulo piattaforma”. Tuttavia, lo stesso non può essere detto con riguardo alla definizione, operata dalla Commissione, del “tied market”. Numerosi dubbi sorgono, infatti, circa la possibilità d’individuare il mercato dei SO per “workgroup server” come distinto ed indipendente rispetto al più ampio mercato dei SO per “networked system”. In primo luogo, infatti, la Commissione non sembra aver tenuto nella dovuta considerazione l’elevato grado di modularità presente nell’industria dei computers e le connesse difficoltà che si presentano nel corso della fase di individuazione dei mercati rilevanti. Il punto di partenza del consueto SSNIP test43 sembra, infatti, essere stato ristretto in maniera artificiosa. La definizione del “proxy” di mercato rilevante – i.e. definizione approssimativa che costituisce il punto di partenza del suaccennato test- è apparsa ab initio coincidente con quella del mercato dei SO per “workgroup servers” 44 . La Commissione, dopo aver definito quale “proxy” il mercato dei SO per servers, è giunta, sulla base di criteri assai discutibili - quali l’ “uso inteso” da parte dei consumatori finali 45 e le caratteristiche fisiche del bene di sistema 46 - ad operare un suo restringimento, definendo, quindi, il mercato rilevante come il mercato dei SO per “workgroup servers”. Secondo tale visione, i SO per “workgroup servers” svolgerebbero esclusivamente funzioni di “clustering” – i.e. atte ad aumentare la “scalabilità del sistema- mentre, ai SO ideati per “hi-level server” competerebbero esclusivamente le c.d. “missioni critiche”. Tale approccio risulta assai discutibile. La Commissione, una volta individuato il “proxy” nel mercato dei SO per servers, avrebbe dovuto procedere ad un suo restringimento solamente sulla base delle risultanze dello SSNIP test . Infatti, contrariamente a quanto aprioristicamente affermato dalla Commissione, la funzione di “clustering”47 non sembra essere circoscritta al solo mercato rilevante come da questa definito. Tale funzione, contraddistingue ogni sistema operativo sviluppato per postazioni server. E’ questa mansione che permette al SO di rendere “scalabile” il “networked system” – i.e. aumento esponenziale della potenza di calcolo 43 (Small but Significant Increase in Price). 44 A. C. HRUSKA, A Broad Market Approach to Antitrust Product Market Definition in Innovative Industries, in 102 Yale Law Journal, 1992, 305 ss. 45 Commissione Europea, Decisione C(2004)900 final, supra nota 1, para. 345. 46 Sulla inopportunità di criteri, quali l’ “uso inteso” e le caratteristiche fisiche del bene, si veda R. J. VAN DEN BERGH, CAMESASCA P.D., European Competition Law and Economics, Interesentia, 2001, 97-117. 47 “A computer cluster is simply a group of otherwise independent systems operating as a single, locigal unit. Client systems function as if they were part of a single server. Clustering promises to reduce downtime and to expand system power. The utilisation of clustering servers takes two basic forms: scalability and redundancy and accessibility. The first means that clusters allows system to share incremental additions of memory, CPUs, and storage devices. The sharing of resources permits the cluster to grow in relative power. Conceptually, when a cluster is overloaded, other servers can be added. “Redundancy and accessibility” means that the cluster also provides fail over support in the event of computer failures - as it is for the RAID function for hard disks”. W. E. B. GARDNER, 1998, 302 e 310- 12, op.cit.
  • 16. 16 dell’intera rete causato dallo sfruttamento decentrato e razionalizzato delle prestazioni delle varie postazioni. Inoltre, la Commissione non avrebbe dovuto considerare le c.d. “missioni critiche” – i.e. “firewall”, “redundancy” o “database management”- come indipendenti dalla funzionalità di “clustering”. Pertanto non avrebbe dovuto utilizzarle al fine di delineare una sorta di spartiacque tra il mercato dei SO per servers di “alto” e “basso” livello. Tale ultima distinzione, mutuata dal settore dei produttori di hardware, mal si presta ad essere trasposta, sic et simpliciter, nel settore dei produttori di SO. A meno che, ovviamente, non si voglia ingenerare una pericolosa ed artificiale commistione tra i due livelli della filiera, che dovrebbero, invece, rimanere ben distinti48 . Le c.d. “missioni critiche” dovrebbero riferirsi, pertanto, solo al tipo di hardware piuttosto che al tipo di SO utilizzato. Perciò, contrariamente all’approccio seguito dalla Commissione, non dovrebbe essere consentito di inferire dalla pratica di commercializzazione c.d. a “pacchetto” – i.e. SO e hardware- che il SO , ivi inserito, debba essere utilizzato esclusivamente per permettere alla postazione server di svolgere le c.d. “missioni critiche”49 . L’Autorità avrebbe dovuto utilizzare lo SSNIP test, al fine di accertare la correttezza delle proprie intuizioni. Avrebbe potuto ipotizzare, infatti, il verificarsi di un aumento di prezzo del SO “Windows 2003 server - standard edition” - ad esempio del 5-10%- e vedere se si sarebbe ottenuto un sufficiente grado di sostituibilità con un altro prodotto. Ad esempio, con il SO Linux. Tale effetto di sostituzione si sarebbe potuto riscontrare, sia, dal lato della domanda di mercato, sia, dal lato dell’offerta. Considerato, infatti, l’utilizzo della c.d. strategia di “versioning”50 , l’effetto si sarebbe potuto verificare anche su quest’ultimo fronte. Vieppiù, date le brevi tempistiche necessarie per l’implementazione di tale pratica, la Commissione avrebbe potuto – e dovuto- considerare l’impatto di tale fenomeno nella stessa fase di definizione del mercato rilevante. Ad esempio, con il SO di Sun. E’ vero che tale software viene appositamente elaborato per essere utilizzato su di una postazione server con una potenza di calcolo molto elevata. Tuttavia, dato l’aumento di prezzo, Sun sarebbe potuta risultare sufficientemente incentivata a disabilitare alcune delle funzioni del proprio SO – ad esempio “Sun One” – al fine di entrare nel mercato servito dalla suaccennata versione del SO Microsoft. La Commissione, inoltre, avrebbe potuto utilizzare una versione più raffinata del precedente strumento, al fine di strutturare una sorta di “prova del nove” circa la correttezza delle proprie risultanze. Lo SSNIPP 51 , forma più estesa del precedente test, dimostra, infatti, di tenere in maggiore considerazione l’elevato utilizzo dei diritti di proprietà intellettuale ed il notevole grado di fluidità che contraddistinguono il settore considerato. Con tale metodo, assumendo costante il livello di prezzo, si sarebbero potuti analizzare gli effetti competitivi causati da una ipotetica variazione del livello di “performance” del SO in un orizzonte temporale di 3-4 anni. Si tenga presente che tale lasso temporale risulta un’approssimazione conservativa del tempo necessario affinché, 48 Commissione Europea, Decisione C(2004)900 final, supra nota 45, paras. 346, 364. 49 Tale strategia di commercializzazione - utilizzata da imprese come HP, IBM e Sun Microsystem- sembra aver giocato un ruolo fuorviante nell’analisi della Commissione. Ibid. para. 359 e ss. Per un’ appronfondita disamina relativa alle strategie di commercializzazione invalse nel settore si veda H. R. VARIAN, 2003, 13 ss. op. cit. 50 Si veda supra nota 7. 51 (Small but Significant Increase in Price and Performance). Si veda D. J. TEECE, M. COLEMAN, 1998, 801 ss., op. cit.
  • 17. 17 dall’introduzione nel mercato della c.d. versione “beta”, l’impresa possa sviluppare e mettere a disposizione pubblicamente una versione più evoluta della precedente. Si prenda ad esempio, il passaggio verificatosi dal SO “Windows NT” all’odierno “Windows 2000”. Si sarebbe potuto, pertanto, procedere nel modo seguente. La Commissione avrebbe dovuto, innanzitutto, prendere quale parametro di riferimento del livello di “performance” la funzionalità di “clustering” o “scalabilità” – consistente nella variazione del numero di clients controllati da un unico SO per server. Quindi, avrebbe dovuto ipotizzare il verificarsi di un aumento di “scalabilità” del SO “Windows 2003 server” – ad esempio del 25%- mantenendo invariato il prezzo dello stesso. Infine, avrebbe dovuto accertare la presenza o meno dell’effetto di sostituzione, ad esempio, con il SO Linux o Unix - in tutte le loro molteplici “fragranze”. Infine, solo sulla base dei risultati così ottenuti, avrebbe potuto procedere rispettivamente ad un allargamento o restringimento della propria definizione del mercato rilevante 52 . Purtroppo, la Commissione, preferendo l’utilizzo dei suaccennati opinabili criteri, non ha neanche considerato la possibilità di utilizzare lo SSNIPP test 53 . Tale scelta avrebbe potuto fondarsi su di un’appropriata giustificazione – almeno apparentemente. Ad esempio, qualora fosse stata basata sulla constatazione che, altrimenti, l’analisi svolta avrebbe rischiato di incorrere nella c.d. “cellophane fallacy”54 . Tuttavia, in primo luogo, è dato notare che tale giustificazione non potrebbe essere neanche ipotizzata come implicitamente sottesa al ragionamento svolto dalla Commissione sul punto. Qualora, infatti, ciò venisse per assurdo supposto, l’iter logico seguito dalla Commissione sarebbe stato tacciato, in maniera incontrovertibile, di manifesta illogicità. Da un lato, la Commissione avrebbe fatto uso – come in realtà è avvenuto55 - del semplice SSNIP test, il quale non risulta, comunque, immune dal suddetto pericolo. Dall’altro, invece, avrebbe giustificato il mancato utilizzo di uno strumento più evoluto asserendo che i risultati del test avrebbero potuto essere distorti? Inoltre, anche se la Commissione avesse adotto esplicitamente una tale argomentazione e coerentemente non avesse fatto alcun uso del test nemmeno nella sua forma più semplice, si sarebbe potuto, ciononostante, controargomentare nel modo seguente. Bisogna notare, infatti, che Microsoft risultava – come risulta tuttora- essere l’impresa entrate nel mercato dei SO per servers. Da ciò, quindi, il rilievo che i risultati ottenuti attraverso l’utilizzo dello SSNIPP test non sarebbero stati falsati, potendosi correttamente assumere che il prezzo, praticato dall’impresa, fosse il più possibile vicino a quello competitivo - se non addirittura sottocosto. 52 All’ uopo dovrebbero essere utilizzati dei moduli o questionari con domande ben strutturate. 53 A. C. HRUSKA, 1992, 305 ss., op. cit.; C. ALBORN, D. EVANS, A.J. PADILLA, Competition Policy in the New Economy: Is European Competition Law Up to the Challenge?, in 22 European Competition Law Review, 2001, 156 ss. 54 Stante, infatti, la prospettiva analitica ex-post, l’ applicazione del disposto dell’ art. 82 TCE presuppone inevitabilmente che l’impresa abbia già acquistato un certo livello di potere di mercato. Pertanto, l’analisi svolta dalla Commissione avrebbe potuto prendere, quale “benchmark” del prezzo competitivo, il prezzo prevalente nel mercato, che lungi dal risultare competitivo sarebbe stato, invece, monopolistico o quasi. S. C. SALOP, The first principles approach to antitrust, Kodak, and antitrust at the millennium, in 68 Antitrust Law Journal, 2000, 187. 55 Decisione C(2004)900 final, supra paras. 334, 338, 395. Tuttavia, lo SSNIP test è stato utilizzato solo nell’accertamento della sostituibilità dell’ offerta nella fase II – i.e. di accertamento del potere di mercato.
  • 18. 18 3.1.1. La posizione dominante e le barriere tecnologiche all’entrata. Dalle considerazioni sin qui svolte appare con tutta evidenza che l’accertamento della posizione dominante sul “tied maket” è stato reso tanto più semplice, quanto più la Commissione è riuscita a far coincidere la definizione del mercato stesso con la versione “base” del SO per servers prodotto da Microsoft. Tuttavia, tale artificiosa restrizione, da sola, non sarebbe stata sufficiente per concludere positivamente un accertamento della posizione dominate. Infatti, l’ iter stabilito dalla Commissione, nella Comunicazione del ’97 sulla definizione del mercato rilevante, impone a tal fine di tenere in considerazione anche il livello di concorrenza potenziale - attraverso l’accertamento, dal lato dell’offerta, della sostituibilità del prodotto e la presenza di barriere all’ingresso. L’accertamento della “posizione dominante” viene normalmente condotto attraverso l’utilizzo della quota di mercato, dell’impresa accusata, quale “proxy” del relativo potere di mercato. Ora, a parte l’ovvia constatazione che tale metodo di misurazione appare assai discutibile specialmente nel settore dell’ “hi-tech”56 , è dato constatare, come autorevolmente asserito, che nel caso in questione tale metodo sia stato ostentatamente strutturato al fine di ottenere un accertamento della posizione di dominanza detenuta da Microsoft nel mercato dei SO per “workgroup servers”57 . Inoltre, passando all’ accertamento riguardante il livello di contestabilità di tale mercato, la Commissione ha sì provveduto ad indicare il fattore che avrebbe potuto rappresentare una barriera all’ingresso, tuttavia non ha successivamente fornito alcuna quantificazione al riguardo. Mediante, infatti, un approccio, che consideri lo stretto legame sussistente tra il mercato dei SO per clients e quello per servers, è dato qualificare il primo come mercato “primario” ed il secondo come mercato “secondario”. E’ in sostanza il primo mercato, attraverso i programmi applicativi, a guidare la domanda anche nel mercato “secondario”. Giustamente, quindi, sarebbe possibile individuare le barriere all’ingresso del mercato “secondario” nel mercato “primario”, o ancora meglio nel mercato dei programmi applicativi. Ciononostante, tali barriere dovrebbero essere successivamente quantificate. Solo in tale modo sarebbe possibile acclarare se vi sia o meno un livello sufficiente di concorrenza potenziale tale da limitare l’agire indiscriminato di Microsoft nel mercato “secondario”. Le barriere all’entrata dovrebbero consistere nella differenza asimmetrica tra i costi supportati dall’impresa già presente nel mercato - ed ora completamente “affondati”- ed i costi nei quali l’ impresa entrante dovrà incorrere. I costi fissi, anche se soggettivamente elevati, non costituiscono di per sé una barriera. Ciò è tanto più vero, 56 C. ALBORN, D. EVANS, A. J. PADILLA, 2001, 156 ss., op. cit.; W. A. SHEREMATA, New Issues in Competition Policy Raised by Information Technology Markets, in 43 Antitrust Bulletin, 1998, 547 ss., D.J. TEECE, M. COLEMAN, 1998, 801ss., op. cit.; D.L. RUBINFELD, 1998, 859 ss., op. cit; D. A. BALTO, R. PITOFSKY, 1998, 583 ss., op. cit. 57 R. PARDOLESI, A. RENDA, 2004, 42 ss., op. cit. Gli A. mostrano, infatti, come l’Autorità abbia utilizzato in modo “invertito” i parametri mediante i quali calcolare le quote di mercato detenute da Microsoft nel mercato dei SO per “clients” ed in quello per “workgroup servers”. Per il primo è stato utilizzato un calcolo delle quote basato sul valore. Per il secondo, invece, un metodo basato sulle unità. Infine, deve notarsi che la Commissione, recependo le critiche mosse da Microsoft su tale modo di procedere, ha sì provveduto a cambiare il metodo di calcolo utilizzato, ma solo limitatamente al mercato dei SO per clients – mercato nel quale la posizione di dominanza di Microsoft risulta ampliamente accertata. Rimane, quindi, del tutto opinabile l’accertamento della posizione dominante dell’ impresa nel secondo dei suaccennati mercati.
  • 19. 19 qualora si tenga nella dovuta considerazione, sia, l’ampiezza del mercato in questione, sia, i considerevoli profitti attesi dalle imprese che competono “per” il mercato. Tuttavia, la constatazione che la Commissione non abbia neanche tentato di abbozzare una tale quantificazione inevitabilmente mortifica la correttezza del proprio approccio, inficiandone i risultati ottenuti. 3.2. La condotta abusiva o l’abuso del concetto di “super-dominance”? Nella disciplina antitrust comunitaria il limite della posizione “dominante” lungi dall’essere un mero prerequisito sostanziale dell’abuso – come accade per la disciplina statunitense- svolge una funzione particolare. Il superamento di detto limite comporta, infatti, il sorgere in capo all’impresa di una particolare responsabilità. La Commissione dovrà, comunque, fornire una prova dell’abuso – i.e. capacità dell’ impresa, data la sua posizione, di comportarsi in maniera indipendente dai propri concorrenti attuali e potenziali. Ed in mercati, come quelli qui analizzati, caratterizzati da forme oligopolistiche di concorrenza e da un elevato grado di co-opetizione, sarà inoltre tenuta a corroborare tali prove mediante l’utilizzo di argomentazioni e modelli economici. Una volta raggiunto il “livello minimo” di prova si assisterà al sorgere di una presunzione juris tantum di abuso e ad una, consequenziale, inversione dell’onere probatorio in capo all’impresa accusata. Quest’ultima, quindi, per vincere la presunzione, dovrà fornire la c.d. probatio diabolica – i.e. prova delle “ragioni oggettive” dell’effetto pro-concorrenziale della pratica. In linea teorica, quindi, quanto più l’impresa risulti essere dominante tanto più stringente risulterà la propria responsabilità e tanto minore dovrà essere il “livello minimo” della prova fornito dalla Commissione. Si è già avuto modo di sintetizzare, all’inizio del presente paragrafo, i requisiti di cui un’impresa necessita al fine di implementare una strategia di “technological leveraging”. Pertanto, tenendo a mente le considerazioni già svolte con riguardo ai primi due requisiti e tale suaccennato rapporto tra accertamento della posizione di dominanza e livello minimo della prova del comportamento abusivo, si procede, ora, a svolgere l’esame circa la sussistenza del terzo requisito - i.e. idoneità dello strumento “leva” a realizzare il proprio fine. Al riguardo, la Commissione ha affermato che lo strumento “leva”, utilizzato da Microsoft per proiettare il proprio potere di mercato anche nel mercato dei SO per “workgroup servers”, sia consistito nel rifiuto di fornire informazioni riguardanti le APIs, il Kerberos58 , l’Active Directory59 e le CALs60 implementate nel proprio SO per servers. Ciò sarebbe avvenuto, sia, attraverso l’esercizio dei propri diritti vantati su tali componenti, sia, mediante procedure tecnico-informatiche –i.e. diretta implementazione del SO in codice binario. Tale comportamento, secondo la Commissione, eliminando ogni possibilità d’interoperabilità con i SO clients e servers delle imprese concorrenti, 58 Il Kerberos è un protocollo di sicurezza implementato nelle versioni successive all’avvento di Windows 2000. K. C. MANSFIELD, J.L. ANTONAKOS, 2002, op. cit. 59 L’ Active Directory altro non è che uno dei componenti principali di tutte le diverse edizioni di SO successive all’avvento di Windows 2000. Il suo principale scopo è quello di gestire in maniera ottimizzata le funzioni di “clustering” – i.e. file-sharing, file-printing, etc. Si veda http://www.microsoft.com/italy/windows2000/technologies/directory/activedirectory.asp 60 (Clients Access Licences).
  • 20. 20 avrebbe permesso a Microsoft di eliminare le pressioni concorrenziali da quest’ultime esercitate. Come si è avuto modo di notare – vedi para. 2.2- non è possibile procedere ad una aprioristica esclusione della possibilità che la suddetta strategia possa essere stata adottata con successo. Tuttavia, alcune considerazioni critiche meritano di essere svolte. In primo luogo – si veda para. 2.2.1- il pericolo di “cristallizzazione” della posizione di Microsoft anche nel mercato dei SO per servers appare improbabile. Il “tied market”, infatti, non sembra essere caratterizzato da elevati “switching costs”, né da elevati “effetti di rete” e la relativa domanda di mercato appare alquanto specializzata. In secondo luogo, il concetto d’interoperabilità, utilizzato dalla Commissione, appare avulso dal contesto economico presente nel settore oggetto d’ indagine. Vi sono, infatti, varie gradazioni di interoperabilità e vari modi per ottenerla – unilateralmente o bilateralmente61 . La Commissione non sembra aver dato il dovuto peso a tali considerazioni, né alla constatazione che l’implementazione di architetture “semi- aperte” implica, di per sé, la presenza di un determinato livello di interoperabilità62 . Essa, propendendo per una accezione più flessibile del termine, avrebbe dovuto accertare se detto livello di interoperabilità, garantito da Microsoft ai SO non nativi, fosse qualificabile come razionale anche qualora non avesse provocato l’uscita dal mercato di imprese concorrenti63 . Non solo. La Commissione avrebbe, anche, potuto propendere per l’utilizzo di un diverso approccio. Volto, ad esempio, a dimostrare che l’ implementazione dell’Active Directory, del Kerberos64 e delle CALs fosse strumentalizzata al fine di manipolare le aspettative dei consumatori finali nel corso della fase di adozione della nuova tecnologia nel mercato dei servers. Ad esempio, peggiorando il livello di “performance” di altri sistemi operativi servers o clients all’ interno del proprio “networked system”. Tale modo di agire avrebbe potuto, in effetti, intaccare profondamente e rovinare la reputazione dei propri concorrenti attuali o potenziali agli occhi dei consumatori finali, permettendo, in definitiva, a Microsoft di imporre la propria tecnologia, anche, all’interno del “tied market”. Purtroppo, la Commissione non ha fornito alcuna delle su richiamate “prove” economiche. Ciononostante, è riuscita ad imporre la propria decisione. Attraverso, infatti, l’accertamento della posizione di “super dominance” 65 nel mercato dei SO per 61 “ […] by reverse-engineering, by porting the protocol into the system which is not provided with it or by the use of simulators or adapters [...]Examples of NFS third party porting are for example Intergraph’ AccessNFS or Hummingbird’s Maestro […]”. W. E. B. GARDNER, 1998, 312, op. cit. Per alcuni esempi di come garantire accesso ed interoperabilità tra il SO Windows server e Linux si veda D. ELSON, Active directory and Linux, in http://online.securityfocus.com/infocus, 2002. 62 Si veda supra nota 25. 63 M. MOTTA, Competition policy: theory and practice, Cambridge University Press, (2004), 483 ss. 64 R. M. HENDERSON, Declaration presented at the remedy hearing hold by Judge Kollar- Kotelly, in www.usdoj.gov/atr/, Apr. 28 2000. 65 Il concetto di “super dominance” venne utilizzato, per la prima volta, in due casi emblematici. Precisamente in AKZO Chemie BV v. Commission e in Tetra PakII. In entrambi i casi la Corte asserì che la prova del “recupero” delle perdite supportate per implementare la strategia ritenuta abusiva non dovesse essere fornita. Con riferimento alla pratica di “prezzi predatori” si veda il Caso C-62/86, AKZO Chemie BV v. Commission, C.M.L.R., (1993), Vol. 5, p. 215. Con riguardo, invece, ad un caso di abuso mediante la strategia dell’ “effetto leva” si veda il Caso T-83/91, Tetra Pak International SA v. Commission, C.M.L.R., (1997), Vol. 4, p. 726, paras. 109-110, e Caso C-333/94P, Tetra Pack International SA v. Commission, C.M.L.R., (1997), Vol. 4, 662.
  • 21. 21 clients e la assai discutibile restrizione del mercato dei SO per servers è riuscita a ridurre oltre il minimo il livello dello “standard di prova” ed a conseguire l’inversione dell’onere probatorio. 4. Conclusioni. La facoltà di utilizzare il concetto di “super dominance” ha conferito alla Commissione maggiori spazi di discrezionalità decisionale. L’ampliamento di tale potere ha determinato un vistoso aumento del rischio connesso all’imposizione di “scelte”, contenenti errori di tipo “falso-positivo”, che purtroppo, lungi dal risultare circoscritto al singolo caso in esame, fatalmente si è esteso, in tempi rapidissimi, ad un’ intero settore economico. Infatti lo scenario frenetico ed instabile, in cui operano i produttori dei “moduli piattaforma” per i “networked systems”, rappresenta il cuore pulsante di tutta l’industria dell’ “hi-tech”. Pertanto, alla luce delle considerazioni svolte dal Presidente del Tribunale CE nell’acclarare la sussistenza del fumus boni juris - i cui punti salienti sono stati ricostruiti e sviluppati cercando di palesare le numerose macchie d’ombra che oscurano l’intelaiatura logico-argomentativa della decisione – risulta di estrema importanza, qualora non si voglia menomare il principio di certezza del diritto, che venga dichiarata, nel minor tempo possibile, l’illegittimità di tale provvedimento a causa del mancato raggiungimento del livello “minimo di prova”66 . Questo risulta, l’arduo compito che il Tribunale CE è chiamato a svolgere, ora che il caso risulta davanti a sé pendente. Solo liberando la disciplina antitrust dalle catene dell’immaginifico –che, nel presente caso, traslando la figura del mitologico mostro Idra sul gigante Microsoft, vorrebbe giustificare agli occhi dei consumatori i tentativi che vengono sferrati con l’obiettivo di abbatterlo- ed ancorandola ad una solida base di analisi economica si garantirebbe una sua maggiore rispondenza al principio di certezza del diritto ed un suo più effettivo allineamento con il solo obiettivo che da essa dovrebbe essere perseguito – i.e. la massimizzazione del benessere dei consumatori. 66 Il requisito del livello “ minimo di prova” dovrebbe essere ritenuto indispensabile, e quindi non manipolabile, qualora si voglia garantire, con un efficiente livello di probabilità, che lo svolgimento di un processo antitrust risulti soprattutto “giusto”.