1. Sistemas de Big Data
Ricardo García Ródenas
Ricardo.Garcia@uclm.es
Complejidad
computacional
2. Dobla cada 18 meses
Dobla cada 12 meses
No hay suficientes
datos para tomar
buenas decisiones
Volumen de datos
Potencia de
procesamiento
Complejidad
sistémica
Años
Complejidad
computacional
Duplicación
digital
Big Data permite
la toma de decisiones
basada en evidencias
3. Tiempo de
ejecución
f𝒜(n) número de operaciones de 𝒜
Ordenación de un vector
(método burbuja)
n tamaño del vector
f𝒜(n) ≤ an2
+ bn + c
𝒜 ≡ O(n2
)
Complejidad
computacional
32 3 17 …
7. AcCvidad ▪ Método burbuja
▪ Ordenación por mezcla
▪ Ordenación Radix
(recursiva)
O(n2
)
O(n log10 n)
O(n3
)
▪ 1 millón
▪ 3000
▪ 1000
millones
Considerar ordenación de un
vector de n=1000
Método Operaciones
Complejidad
computacional
8. AcCvidad ▪ Ordenación Shell
▪ Ordenación exhaustiva
O(n1.5
)
O(n!)
▪ 31623
▪
desde un
punto de
vista
práctico
≈ + ∞
Considerar ordenación de un
vector de n=1000
Método Operaciones
Complejidad
computacional
9. Sistemas de Big Data
Ricardo García Ródenas
Ricardo.Garcia@uclm.es
Complejidad
computacional
• Tiempo de ejecución
• P/NP