Escribes una URL en el navegador1
Se hace una petición DNS
para traducir el hostname de
la URL a su dirección IP
2
Se hace una petición HTTP a esa IP pidiendo el recurso / y se
recibe el resultado, normalmente un fichero .html
3
www.wikipedia.org
91.198.174.225
91.198.174.225
GET / HTTP/1.1
...
HTTP/1.1 200 OK
...
$#
El navegador comienza a renderizar el HTML y hace más
peticiones [DNS+] HTTP para cada recurso (css, img, js, etc)
que encuentre referenciado en el código (src=..., href=...)
4
<div class="central-featured-logo-inner">
<img src="//upload.wikimedia.org/wikipedia/commons/Wikipedia-logo.png">
</div>
A partir de aquí, y hasta la próxima petición HTTP que fuerce
una recarga completa de la página, todo lo que puede ocurrir
son efectos CSS y código JavaScript.
5
Desde JavaScript podemos hacer peticiones HTTP asíncronas
(AJAX) que fuercen acciones en el servidor y como resultado
realicen cambios en el DOM de la página.Y esto es todo.
El navegador comienza a renderizar el HTML y hace más
peticiones [DNS+] HTTP para cada recurso (css, img, js, etc)
que encuentre referenciado en el código (src=..., href=...)
4
<div class="central-featured-logo-inner">
<img src="//upload.wikimedia.org/wikipedia/commons/Wikipedia-logo.png">
</div>
A partir de aquí, y hasta la próxima petición HTTP que fuerce
una recarga completa de la página, todo lo que puede ocurrir
son efectos CSS y código JavaScript.
5
Desde JavaScript podemos hacer peticiones HTTP asíncronas
(AJAX) que fuercen acciones en el servidor y como resultado
realicen cambios en el DOM de la página.Y esto es todo.
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Respuesta
Petición
$
#
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
Un recurso se identifica mediante una URL
<OPERACIÓN> <recurso> HTTP/1.1
protocol://[user:pass@]host[:port][/resource]
en http, por defecto:
user = pass =
port = 80
resource = /
http://www.wikipedia.org:80/
<OPERACIÓN> <recurso> HTTP/1.1
Las URLs son parte fundamental
del diseño de una aplicación web
http://www.wordpress.org/
http://www.wordpress.org/about/
http://www.wordpress.org/support/
http://www.wordpress.org/extend/themes/
http://www.wordpress.org/extend/themes/montezuma
...
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
GET Obtiene un recurso. No debería producir cambios.
POST
PUT
Crea un recurso.
Reemplaza o crea un recurso.
DELETE Elimina un recurso.
<OPERACIÓN> <recurso> HTTP/1.1
HEAD Como GET, pero pide sólo las cabeceras.
TRACE Diagnóstico.
OPTIONS Pregunta por los métodos que soporta el servidor.
CONNECT Diagnóstico.
<OPERACIÓN> <recurso> HTTP/1.1
REST es un enfoque de diseño de APIs que,
entre otras cosas, explota la pureza de estos conceptos
http://example.com/recetas/
http://example.com/recetas/453
PUT
GET
POST
DELETE
PUT
GET
POST
DELETE
Lista las URIs de recetas y quizá otros detalles.
Reemplaza la colección de recetas por una nueva.
Inserta una nueva receta y devuelve su URI.
Borra la colección de recetas.
Devuelve el detalle de una receta.
Reemplaza o crea (si no existe) una receta.
---
Borra una receta.
La navaja suiza de las URLs
$ curl example.com/recetas
$ curl -XGET example.com/recetas
$ curl -XPOST example.com/recetas
$ curl -XPUT example.com/recetas
$ curl -XDELETE example.com/recetas
cURL
La navaja suiza de las URLs
$ curl example.com/recetas
$ curl -XGET example.com/recetas
$ curl -XPOST example.com/recetas
$ curl -XPUT example.com/recetas
$ curl -XDELETE example.com/recetas
cURL
$ curl -X GET google.com
<HTML><HEAD><meta http-equiv="content-type"
content="text/html;charset=utf-8">
<TITLE>301 Moved</TITLE></HEAD><BODY>
<H1>301 Moved</H1>
The document has moved
<A HREF="http://www.google.com/">here</A>.
</BODY></HTML>
cURL
La navaja suiza de las URLs
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
<cabeceras>
Son parejas Clave: valor que transmiten al
servidor información acerca de la request
Accept: text/plain
Accept-Charset: utf-8
Accept-Encoding: gzip, deflate
Accept-Language: en-US
Accept-Datetime: Thu, 31 May 2007 20:35:00 GMT
Authorization: Basic QWxhZGRpbjpvcGVuIHNlc2FtZQ==
Cache-Control: no-cache
Connection: keep-alive
Cookie: $Version=1; Skin=new;
Content-Length: 348
cURL:cuerpo de una petición
$ curl -v -X POST localhost:8000/jugadores/ -d "username=pablo"
* About to connect() to localhost port 8000 (#0)
* Trying ::1...
* Connection refused
* Trying 127.0.0.1...
* connected
* Connected to localhost (127.0.0.1) port 8000 (#0)
> POST /jugadores/ HTTP/1.1
> User-Agent: curl/7.24.0 (x86_64-apple-darwin12.0) libcurl/7.24.0 OpenSSL/0.9.8r zlib/1.2.5
> Host: localhost:8000
> Accept: */*
> Content-Length: 14
> Content-Type: application/x-www-form-urlencoded
>
* upload completely sent off: 14 out of 14 bytes
* HTTP 1.0, assume close after body
< HTTP/1.0 200 OK
< Date: Mon, 06 May 2013 07:48:08 GMT
< Server: WSGIServer/0.1 Python/2.7.2
< Content-Type: text/html; charset=utf-8
<
...
...
* Closing connection #0
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
HTTP/1.1 <código> <descripción>
200 OK
201 Created
202 Accepted
203 Non-Authoritative Information
204 No Content
205 Reset Content
206 Partial Content
✓
ℹ
1XX Informational
2XX Success
100 Continue
101 Switching Protocols
300 Multiple Choices
301 Moved Permanently
302 Found
303 See Other
304 Not Modified
305 Use Proxy
306 (Unused)
307 Temporary Redirect
3XX Redirection
HTTP/1.1 <código> <descripción>
#
4XX Client Error
400 Bad Request
401 Unauthorized
402 Payment Required
403 Forbidden
404 Not Found
405 Method Not Allowed
406 Not Acceptable
407 Proxy Authentication Required
408 Request Timeout
409 Conflict
410 Gone
411 Length Required
412 Precondition Failed
413 Request Entity Too Large
414 Request-URI Too Long
415 Unsupported Media Type
416 Requested Range Not Satisfiable
417 Expectation Failed
500 Internal Server Error
501 Not Implemented
502 Bad Gateway
503 Service Unavailable
504 Gateway Timeout
505 HTTP Version Not
Supported
5XX Server Error
$
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
<cabeceras>
Access-Control-Allow-Origin: *
Accept-Ranges: bytes
Age: 12
Allow: GET, HEAD
Cache-Control: max-age=3600
Connection: close
Content-Encoding: gzip
Content-Language: en
Content-Length: 348
Content-Location: /index.html
Content-MD5: Q2hlY2sgSW50ZWdyaXR5IQ==
Content-Disposition: attachment; filename="f.txt"
<cabeceras>
Content-Range: bytes 21010-47021/47022
Content-Type: text/html; charset=utf-8
Date: Tue, 15 Nov 1994 08:12:31 GMT
ETag: "737060cd8c284d8af7ad3082f209582d"
Expires: Thu, 01 Dec 1994 16:00:00 GMT
Last-Modified: Tue, 15 Nov 1994 12:45:26 GMT
Link: </feed>; rel="alternate"[25]
Location: http://www.w3.org/pub/WWW/People.html
P3P: CP="This is not a P3P policy! See..."
Pragma: no-cache
Proxy-Authenticate: Basic
Refresh: 5; url=http://...
HTTP
Protocolo de manipulación de recursos, sin estado
<OPERACIÓN> <recurso> HTTP/1.1
<cabeceras>
<cuerpo>
HTTP/1.1 <código> <descripción>
<cabeceras>
<cuerpo>
Petición
Respuesta
$
#
HTTP/1.1 200 OK
Content-Type: text/html
Date: Thu, 31 May 2007 20:35:00 GMT
<html>
<body>
<h1>Hello world</h1>
</body>
</html>
HTTP/1.1 304 Not Modified
Date: Thu, 06 Jun 2007 19:40:00 GMT
HTTP Imprescindible
HTTP/1.1 301 Moved Permanently
Location: http://www.example.com/new/url/
HTTP/1.1 302 Found
Location: http://www.example.com/other/url/
HTTP/1.1 303 See Other
Location: http://www.example.com/other/url/
HTTP/1.1 307 Temporary Redirect
Location: http://www.example.com/other/url/
http 1.0
http 1.1
GET
XXX
GET
XXX
HTTP Imprescindible
HTTP/1.1 400 Bad Request
HTTP/1.1 401 Unauthorized
WWW-Authenticate: Basic realm="..."
HTTP/1.1 403 Forbidden
HTTP/1.1 404 Not Found
HTTP/1.1 405 Method Not Allowed
HTTP/1.1 410 Gone
HTTP Imprescindible
HTTP/1.1 500 Internal Server Error
HTTP/1.1 501 Not Implemented
HTTP/1.1 502 Bad Gateway
HTTP/1.1 503 Service Unavailable
HTTP Imprescindible
Cookies
Solucionan la falta de estado del protocolo HTTP
$#
$#
Son simples strings que se almacenan en el navegador
GET / HTTP/1.1
...
GET / HTTP/1.1
Cookie: sessionid=xxx
HTTP/1.1 200 OK
Set-Cookie: sessionid=xxx
HTTP/1.1 200 OK
...
Cliente Servidor
Cookies
Set-Cookie: sessionid=xxx; Domain=docs.foo.com; Path=/accounts;
Expires=Wed, 13 Jan 2021 22:23:01 GMT; Secure; HttpOnly
En qué requests debería enviarse como Cookie:Domain + Path
Expires Cuándo el User-Agent debería borrar la cookie
Secure Sólo debe enviarse si el tráfico es https
HttpOnly Sólo accessible desde HTTP, no desde JavaScript
XSS!⚠document.cookie = ...
Cookies
Set-Cookie: sessionid=xxx; Domain=docs.foo.com; Path=/accounts;
Expires=Wed, 13 Jan 2021 22:23:01 GMT; Secure; HttpOnly
En qué requests debería enviarse como Cookie:Domain + Path
Expires Cuándo el User-Agent debería borrar la cookie
Secure Sólo debe enviarse si el tráfico es https
HttpOnly Sólo accessible desde HTTP, no desde JavaScript
XSS!⚠document.cookie = ...
Método sencillo para proveer de autenticación a peticiones
HTTP, sin necesidad de cookies
$# GET / HTTP/1.1
...
Cliente Servidor
HTTP/1.1 401 Unauthorized
WWW-Authenticate: Basic realm="Login"
Basic HTTP auth
Basic HTTP auth
Método sencillo para proveer de autenticación a peticiones
HTTP, sin necesidad de cookies
$# GET / HTTP/1.1
...
Cliente Servidor
HTTP/1.1 401 Unauthorized
WWW-Authenticate: Basic realm="Login"
$# GET / HTTP/1.1
Authorization: Basic QWxhZGRpbjpvcGVuIHNlc2FtZQ==
HTTP/1.1 200 OK
...
base64(username:password) HTTPS!⚠
cURL:Basic HTTP auth
$ curl -v -X GET localhost:8000/ --user pablo:x6f8
* About to connect() to localhost port 8000 (#0)
* Trying ::1...
* Connection refused
* Trying 127.0.0.1...
* connected
* Connected to localhost (127.0.0.1) port 8000 (#0)
* Server auth using Basic with user 'pablo'
> GET / HTTP/1.1
> Authorization: Basic cGFibG86eDZmOA==
> User-Agent: curl/7.24.0 (x86_64-apple-darwin12.0) libcurl/7.24.0 OpenSSL/0.9.8r zlib/1.2.5
> Host: localhost:8000
> Accept: */*
>
* HTTP 1.0, assume close after body
< HTTP/1.0 200 OK
< Date: Mon, 06 May 2013 08:36:25 GMT
< Server: WSGIServer/0.1 Python/2.7.2
< Content-Type: text/html; charset=utf-8
<
Bienvenido a la mazmorra, espera instrucciones!
* Closing connection #0
Ejercicio cURL: La guarida del dragón.
$ curl -v -XPOST 10.172.104.175/jugadores/ -d "username=pablo"
)
> GET last_tweets
<h1>n<ul><li>Hello from....
Memcached
•Ventajas
• Velocidad
• Sencillez
•Inconvenientes
• Volátil: sólo reside en memoria.
• Sólo entiende cadenas de texto.
Cachear Contenido3.1.1
> INCR message:143:comments 1
4445
Redis
•Ventajas
• Velocidad
• Tipos de datos complejos
• Operaciones atómicas
•Inconvenientes
• Muy pocas
• Abuso = Problemas (como todo)
Welcome to my site.
4445 Comments
Cachear Contenido3.1.1
Existen múltiples “puntos” donde cachear.
•Servidor web
• Intrusismo
• Complejidad media
•Código del proyecto “backend”
• Sencillo de implementar
• Poco eficiente
•Proxy
• Sencillo
• Muy eficiente
Cachear Requests3.1.1
•Requests Anónimas
• Digg effect
• Landing page
• Google
•Contenido Estático
• Assets
• Thumbnails
•APIs
•“Hot Pages”
Request Response
Varnish
Server
Miss
Hit
Cachear Requests3.1.1
sub vcl_recv {
# Pass anything other than GET and HEAD directly.
if (req.request != "GET" && req.request != "HEAD"){
return(pass);
}
# Always lookup static files from the cache.
# We don't need request cookies neither Authorization.
if (req.request == "GET" && req.url ~ "^/static/") {
unset req.http.cookie;
unset req.http.Authorization;
return(lookup);
}
# Remove any cookie we don't know about except `sessionid`.
if (req.http.Cookie) {
set req.http.Cookie = ";" + req.http.Cookie;
set req.http.Cookie = regsuball(req.http.Cookie, "; +", ";");
set req.http.Cookie = regsuball(req.http.Cookie, ";(sessionid)=", "; 1=");
set req.http.Cookie = regsuball(req.http.Cookie, ";[^ ][^;]*", "");
set req.http.Cookie = regsuball(req.http.Cookie, "^[; ]+|[; ]+$", "");
if (req.http.Cookie == "") {
# If there are no cookies, remove the header and lookup the cache.
unset req.http.Cookie;
return(lookup);
}
else {
# If `sessionid` cookie is pressent pass the request to the backend.
return (pass);
}
}
}
vcl_recv
sub vcl_fetch {
# If the response status >= 400 don't cache it.
if (beresp.status >= 400) {
return (hit_for_pass);
}
# Remove cookies if this is a static request and set 1 week of ttl.
if (req.url ~ "^/static/") {
unset beresp.http.set-cookie;
set beresp.ttl = 1w;
return (deliver);
}
else{
# If the response is setting any cookie, don't cache it.
if (beresp.http.Set-Cookie) {
return (hit_for_pass);
}
# Cache this response for 10 minutes.
set beresp.ttl = 10m;
return (deliver);
}
}
vcl_fetch
Scheduler de trabajos de UNIX
cron
* * * * * <cmd>
día de la semana (0 - 7)
mes (1 - 12)
día del mes (1 - 31)
hora (0 - 23)
minuto (0 - 59)
# crontab -e
$ crontab -e
Celery3.2
Sistema de Tareas Asíncronas distribuidas.
• Features: Colas, Concurrencia, Distribuido...
• Pro: Muy fácil de implementar y escalable.
• Casos prácticos:
• Enviar un email (Notificationes, ...)
• Calcular el karma de de los usuarios del sistema.
• Tareas programadas (Limpieza, Post-procesado, etc...)
• Regenerar caches etc..
!h#p://celeryproject.org
Funcionamiento3.2
Conceptos clave:
• Atómico: Las tareas se entregan solo a un worker.
• Distribuido: Los nodos son independientes unos de otros y el
número puede aumentar y disminuir dinámicamente.
• Fiable: Si no se informa a RabbitMQ sobre la finalización de
una tarea, esta vuelve a formar parte de la cola. En caso de
catástrofe no perdemos tareas.
• Rates: Celery nos permite definir rates para nos sobrecargar el
sistema o APIs externas.
• Tareas Periodicas: Celery beat registrará por nosotros tareas en
la cola de la misma manera que lo haría cron.
!DB index
SELECT date(timestamp) as day, count(*)
FROM stamp WHERE key=%s AND date(timestamp) > current_date - interval %s
GROUP BY day ORDER BY day;
BEGIN;
DROP TABLE IF EXISTS "stamp";
CREATE TABLE "stamp" (
"key" varchar(255) NOT NULL,
"timestamp" timestamp without time zone NOT NULL
)
;
COMMIT;
con 4.221.883 registros, 11.488 segundos
BEGIN;
DROP TABLE IF EXISTS "stamp";
CREATE TABLE "stamp" (
"key" varchar(255) NOT NULL,
"timestamp" timestamp without time zone NOT NULL
)
;
CREATE INDEX "stamp_key_idx" ON stamp(key);
COMMIT;
SELECT date(timestamp) as day, count(*)
FROM stamp WHERE key=%s AND date(timestamp) > current_date - interval %s
GROUP BY day ORDER BY day;
con 4.221.883 registros,
!DB index
11.488 segundos
BEGIN;
DROP TABLE IF EXISTS "stamp";
CREATE TABLE "stamp" (
"key" varchar(255) NOT NULL,
"timestamp" timestamp without time zone NOT NULL
)
;
CREATE INDEX "stamp_key_idx" ON stamp(key);
COMMIT;
SELECT date(timestamp) as day, count(*)
FROM stamp WHERE key=%s AND date(timestamp) > current_date - interval %s
GROUP BY day ORDER BY day;
con 4.221.883 registros,
!DB index
11.488
0.107
segundos
Search index-
$#
Cliente Servidor
bd
!q='covent garden'
SELECT * FROM messages WHERE subject like '%covent garden%' OR
body like '%covent garden%' OR
author like '%covent garden%';
SELECT * FROM locations WHERE name like '%covent garden%' OR
description like '%covent garden%';
SELECT * FROM pages WHERE name like '%covent garden%' OR
description like '%covent garden%';
SELECT * FROM shareables WHERE name like '%covent garden%' OR
description like '%covent garden%';
Search index-
$#
Cliente Servidor
bd
!q='covent garden'
SELECT * FROM messages WHERE subject like '%covent garden%' OR
body like '%covent garden%' OR
author like '%covent garden%';
SELECT * FROM locations WHERE name like '%covent garden%' OR
description like '%covent garden%';
SELECT * FROM pages WHERE name like '%covent garden%' OR
description like '%covent garden%';
SELECT * FROM shareables WHERE name like '%covent garden%' OR
description like '%covent garden%';
mmm... NO
Redis3.3.3
Redis is an open source, BSD licensed,
advanced key-value store. It is often
referred to as a data structure server
since keys can contain strings, hashes, lists,
sets and sorted sets.
“
”
hashes
lists sets sorted setsstrings
pub/sub scripts
Redis como Indice3.1
Problema:
Mostrar avatares de 25 usuarios que compartan algún área
contigo promocionando aquellos que no tengan uno de los
avatares por defecto.
Custom
Default
3.1
Solución: Sorted Sets
1. Para cada area crear un sorted set con el id de todos los miembros.
> ZADD area:1:followers 1 1
area:1:followers 1
Redis como Indice
3.1
Solución: Sorted Sets
1. Para cada area crear un sorted set con el id de todos los miembros.
> ZADD area:1:followers 1 1
> ZADD area:1:followers 0 2
area:1:followers 1 2
Redis como Indice
3.1
Solución: Sorted Sets
1. Para cada area crear un sorted set con el id de todos los miembros.
> ZADD area:1:followers 1 1
> ZADD area:1:followers 0 2
> ZADD area:2:followers 1 1
area:1:followers 1 2
area:2:followers 1
Redis como Indice
3.1
Solución: Sorted Sets
1. Para cada area crear un sorted set con el id de todos los miembros.
> ZADD area:1:followers 1 1
> ZADD area:1:followers 0 2
> ZADD area:2:followers 1 1
> ZADD area:3:followers 0 4
area:1:followers 1 2
area:2:followers 1
area:3:followers 4
Redis como Indice
3.1
Solución: Sorted Sets
1. Para cada area crear un sorted set con el id de todos los miembros.
> ZADD area:1:followers 1 1
> ZADD area:1:followers 0 2
> ZADD area:2:followers 1 1
> ZADD area:3:followers 0 4
> ZADD area:3:followers 1 5
area:1:followers 1 2
area:2:followers 1
area:3:followers 5 4
Redis como Indice
3.1
Problema: ¿Usuarios que siguen el area #1?
> GET area:1:followers
area:1:followers 1 2
area:2:followers 1
area:3:followers 5 4
Redis como Indice
3.1
Problema: ¿Usuarios que siguen el area #1 o el area #2?
> ZINTERSTORE areas:1-2:followers 2 area:1:followers
area:2:followers AGGREGATE MAX
> GET areas:1-2:followers
area:2:followers 1
area:3:followers 5 4
areas:1-2:followers
area:1:followers 1 2
1 2
Redis como Indice
3.1
Problema: 25 usuarios que sigan el area #1 o el area #2 promocionando
aquellos que tengan avatar.
> ZREVRANGE areas:1-2:followers 0 25
area:2:followers 1
area:3:followers 5 4
area:1:followers 1 2
Redis como Indice
3.1
Problema: 25 usuarios que sigan el area #1 o el area #2 promocionando
aquellos que tengan avatar.
> ZREVRANGE areas:1-2:followers 0 25
area:2:followers 1
area:3:followers 5 4
areas:1-2:followers
area:1:followers 1 2
1 2
Redis como Indice
Minimizar JS y CSS
SL.Utils.flash = {
init: function () {
// Handle closing of flash messages
$('#flashes .close, .flashes .close').live('click', function (e) {
$(e.target).closest('li').slideUp(120, function () {
// Cleanup after the last one
var container = $(this).closest('#flashes, .flashes'),
all_messages = container.find('li:visible');
if (all_messages.length < 1) {
container.remove();
}
});
e.preventDefault();
});
}
};
SL.Utils.flash={init:function(){$("#flashes .close, .flashes .close").live("click",function(a){$
(a.target).closest("li").slideUp(120,function(){var a=$(this).closest("#flashes, .flashes");
1>a.find("li:visible").length&&a.remove()});a.preventDefault()})}};
585 bytes
255 bytes (~56%)
Un paso más del proceso de build + deploy
gzip3.2.2
GET /index.html
Accept-Encoding: gzip
HTTP 1.1 200 OK
<html><head> ...
gzip
Servidor
Servidor sin gzip configurado
Pese a que el navegador soporte gzip y envíe el header
adecuado en la petición, el servidor lo ignora y envía el
contenido sin comprimir.
100Kb
GET /index.html
Accept-Encoding: gzip
Servidor con gzip configurado
Estando gzip configurado en el servidor, si los clientes
envían los header adecuados, el servidor comprimirá la
respuesta utilizando gzip.
HTTP 1.1 200 OK
Content-Encoding: gzip
kk3s(e?3.sn2isn19fkjnasd...
50Kb
gzip3.2.2
gzip
Servidor
A tener en cuenta
•Navegadores MUY antiguos no soportan gzip. (~12 años)
• Netscape <6
• Internet Explorer <5.5 (Julio 2000)
• Opera <5 (Enero 2000)
• Firefox <0.9.5 (Octubre 2001)
•Solo comprimir texto (html, xml, css, js...)
• Imágenes, audio y video suelen estar comprimidos
utilizando codecs más eficientes y resulta una perdida de
tiempo y cpu intentar recomprimirlos.
•El 90% del tráfico de internet se genera utilizando navegadores que
soportan gzip (Yahoo!)
gzip3.2.2
CDN: Content delivery network
•Objetivos principales
• Distribuir contenido de la manera más eficiente posible a
poder ser desde localizaciones geográficamente cercanas
al cliente para reducir la latencia.
• Reducir tráfico de nuestros servidores web distribuyendo el
trafico a otros servidores.
• Disminuir el coste.
•Amazon S3
• $0.095 por GB Almacenado.
• $0.004 por cada 10.000 requests.
• $0.120 por GB transferido
•Distribuir un video de 50Mb a 100K personas (~5Tb)
• $0 (Hosting) + $0.04 (requests) + $585 (transferencia)
CDN3.2.3
Speeding up your website
1. CSS y JS en ficheros externos
2. CSS al comienzo
3. JS al final
4. Entre 2 y 4 hostnames
http://developer.yahoo.com/performance/rules.html1
A single-user client SHOULD NOT maintain more
than 2 connections with any server or proxy.
“
$Servidor Web
HAProxy
⚠SPOF
$Base de datos
⚠SPOF
$Servidor Web
Aplicación
$Servidor Web
Aplicación
SSL*
????
Host $host;
X-Real-IP $remote_addr;
X-Forwarded-Proto $scheme;
HAProxy4.2
Balanceador TCP/HTTP
Es uno de los balanceadores de carga más utilizados. Se caracteriza por ser
muy eficiente tanto en CPU como en RAM y es famoso por su estabilidad.
• Permite balancear tanto tráfico TCP como a un más alto nivel tráfico HTTP.
• Nos permite realizar health-check de los servidores backend.
• Podemos activar y desactivar servidores manualmente.
• Dispone de varios criterios para asignar servidores: Random, Round-robin,
Least connection, source, uri, url-parameter etc...
global
log 127.0.0.1 local0 notice
maxconn 4096
user haproxy
group haproxy
defaults
log global
mode http
option httplog
option dontlognull
option redispatch
retries 3
contimeout 5000
clitimeout 50000
srvtimeout 50000
stats enable
stats auth USER:PASSWORD
backend allservers
mode http
server web1 192.168.0.11:80 check
server web2 192.168.0.12:80 check
server web3 192.168.0.13:80 check
...
balance roundrobin
option httpchk HEAD /test/
option forwardfor
...
haproxy.cfg
High availability4.3
Problema
Necesitamos hacer que nuestro balanceador no sea un un
SPOF, Single point of failure.
• En caso de fallo no podemos cambiar la configuración
del DNS ya que conllevaría tiempo propagar el cambio.
• No podemos poner otra capa de balanceadores por
encima del balanceador ya que tendríamos el mismo
problema.
• Hagamos lo que hagamos ha de ser rápido para evitar
downtime en la medida de lo posible.
Heartbeat
♥ Capa de comunicación
Básicamente es un “bus” que nos
asegura que todos los mensajes
enviados se envían a todos los
miembros del bus y se asegura de que
todo el mundo esté de acuerdo sobre quien
está o no está conectado.
Pacemaker
8 Agente
Se encarga de arrancar y parar servicios
en función de reglas que nosotros
establezcamos. De igual manera, se
cerciora de que estos servicios solo se
ejecuten en uno de los servidores.
Configuración
$ cat /etc/ha.d/ha.cf
keepalive 2
deadtime 15
warntime 5
initdead 120
udpport 694
ucast eth0 123.123.123.123
auto_failback on
node ha-1.example.com
node ha-2.example.com
use_logd yes
crm respawn
Heartbeat4.3
Instalación
$ apt-get install heartbeat
Comprobar nodos cada dos segundos.
Dar un nodo por muerto a los 15s.
Alertar pasados 5 segundos.
Máximo tiempo de espera en arranque.
Puerto.
IP.
Failback automático al nodo primario.
Nodo #1.
Nodo #2.
Enable log.
Arrancar Pacemaker al arranque del cluster.
Hemos de configurar hearbeat en ambos nodos9
Configuración
$ cat /etc/heartbeat/authkeys
auth 1
1 sha1 SECRET
$ chmod 600 /etc/heartbeat/authkeys
Heartbeat4.3
Hemos de configurar hearbeat en ambos nodos9
Arranque
$ service heartbeat start
Estado
$ service heartbeat status
heartbeat OK [pid 2332 et al] is running on
ha-1.example.com [ha-1.example.com]...
$Servidor Web
HAProxy
$Base de datos
⚠SPOF
$Servidor Web
Aplicación
$Servidor Web
Aplicación
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
HAProxy
$Base de datos
⚠SPOF
$Servidor Web
Aplicación
$Servidor Web
Aplicación
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
????
$Servidor Web
HAProxy
$Base de datos
Master
$Servidor Web
Aplicación
$Servidor Web
Aplicación
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
W
W
W W W
$Base de datos
Read Only
$Servidor Web
HAProxy
$Base de datos
Master
$Servidor Web
Aplicación
$Servidor Web
Aplicación
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
R
R R R
R
$Base de datos
Read Only
Y aún más lejos?
Llegados a este punto deberíamos de tener
a varias personas trabajando en esto a
tiempo completo... pero el resultado podría
parecerse algo como....
:
$Servidor Web
HAProxy
SSL*
$Servidor Web
HAProxy
SSL*
DNS ROUND ROBIN
$Servidor Web
HAProxy
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
HAProxy
SSL*
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
$Servidor Web
Aplicación
Multi Master DB
$Slave
n n n
n
$Master
$Master
$Slave
$Slave
$Slave
$Slave
$Slave
$Slave
$Slave
++
Servidores Web4.4
¿Cuál elijo?
Existen docenas de servidores web, cada empresa suele elegir uno en
función de las necesidades y features de cada uno.
Nosotros utilizamos nginx dada la sencillez de configuración, la estabilidad, los
grandísimos resultados que siempre alcanza en los tests de carga y en
particular porque ya hemos trabajado con él y lo conocemos.
En realidad nginx lo utilizamos como reverse proxy tanto en los balanceadores
de carga como en los servidores web, así como para hacer “spoon-feeding”.
✉Emails
La mayoría de los servicios online
necesitan enviar emails a sus usuarios.
El número de emails que has de enviar
crece mucho más rápido de lo que
esperas...
Amazon SES4.4
¿Qué es Amazon SES?
Servicio cloud de Amazon que nos permite enviar grandes cantidades de emails
sin tener que disponer de una infraestructura para tales efectos.
¿Y porqué no un smtp inhouse?
El tiempo es oro y el día sólo tiene 24 horas.
• Pequeñas empresas que no disponen de personal de sistemas pueden
ahorrarse muchos dolores de cabeza (y ganar otros) externalizando servicios
como este .
• Grandes empresas que necesitan enviar millones de emails en épocas
concretas y no desean sobre escalar sus sistemas para estas situaciones
puntuales.
• El coste es muy competitivo: 0.10 $ por cada 1000 emails.
Actualmente enviamos alrededor de 1M de emails al mes, lo cual nos cuesta ~£64.
https://github.com/blog/1241-deploying-at-github
Deploying is a big part of the lives of most GitHub employees. We
don't have a release manager and there are no set weekly
deploys. Developers and designers are responsible for shipping new
stuff themselves as soon as it's ready. This means that deploying
needs to be as smooth and safe a process as possible.
“
$
$
$ $
$
$ $ $
$ $ $ $
server #1
server #3
server #11 server #12
server #2
server #4 server #5 server #6
server #7 server #8 server #9 server #10
$ $server #11 server #12
$
$
$ $
$
$ $ $
$ $ $ $
server #1B
server #3B
server #11B server #12B
server #2B
server #4B server #5B server #6B
server #7B server #8B server #9B server #10B
$ $server #11B server #12B
staging live
$
$
$ $
$
$ $ $
$ $ $ $
server #1B
server #3B
server #11B server #12B
server #2B
server #4B server #5B server #6B
server #7B server #8B server #9B server #10B
$ $server #11B server #12B
live
$
$
$ $
$
$ $ $
$ $ $ $
server #1B
server #3B
server #11B server #12B
server #2B
server #4B server #5B server #6B
server #7B server #8B server #9B server #10B
$ $server #11B server #12B
liveactivar modo mantenimiento (503)
desplegar nuevo código
purgar cachés
reiniciar servicios
minimizar javascript
minimizar css
generar sprites
...
desactivar modo mantenimiento
Streamlining SSH scripts
fabric
from fabric.api import run
def host_type():
run('uname -s')
fabfile.py
$ fab -H localhost,linuxbox host_type
[localhost] run: uname -s
[localhost] out: Darwin
[linuxbox] run: uname -s
[linuxbox] out: Linux
Done.
Disconnecting from localhost... done.
Disconnecting from linuxbox... done.
La seguridad es un tema extenso y delicado.
Os invitamos a profundizar en cada uno de los
aspectos antes de ponerlos en práctica.
Los siguientes son sólo ejemplos y pueden
contener errores.
⚠
*iptables
No lo son todo, pero sin lugar a dudas
son un buen comienzo para evitarnos
problemas.
Tablas predefinidas
>
;
FILTER.
NAT.
MANGLE.
Tabla responsable del filtrado de paquetes.
Todos los paquetes pasan por esta tabla.
Tabla responsable de la reescritura de direcciones y/o puertos.
El primer paquete de cada conexión pasa por esta tabla.
Tabla responsable de ajustar opciones de paquetes (e.j) QOS.
Todos los paquetes pasan por esta tabla.
Tablas predefinidas
>
;
FILTER.
NAT.
MANGLE.
Tabla responsable del filtrado de paquetes.
Todos los paquetes pasan por esta tabla.
Tabla responsable de la reescritura de direcciones y/o puertos.
El primer paquete de cada conexión pasa por esta tabla.
Tabla responsable de ajustar opciones de paquetes (e.j) QOS.
Todos los paquetes pasan por esta tabla.
>FILTER.Tabla responsable del filtrado de paquetes.
☰INPUT
☰OUTPUT
☰FORWARD
Todos los paquetes destinados a este sistema atraviesan esta cadena.
Todos los paquetes creados por este sistema atraviesan esta cadena.
Todos los paquetes que pasan por este sistema atraviesan esta cadena.
El destino de cada una de las reglas dentro de las cadenas puede ser:
ACCEPT, DROP, QUEUE, o RETURN (entre otros)
>FILTER.Tabla responsable del filtrado de paquetes.
☰INPUT
☰OUTPUT
☰FORWARD
Todos los paquetes destinados a este sistema atraviesan esta cadena.
Todos los paquetes creados por este sistema atraviesan esta cadena.
Todos los paquetes que pasan por este sistema atraviesan esta cadena.
El destino de cada una de las reglas dentro de las cadenas puede ser:
ACCEPT, DROP, QUEUE, o RETURN (entre otros)
>FILTER:INPUTCadena responsable del filtrado de paquetes de entrada.
*filter
:INPUT DROP [0:0]
:OUTPUT ACCEPT [0:0]
:FORWARD DROP [0:0]
-A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT
-A INPUT -m state --state INVALID -j DROP
-A INPUT -i lo -j ACCEPT
-A INPUT -p icmp -j ACCEPT
-A INPUT -s $IP/32 -d $IP/32 -p tcp --dport 80 -j ACCEPT
fail2ban6.2
Fail2ban nos permite bloquear ataques de fuerza bruta contra servicios
como ssh, mail, http etc...
• Muy sencillo de instalar y configurar.
• Una buena contramedida activa.
• Su funcionamiento se basa en leer los logs generados por estos
servicios utilizando expresiones regulares.
• Además de bloquear el trafico entrante desde estas fuentes se
pueden desplegar otras medidas o enviar notificaciones.
!h#p://fail2ban.org
SSH root@...6.3
Desactivar la cuenta de root es una de las primeras medidas a tomar al
configurar un servidor.
• Si disponemos de un servicio como fail2ban estaremos impidiendo
en cierta medida que nadie tenga éxito al realizar un ataque de
fuerza bruta.
• Si por alguna razón el servicio está caído tendríamos nuestra cuenta
de root expuesta.
• Es muy recomendable no permitir conexiones ssh utilizando root.
• Una vez en el sistema podemos identificarnos como root o utilizar
sudo.
PermitRootLogin no
/etc/ssh/sshd_config
munin7.3
Ventajas
• Muy sencillo de instalar y configurar.
• Fácil de crear nuevas gráficas usando
cualquier lenguaje de scripting.
• Uso mínimo de recursos.
• Un muy buen punto de partida.
Desventajas
• Sólo tres vistas por cada gráfica
(diaria, semanal, anual)
• Gráficas generadas cada ~5m.
!h#p://munin9monitoring.org
but... What’s next?
Llegado el momento las métricas se
convierten en críticas para analizar no
solo la salud del sistema, si no la del
negocio.
;
graphite server
web server db server
!carbon
graphite
tcp 2003
diamondstatsd
udp 8125
diamond statsd
udp 8125
diamond
statsd
udp 8125
tcp 80
☁
graphite server
web server db server
!carbon
graphite
tcp 2003
diamondstatsd
udp 8125
diamond statsd
udp 8125
diamond
statsd
udp 8125
tcp 80
logs
logs
☁
graphite server
web server db server
!carbon
graphite
tcp 2003
diamondstatsd
udp 8125
diamond statsd
udp 8125
diamond
statsd
udp 8125
tcp 80
app
logs
logs
☁
graphite7.4
No sólo datos... conocimiento!
Descubrir que la carga de un servidor es 9.3 lo fines de semana a las 3am es útil
pero... ¿cual es la causa? ¿Que otros síntomas hay? ¿Algún otro servidor se ve
afectado? ¿Qué estaba haciendo el servidor? ¿Cuantos procesos teníamos en
marcha? ¿Qué tamaño tenía la cola de emails? ¿Hace cuando que hicimos el
último deploy?...
graphite7.4
from pystatsd import Client
sc = Client('127.0.0.1', 8125)
sc.increment('streetlife.emails.immediate.sent')
Python
echo "streetlife.emails.immediate.sent:1|c" | nc -w 1 -u 127.0.0.1 8125
Bash
Son sólo paquetes UDP.
Dado que añadir estadísticas consiste en enviar un simple paquete UDP a
nuestro servidor de statsd, podemos hacerlo desde cualquier sitio!
Nuestra aplicación, un script en bash ... Fire-and-forget!
pingdom7.6
Yo mi me conmigo...
Es muy embarazoso darse cuenta que tu web se ha caído porque te lo diga un
cliente. Hay docenas de servicios como pingdom que se dedican a testear tu
web desde múltiples localizaciones.
Features interesantes:
• Monitorizar estado y tiempo de respuesta de páginas clave.
• Comprobar tiempos de respuesta desde la otra parte del mundo.
• Notificaciones SMS.
• Uptime reports.
$
$
$ $
$
$$$
$$$$
$ $
server #1
server #3
server #11 server #12
server #2
server #4 server #5 server #6
server #7 server #8 server #9 server #10
server #13 server #14
$
$
$ $
$
$ $ $
$ $ $ $
server #1
server #3
server #11 server #12
server #2
server #4 server #5 server #6
server #7 server #8 server #9 server #10
$ $server #11 server #12
$
$
$ $
$
$ $ $
$ $ $ $
server #1B
server #3B
server #11B server #12B
server #2B
server #4B server #5B server #6B
server #7B server #8B server #9B server #10B
$ $server #11B server #12B
live staging
$
$
$ $
$
$ $ $
$ $ $ $
server #1
server #3
server #11 server #12
server #2
server #4 server #5 server #6
server #7 server #8 server #9 server #10
$ $server #11 server #12
$
$
$ $
$
$ $ $
$ $ $ $
server #1B
server #3B
server #11B server #12B
server #2B
server #4B server #5B server #6B
server #7B server #8B server #9B server #10B
$ $server #11B server #12B
live staging
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
$ ssh user1@server1
$ apt-get install paquete_x
Shit hapens happens... a lot.
⚠Repetition leads to boredom,
boredom to horrifying mistakes,
horrifying mistakes to God-I-wish-I-was-still-bored.
Provisioning8.1
Automatizar la configuración y mantenimiento de tantos servidores cómo necesitemos.
• Generar plantillas que nos permitan generar nuevas máquinas sin mucho
esfuerzo y de manera automatizada.
• Solucionar casos de catástrofe total ya que podemos regenerar nuestra
arquitectura en otro datacenter sin problemas.
• Todo del código que automatice este proceso se convierte en último
termino en una excelente documentación.
• “Code as Infrastructure”
Puppet8.2
Puppet es junto a Chef uno de los más utilizados.
• Nos permite automatizar la configuración de
servidores UNIX y Windows.
• El lenguaje que se utiliza puede ser tanto Ruby
como un lenguaje declarativo propio de Puppet en
el que se definen tanto recursos del sistema como el
estado de los mismos.
• Servicios, usuarios, paquetes, ficheros...
• Puppet extrae del sistema información como CPUs,
memoria, discos direcciones IP etc... y compila
nuestras plantillas junto a esta información.
• Puede ejecutarse en modo arquitectura con un
servicio central encargado de compilar las plantillas
o en modo “solo-mode” en el cual se compilan las
plantillas en cada servidor.
Puppet8.2
Una de las principales características de Puppet
frente a otros sistemas de configuración es que
es idempotente. Por ejemplo, podemos ejecutarlo
cada 30 minutos y cerciorarnos de que todo está
tal y como lo hemos definido.
Esta es una gran ventaja dado que además de
servirnos como bootstrap para nuevas máquinas,
puppet nos permite administrar nuestras
máquinas a lo largo de todo su ciclo de vida desde
la creación mantenimiento y migración.
Características
• Wrapper de virtualbox para crear y destruir máquinas desde la
linea de comandos.
• Permite crear “instancias” base para crear máquinas desde un
estado concreto en cuestión de segundos.
• Integración con Puppet y Chef entre otros.
• Gracias a vagrant y puppet podemos lograr que todos los
miembros del equipo dispongan del mismo setup en local sin
mucho quebradero de cabeza.
• La puesta en marcha de nuevos empleados se reduce a minutos
en vez de días.
• Gracias a la sencillez de uso podemos crear distintos setup en
cuestión de minutos y comprobar su funcionamiento.
• Funciona en todas las plataformas: Linux, OSX y Windows.
Vagrant9.1
Añadir un box
Vagrant9.1
$ vagrant box add ubuntu-precise http://bit.ly/ubuntu-precise
Crear una nueva instancia
$ vagrant init ubuntu-precise
Arrancar nuestra nueva máquina virtual
$ vagrant up
!h#p://vagrantbox.es
$ vagrant ssh
Vagrant::Config.run do |config|
config.vm.define :web do |web|
web.vm.box = "ubuntu-precise-64"
web.vm.box_url = "http://bit.ly/ubuntu-precise"
web.vm.host_name = "dev.example.com"
web.vm.network :hostonly, "33.33.33.20"
web.vm.forward_port(22, 2023)
web.vm.forward_port(80, 8081)
web.vm.share_folder("code", "/home/vagrant/code", "./code", :nfs => true)
end
config.vm.define :db do |db|
db.vm.box = "ubuntu-precise-64"
db.vm.box_url = "http://bit.ly/ubuntu-precise"
db.vm.host_name = "dev-db.example.com"
db.vm.network :hostonly, "33.33.33.21"
db.vm.forward_port(22, 2024)
db.vm.forward_port(5432, 5432)
end
end
Múltiples boxes
$ vagrant up web
[web] VM already created. Booting if it's not already running...
[web] Clearing any previously set forwarded ports...
[web] Fixed port collision for 22 => 2222. Now on port 2202.
[web] Forwarding ports...
[web] -- 22 => 2023 (adapter 1)
[web] -- 80 => 8081 (adapter 1)
[web] Exporting NFS shared folders...
[vagrant] Preparing to edit /etc/exports. Administrator privileges will be required...
[web] Creating shared folders metadata...
[web] Clearing any previously set network interfaces...
[web] Preparing network interfaces based on configuration...
[web] Booting VM...
[web] Waiting for VM to boot. This can take a few minutes.
[web] VM booted and ready for use!
[web] Configuring and enabling network interfaces...
[web] Setting host name...
[web] Mounting shared folders...
[web] -- v-root: /vagrant
[web] -- manifests: /tmp/vagrant-puppet/manifests
[web] -- v-pp-m0: /tmp/vagrant-puppet/modules-0
[web] Mounting NFS shared folders...
[web] Running provisioner: Vagrant::Provisioners::Puppet...
[web] Running Puppet with /tmp/vagrant-puppet/manifests/site.pp...
stdin: is not a tty
notice: Finished catalog run in 1.70 seconds
vagrant up
Chrome Plugins9.4
Hay docenas de plugins que pueden hacer nuestro día a día mucho
más sencillo. Estos son algunos de los que encontramos más
interesantes, además del inspector que Chrome tiene integrado.
CI: Jenkins10.2
Características
Servicio que nos permite automatizar (entre
otras cosas) la ejecución de tests,
compilación de documentación, generar
reports de test coverage...
Ejecuciones
• Periódicamente
• Por cada commit al repositorio.
Configuración
• Requiere de un poco de práctica pero
una vez configurado no necesita mucho
mantenimiento.
Hipchat/IRC10.3
La comunicación entre los empleados es muy
importante (sobre todo cuando no siempre todo el
mundo está trabajando desde la misma oficina).
Ventajas
• Histórico de todas las conversaciones.
• Facilidad para compartir rápidamente ficheros,
capturas de pantalla etc...
• 0 Configuración y entrada amable para no techies.
• Salas por departamentos, equipos etc...
• Gaticos.
• Notificaciones de deploy, mantenimiento etc...