Your SlideShare is downloading. ×
TECHNIQUE  CHRISTOPHE ALLADOUM                                    Google                                    HackingDegré d...
GOOGLE HACKINGde recherche. La Figure 1 nous montre            •   le stemming : ce procédé consiste                    La...
TECHNIQUE      vu plus haut), par certains mots-clés              Même si elles diffèrent par leur forme         létape 1,...
GOOGLE HACKINGcontenant le terme admin, le terme               dans Apache (le serveur Web le plus utilisé            Les ...
TECHNIQUE                                                                                                          entente...
GOOGLE HACKINGQuelques Mesures deProtection                                         Sur InternetNous utiliserons les techn...
Upcoming SlideShare
Loading in...5
×

Ca hakin9-06-2008-googlehacking

27,596

Published on

1 Comment
0 Likes
Statistics
Notes
  • Be the first to like this

No Downloads
Views
Total Views
27,596
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
22
Comments
1
Likes
0
Embeds 0
No embeds

No notes for slide

Transcript of "Ca hakin9-06-2008-googlehacking"

  1. 1. TECHNIQUE CHRISTOPHE ALLADOUM Google HackingDegré de difficulté Les fonctionnalités offertes par le moteur de Google vont largement au-delà de la simple recherche de mot. Avec une utilisation adaptée, il devient un outil redoutable pour trouver des failles de configuration, et cela de manière quasi transparente. Nous essayerons de comprendre comment un Pentester peut utiliser Google pour récupérer furtivement des informations sur une cible. G oogle est le moteur de recherche le plus recherche basique de mots-clés, et que Google fréquenté en France et dans le monde. peut tout à fait être considéré comme un outil de Né sur lidée originale de Larry Page et Pentest. Sergey Brin en 1998, il représente aujourdhui plus de 82% de parts de marché dans les moteurs Utilisation Basique de Google de recherche, et précède de loin ses concurrents Le Google Hacking est une technique consistant (Microsoft, Yahoo, AOL...). Ce chiffre impressionnant à détourner la puissance de récupération est en partie lié à la bonne image que possède dinformations par Google afin de retrouver des Google en France auprès du public. Ceci vient entre données en jouant avec les différents paramètres autres du fait que sa prise en main est immédiate: fournis par le moteur de recherche. Concrètement, pas de page ultra chargée, pleine de détails il sagit de connaître ses paramètres pour forger des inutiles, longue à safficher, retournant des résultats requêtes beaucoup plus précises et ciblées. Nous pas forcément très convaincants, etc... Le moteur reviendrons donc dans cette partie, sur lutilisation de recherche Google séduit par sa sobriété, sa usuelle du moteur de Google après avoir expliquéCET ARTICLE légèreté, sa rapidité de traitement et sa pertinence le fonctionnement de la récupération dinformationsEXPLIQUE... de résultat. sur le Web par un moteur de recherche.Le fonctionnement de Google et Il est donc par la même un acteur de choixdes moteurs de recherche dès lors quun webmaster souhaite populariser le Rappel sur le fonctionnement dun moteurLes outils offerts par le moteurde recherche et les API contenu de son site Web. Celui-ci va donc tenter de de rechercheComment limiter la diffusion des mettre à disposition un maximum dinformations Tous les moteurs de recherche actuels utilisentinformations de ses sites Web. pour que Google analyse le contenu de son site le de petits agents chargés dexplorer les sites Web. plus intelligemment possible, et donc que lutilisateur Nommés Web Crawler, Web Robots ou encoreCE QUIL FAUTSAVOIR... effectuant une recherche sur Google soit amené Web Spider, ces outils scrutent les pages du rapidement sur son site. Mais, ce que ce webmaster Web et basculent dune page à lautre grâce auxEtre familier avec les différentsexplorateurs (Internet Explorer, peut avoir oublié, est quil dispose également liens hypertextes contenus dans cette page, enFirefox, Opera...) des données qui ne doivent surtout pas être mis mémorise le contenu. Sil trouve un ou plusieursAvoir des bases concernant le à disposition du grand public, et donc doit chercher liens identifiés par la balise <a href=lien _protocole HTTP par tout moyen à prévenir laccès à ces informations vers _ une _ autre _ page>Mon Lien</a>,Connaître le langage HTML confidentielles par un moteur de recherche (pas il bondit vers le lien, en envoie le contenu auQuelques connaissances du forcément Google par ailleurs). Crawler Manager, et ainsi de suite. Le contenu deslangage Python Nous verrons tout au long de cet article que le pages (textes, images, documents, metadata, etc...) potentiel de cet outil va largement plus loin que la est indexé et stocké: il servira de base au moteur28 HAKIN9 6/2008
  2. 2. GOOGLE HACKINGde recherche. La Figure 1 nous montre • le stemming : ce procédé consiste La construction de réponses par Google seque le Web Crawler se décompose en un à supposer quun mot-clé peut être la fait en deux temps: analyser la requête enagent qui analyse une page sur une URL souche (stem en anglais) dun autre utilisant chacun des mots-clés pour établirdonnée et le Crawler Manager chargé de mot, que Google cherchera aussi. une base solide de recherche puis se servirgérer, trier, stocker en base de données les Ainsi, entrer hack nous montrera des dautres paramètres, tels que le PageRank ouinformations récupérées par lagent. Ceci résultats contenant hacker, hackers, bien les filtres de recherches pour affiner leva nous permettre de mieux comprendre le hacking..., résultat avec le plus de pertinence.fonctionnement du moteur de Google. • un jeu doptions permettant daffiner une On peut manipuler le moteur à deux recherche, ce que nous détaillerons en niveaux :Principe de fonctionnement de profondeur dans le paragraphe suivant,Google • certains mots peuvent être ignorés par • directement dans la barre dURL deÀ partir dun Web Crawler, chaque moteur Google car ils sont trop communs et ne lexplorateur. On forge sa requête ende recherche (Google, Yahoo, Live Search) constituent pas un motif pertinent pour utilisant les paramètres dune requêtepossède toute liberté pour se perfectionner. une recherche. Par exemple, les mots GET de HTTP, paramètres dont onDe son côté, Google a misé sur la sobriété, qui, quoi, et, ou, donc, etc. ne seront trouvera une liste en Tableau 1. Il existela rapidité, et un concept nouveau: le pas considérés dans le traitement de la de nombreux autres paramètres GETPageRank. Il sagit dun système de requête par le moteur Google sauf sils acceptés par Google,notation dont le principe est simple: plus appartiennent à un bloc (délimité par des • Manipulation du champ de rechercheune page possède de liens vers elle, plus guillemets). principale (le paramètre que nous avonselle est populaire, plus elle doit apparaîtrehaute dans le classement. Dans le passé,le système de PageRank a pu être exploitépour forcer certaines correspondances Webabusives et sans pertinence (par exemple,en tapant escroc, on retrouvait en résultatune page de présentation de... JacquesChirac). Cette technique, nommée Google 1 Récupère des URLsBombing, consistait simplement à créerde faux sites dans lesquels on mettait Envoie un agentdes liens indiquant Jacques Chirac est un explorer la page 2escroc. Le GoogleBot explorant ces sitesfaisaient grimper au classement PageRanklassociation {escroc, Jacques Chirac}, doù Crawler Manager 3le résultat de la recherche. Renvoie les ressources de la page et les URLS Il sagissait des premières exploitationsabusives de Google, et cette faille a étérésolue par un système de confiance dansles liens des pages. Stocke les informations récupérées Pour que la recherche soit la pluspertinente possible, Google utilise lespréceptes suivants : 4• lordre des mots a son importance : taper pizza+café ne retournera Base de données pas forcément la même chose que café+pizza , Figure 1. Principe dun Web Crawler• la recherche par bloc : on peut demander à Google de chercher un ensemble de mots très précis. Cela est très pratique pour retrouver des citations, paroles de musique et autres. Il suffit de mettre le bloc à chercher entre guillemets,• la casse importe peu : les requêtes pizza , pIzZA , et PiZZa sont équivalentes, Figure 2. Code PHP en clair avec les identifiants de la base de données 6/2008 HAKIN9 29
  3. 3. TECHNIQUE vu plus haut), par certains mots-clés Même si elles diffèrent par leur forme létape 1, soit la Récupération dinformation, mentionnés dans le Tableau 2, peut (Smurf, Ping Of Death...), les attaques ou Information Gathering. Cette étape est modifier et affiner le résultat dune informatiques sont relativement semblables importante et nous verrons un peu plus loin recherche. dans leur fond. Elles suivent un schéma que bien utilisé peut faire gagner beaucoup assez récurrent qui permet doptimiser de temps à un attaquant car cela peut luiRécupération dinformations les chances de succès et lampleur de permettre de connaître des logins/mots deavancées via Google lattaque. Ces différentes étapes sont dans passe sans laisser de traces sur le serveurPar le Google Hacking, un pirate peut utiliser lordre, la Collecte dinformation, Mapping du ciblé. Sans plus attendre, voici un ensembleà son avantage la confiance accordée Réseau, Recherche de Vulnérabilité, Accès des filtres, en Tableau 2 qui sont supportésau fameux moteur de recherche pour à la machine/au réseau, Augmentation des par le moteur de rechercher Google maisextraire des informations non voulues par le Privilèges, et Nettoyage des Traces. Lutilisation il existe dautres filtres applicables auxwebmaster. approfondie de Google nous place dans autres services de la société (email, groupe, news...). Nous ne nous attarderons que sur Listing 1. Collecteur demail en Python certains de ces filtres mais lensemble de ces options a été très bien décrite dans #!/usr/bin/env python lexcellent livre de Johnny Long, Google import httplib, urllib, re nb_reponses=100 Hacking For Penetration Testers (voir lencadré params= sur Johnny Long). Ce dernier est expert headers = {"User-Agent": "Mozilla/5.0 Firefox/3.0.0", en sécurité informatique et a mené un "Content-type": "application/x-www-form-urlencoded", grand nombre de recherche sur lutilisation "Accept": "text/plain"} query = "@hotmail.com+@gmail.com+@yahoo.com" détournée de Google (on notera quon trouve email_pattern="[a-zA-Z0-9_.]+@[a-zA-Z]+.[a-zA-Z]+" sur son site http://johnny.ihackstuff.com une conn = httplib.HTTPConnection("www.google.com") base de données référençant de nombreux conn.request("GET", "/search?hl=en&num="+nb_ reponses+"&q="+query, params, headers) Google Hacks). response = conn.getresponse() print response.status, response.reason Présentation des différents data = response.read() email = re.compile(email_pattern) filtres supportés par Google list = re.findall (email, data) Google offre un panel impressionnant print list doptions pour cibler sa recherche. Parmi les conn.close() plus basiques, on retrouve les AND (opérateur: plus +), NOT(opérateur: moins -) et ORTableau 1. Liste de quelques paramètres GET de Google (opérateur: pipe |). Paramètre Description Exemple Lopérateur AND sert de jointure entre q=requete Champ principal, il possède http://www.google.fr/ différents termes ou les blocs dune requête. la chaîne de caractère de la search?q=to be or not to De plus, il est équivalent à lopérateur +. recherche(variable requete) be On peut donc taper la requête de façon start=xxx Fait commencer la liste des http://www.google.fr/ strictement équivalente : browser AND résultats à partir du numéro xxx search?q=to be or not to firefox et browser+firefox. Cet opérateur be&start=5 devient de plus en plus obsolète, car Google num=yyy yyy indique le nombre de résultat http://www.google.fr/ a pour comportement par défaut danalyser de la page search?q=to be or not to tous les mots (sauf ceux contenus dans un be&start=5&num=10 bloc, quil considère dans son intégralité). filter={0|1} Filtre ou non les duplications http://www.google.fr/ Lopérateur NOT permet, à linverse de search?q=to be or not to AND, dexclure du résultat de recherche les be&start=5&num=10&filt pages contenant un mot, ou un motif. Il er=0 est plus souvent utilisé dans les requêtes safe={active|off} Active le filtrage par SafeSearch http://www.google.fr/ par son équivalent, lopérateur - (moins). sur le contenu des résultats. search?q=to be or not to Par exemple, en tapant la recherche: be&safe=off informatique -windows, Google me lr={lang_fr|lang_ Permet de restreindre le résultat à http://www.google.fr/ rendra les pages contenant le terme en|lang_de|lang_ru} un langage (ici français, anglais, search?q=to be or not to informatique mais ne contenant pas allemand, russe). be&lr=ru windows. Enfin, lopérateur OR , équivalent de hl={fr|en|ru} Indique à Google en quel langue http://www.google.fr/ | (pipe), permet de considérer deux ou doivent apparaître ses propres search?q=to be or not to plus motifs dans la recherche. La requête messages (à ne pas confondre be&hl=fr admin+(password | passwd)+(username avec le résultat des recherches) | login) recherchera toutes les pages30 HAKIN9 6/2008
  4. 4. GOOGLE HACKINGcontenant le terme admin, le terme dans Apache (le serveur Web le plus utilisé Les combinaisons de filtres sontpassword ou passwd, et le terme username au monde), le couple de fichiers htaccess/ extrêmement nombreuses et peuvent êtreou login. htpasswd permet de restreindre laccès facilement adaptées à une application Ces opérateurs élémentaires permettent à un répertoire, un fichier à un utilisateur ciblée (Apache, IIS, MySQL...). Par exemple,déjà de faire des requêtes plus pointus. Mais authentifié. Le fichier htpasswd contient une un serveur LAMP laissera passer desils peuvent être couplés aux filtres suivants, syntaxe similaire à celui du passwd sous données importantes dans le caspour aller plus loin dans le filtrage. Leur Linux. Ainsi ici on obtiendra des réponses de dune mauvaise ou dune absence desyntaxe est la suivante: la forme admin:mot _ de _ passe _ hashé configuration, comme larborescence du (la Figure 4 montre un exemple de fichier script de connexion, ou bien sur le serveur{ + | - } opérateur:motif de configuration récupérée). Connaissant HTTP/SQL, son nom, sa version, le login + : affichera dans les résultats cette information, il ne vous reste quà lancer daccès comme on peut le voir en Figure 5.les requêtes validant ce filtre un John The Ripper ou Abel&Cain pour Il serait beaucoup trop long et inutile - : affichera les résultats ne bruteforcer ce condensat. de dresser une liste complète de toutesvalidant pas ce filtre inurl:view/view.shtml : cette simple les actions qui vous sont offertes par requête permet dexplorer parfois avec ces filtres, mais les quelques requêtesIl ne sagit en fait quune partie des filtres seulement un léger différé, de caméras de citées peuvent déjà vous servir de basede Google mais sont ceux les plus utilisés surveillance. pour explorer de nouveaux horizons viapour affiner une recherche. Lançons doncquelques recherches dans Google en Listing 2. Exemple de /robots.txtcombinant efficacement les filtres fournis parla Tableau 2. # le diese indique un commentaire # propriete pour le robot Google inurl:.inc +intext: User-Agent:GoogleBotmysql _ connect -inurl: # on interdit lacces au répertoire /foo1/(.php|.html|.htm|.asp) va retourner Disallow:/foo1/ # et a tous les fichiers .doc du repertoire /foo2/des pages de configuration PHP contenant Disallow:/foo2/*.docdes informations comme le login et mot # on interdit tous les autres robotosde passe de leur base de données en User-Agent:*clair comme le montre la Figure 2; les .inc Disallow:/étant une extension souvent utilisée par deswebmasters pour les fichiers à inclure dansdu code PHP, Tableau 2. Liste des filtres de Google site:microsoft.com +inurl: Syntaxe du Descriptionmicrosoft.com -www.microsoft.com : filtrecette technique se nomme Site Mapping inurl Retourne les pages contenant un lien vers un fichier du type mentionnéet consiste à récupérer tous les sous- en argument – exemple : inurl:admindomaines dun site. On peut ainsi connaître filetype Retourne les pages contenant un lien vers un fichier du type mentionnéune partie de la topologie DNS du nom de en argument – exemple : filetype:pdfdomaine ciblé, comme le montre la Figure 3. intext Recherche un motif dans le contenu – exemple : intext:mysql _ -inurl:(.php|.html|.asp|.htm) connectintitle:Index Of +last modified site Permet de filtrer la recherche sur un site passé en argument.+parent directory permet de faire dusite listing et de voir tout le contenu dun link Retourne lensemble des pages contenant un lien vers le motif passé en argumentrépertoire du site. Cette technique peutdonc par exemple servir à chercher des cache Permet daccéder à la version mis en cache par Google. Cette optionfichiers audio ou vidéo stockés sur des est surtout utilisée pour visiter discrètement un site.sites, en forgeant simplement une requête define Fournit une définition au terme passé en argumentdu type -inurl:(.php|.html|.asp|.htm) intitle Recherche dans le champ <title></title> dune page HTMLintitle:Index Of +last ext Recherche dans les pages dont lextension (html, php, etc...) est le motifmodified +parent directory passé.+inurl(.mp3|.ogg|.wma) + monartiste . Vous serez impressionné de [X]...[Y] Effectue une recherche dans lintervalle [X, Y]. Par exemple: page+1...100voir la quantité de données audio/vidéoaccessibles en direct download sur le info Récupère des informations sur le site passé en paramètres. ParWeb ! exemple, info:www.kernel.org ext:htpasswd -inurl: related Retrouve les sites sémantiquement liés au paramètre. Par exemple,(.html|.htm|.asp|.php) intext:admin : related:www.kernel.org 6/2008 HAKIN9 31
  5. 5. TECHNIQUE ententes entre ce dernier et des régimes Terminologie répressifs pour contrôler linformation diffusée. Dautre part, on trouve un outil • HTML : standard défini par lorganisme W3C (pour World Wide Web Consortium). Cette norme développé également par le CdC, le est également homologué à lISO comme la norme ISO8879. La version la plus répandue Goolag Scanner qui est un scanneur de aujourdhui est la 4, la 5 étant en cours de création. Il sagit du langage le plus répandu sur le Web, car il est simple, textuel, extrêment modulable, vulnérabilités capable dautomatiser des • Directory Listing : aperçu du répertoire courant. Cette méthode par certains serveurs HTTP audits sur un serveur Web avec près de lorsquil ne trouve pas de page HTML par défaut à afficher (index.php, index.html...), 1500 requêtes de recherches prédéfinies. Il • DoS : Denial of Service: attaque réseau consistant à empêcher laccès à un service ou une se présente comme une GUI de Windows machine, configurable via un fichier XML (attention : • Smurf : inondation dune cible avec des messages réseau. Le résultat peut en être un DoS, lancer de façon abusive un Goolag scan • Ping Of Death : envoi de paquets de ping avec une taille non supportée par le protocole, Cette attaque peut aboutir sur un DoS, sur un serveur peut engendrer un blocage • Web Crawler : aussi connu comme Web Spider ou Web Robot, cest un automate dont le but de votre adresse IP sur le serveur). est dexplorer les sites du net, utilisant les balises de liens (<a></a>) pour passer dun site à lautre, Exemple: création dun collecteur demail à partir de GoogleGoogle, et vous permettre de commencer Google Hacks Nous avons vu précédemment quelsà collecter des informations sur des Crée par Jason Stalling, Google Hacks se étaient les paramètres HTTP que lonsites potentiellement vulnérables, car mal présente sous la forme dune GUI facilitant pouvait passer à Google pour en cibler leconfiguré. la recherche avancée dans Google. Elle contenu (langage, nombre de réponses, Vous avez surement remarqué que forge des requêtes pour le moteur de etc). Ainsi, à partir des tableaux 1 et 2,nous navons pas encore discuté de recherche, en filtrant par type de fichiers nous allons voir dans cette partieloption cache, or il se trouve que ce recherchés: mp3, wma pour de laudio; comment fabriquer très vite un outilmot-clé est très utile car il permet de avi, mpg pour de la vidéo; etc. Il ne fait envoyant des requêtes valides à Googlevisiter une page dun site Web tel quelle que faciliter la recherche avec les filtres pour en extraire des informations précises,a été enregistrée dans le cache du mentionnés dans la partie précédente. en loccurrence des emails.moteur Google. On naccède donc pas Ce script assez simple (en Listing 1)directement au site, mais on lit la version Gooscan permet de récupérer facilement une listeen cache de Google. Cette manipulation Dans ces recherches de hacks sur Google, dadresses email. Il affichera sous la formepossède lénorme avantage que vous Johnny Long a crée un scanneur de dun tableau les adresses collectées viane serez jamais identifié dans le journal vulnérabilités de sites web. Codé en C, il se une requête sur Google recherchant lesdévénement du site, donc intraçable par comporte comme un CGI Scanner mais emails des domaines Gmail, Hotmailce dernier qui ne verra que les entrées de possède lavantage de lancer ces requêtes et Yahoo. Le nombre de réponsesGoogle, mais linconvénient majeur est que via Google et non directement (vous êtes demandées étant contenu dans unevous ne verrez peut-être pas la version donc caché par Google). Loutil est inclus variable, on peut modifier augmenter ouà jour du site. dans le Live CD Backtrack. diminuer le nombre de résultats. Google autorise selon sa charteOutils dautomatisation de Goolag dutilisation à créer des outilsmanipulation de Google Goolag est un projet du CdC (Cult Of automatisés utilisant lusage de sonVoici quelques outils crées qui permettent The Dead Cow) en deux parties: la partie moteur. Cependant, on notera quundautomatiser la recherche via les hacks de interface Web vise à parodier le célèbre outil générant des requêtes de manièreGoogle. moteur de recherche, en réponse aux abusive se verra vite bloqué par Google (cf http://www.google.com/terms_ of_service.html pour plus de renseignements). Pour pallier ce problème, nous inclurons un header HTTP valide mentionnant un navigateur existant et une de ces versions. On notera quil existe de nombreuses API facilitant linteraction avec le moteur de recherche Google ainsi que les autres services Google (GMail, GCalendar, Google Docs...) et de plugins Firefox pour optimiser le comportement de Google (Googlepedia, GooglePreview,Figure 3. Site Mapping GoogleEnhancer).32 HAKIN9 6/2008
  6. 6. GOOGLE HACKINGQuelques Mesures deProtection Sur InternetNous utiliserons les techniques décrites • http://www.comscore.com/press/release.asp?press=2327 – Classement des moteurs deci-dessus pour proposer quelques solutions recherche en France par linstitut ComScore,de protection contre une exploration un peu • http://www.google.com/intl/fr/corporate/ – informations générale sur la société Google,trop intrusive dun moteur de recherche. • http://fr.wikipedia.org/wiki/Crawler – définition dun web crawler, • http://fr.wikipedia.org/wiki/PageRank – définition du mécanisme de PageRanking,Bannir le directory listing • http://www.w3.org/TR/html401/ – Spécification du HTML 4.01,Nous avons vu quil était possible • http://johnny.ihackstuff.com/ – Site de Johnny Long, sur lequel on retrouve la GHDB, (Google Hacking DataBase) référençant quantité de hacks de Google,daccéder au contenu dun site par la • http://code.google.com/p/googlehacks/ – site des Google Hacks,technique du directory listing : cette • http://www.robotstxt.org/robotstxt.html – site descriptif du RobotsTxt,technique consistant simplement à faire • http://www.googleguide.com/advanced_operators.html – site tutorial pour trouver desune requête avec les mots clés typiques astuces et apprendre encore plus sur les Google Hacks(parent directory, index of, description). Il • http://www.goolag.org – site du CdC, parodie de Googlefaut donc prévenir cela soit en interdisant • http://www.goolag.org/privacy.txt – Pour plus dinformations, lire la Privacy Policy sur.le listing dans la configuration de votreserveur HTTP, en restreignant laccès. RobotsTxt.org. Il définit avec précision le le contenu varie beaucoup (blog, journal,Le moyen le plus propre consisterait à comportement des robots ainsi que le etc). On nest jamais mieux servi que parmettre contrôle daccès via un .htaccess moyen dempêcher quun robot ne parcourt soi-même., mais ceci nest pas toujours faisable. un site. Il suffit de créer un fichier nomméUn autre moyen plus simple consisterait robots.txt accessible en lecture par tous, à Conclusionsimplement à mettre une page index.html la racine du site Web. On y mettra une liste Même si concevoir un site est relativement– ou index.htm, index.php... – dont le dinstructions indiquant la portée que lon aisé, empêcher de laisser filtrer descontenu est vide. Ainsi, le directory listing donne à un robot pour ce site (cf. Listing informations non voulues lest beaucoupsera plus difficilement faisable par un 2). Lensemble des robots respectant ce moins, surtout lorsque Google sen mêle.moteur de recherche. Pour aller un peu consensus est listé dans une base de Au cours de cet article, nous nous sommesloin pour retarder un visiteur un peu trop donnée accessible librement sur le site de efforcés de comprendre les mécanismescurieux, on veillera également à utiliser RobotsTxt.org. de récupération dinformations par undes noms de fichiers et de répertoires non moteur de recherche en général, et Googleconventionnels : on évitera donc davoir un Testez la visibilité de son propre site en particulier; et comment utiliser cesuser.html, db/, sql/ etc. On peut enfin avoir un aperçu de ce que informations à notre avantage contre Google fournit comme informations au une cible. Nous avons enfin proposé deInterdire les Crawling Robots avec monde entier en testant soi-même ou par façon non exhaustive quelques solutions/robots.txt une société professionnelle (idéalement faciles à mettre en place pour prévenirComme nous lavons vu plus haut, le les deux) le niveau de visibilité de son une récupération abusive de données parparcours des sites web se fait par des site. Cette manipulation est simple et peut Google mais aussi dautres moteurs derobots qui explorent la toile. Pour limiter être effectuée fréquemment, ce qui est recherche. Car sur Internet, il est difficile deles abus un consensus a été créé : recommandé dans le cas de site dont retirer une information dévoilée ne serait- ce que quelques heures (vive les caches). Ces solutions peuvent être complétées, modifiées, mais permettent à un propriétaire de site de connaître un peu mieux ce quil laisse en diffusion sur le net. Alors, testez, et testez encore, et souvenez-vous toujoursFigure 4. Identifiant administrateur dun Trac que Google is your friend (Google est votre ami)! À Propos de lAuteur Christophe Alladoum vit en France et est étudiant à lUniversité Pierre et Marie Curie à Paris (UPMC). Il achève actuellement un cursus de Master Informatique spécialité Réseaux et Télécommunications en cohabilitation avec lEcole Normale Supérieure des Télécommunications (Télécom ParisTech). Il se passionne pour la sécurité informatique et les réseaux de communication depuis de nombreuses années. Il participe activement à la vie de la communauté Open Source, particulièrement autour de la distribution Linux Fedora. Vous pouvez le contacter sur ladresse mail:Figure 5. Informations sur lutilisateur, le SGBD utilisé, le chemin dexécution christophe.alladoum@gmail.com. 6/2008 HAKIN9 33

×