Présentation Formation SEO du 18 septembre 2014
Transcription
Présentation Formation SEO du 18 septembre 2014
Forma&on Référencement Naturel : Ques'on Santé – 18 septembre 2014 Yves Vandeuren Services : • Conseils en Marke'ng // Digital • Ges'on de projets Web • Forma'on, organisa'on de conférences Exper&se : • (e)Marke'ng • Ges'on de projets • Ergonomie & Architecture de l’info • Analyse fonc'onnelle • E-‐commerce consultant • Réseaux Sociaux Enseignement : • Ephec Bruxelles // Marke'ng • Digital Marke'ng School Quelques clients Social Média : • VW, CDiscount UK, Borderlinx, IFAPME… • Technofutur Tic,… Awex : • Expert en Stratégie à l’Exporta'on (ESE) Suivez moi via h\p://yvandeuren.be Programme Forma&on Référencement 1. Origine du SEO : Google et ses concurrents 2. Fréquenta'on d’un site 3. Comment se comporte un moteur de recherche : PageRank 4. Web Analy'cs en deux mots 5. Op'misa'on du référencement 6. Trouver et op'miser les mots clés 7. Méthodologie de référencement : l’avenir du SEO 13h00 17h00 Origine du SEO Les premiers moteurs de recherche Google … et ses concurrents Origine du SEO Au début du web, pas de moteurs de recherche, mais des engins spécialisés (the Wanderer mesure la taille du web, Gopher est un protocole de classement) ou des indexeurs basiques (Archie indexe les fichiers disponibles en ftp). Premier moteur de recherche : Aliweb en 1993, il établi le principe de fonctionnement qui est toujours d’actualité : On déclare ("to submit") l’adresse d’une page = son URL (Uniform Resource Locator commencant par http:// ) Le moteur envoie un "crawler" (ou “spider”) télécharger la page. La page est stockée sur le serveur du moteur de recherche… … où elle est traitée par un indexeur pour en extraire les informations (mots-clés, liens) et les interpréter (importance, répétition…). périodiquement, le "crawler" revient sur la page pour actualiser les informations (20% du trafic d’internet vient des moteurs de recherche). Au milieu des années 1990, le problème de l'indexation des sites web pour les rendre plus faciles à trouver émerge, car la visibilité d’un site devient un facteur de plus en plus important : le SEO (« Search Engine Optimization ») émerge en tant que champ de compétences Selon Danny Sullivan, apparition du terme Search Engine Optimization vers 1997 Premiers algorithmes d’indexation Aliweb requiert des fichiers "index", qui sont placés spécialement par les webmasters et qui y déclarent l'adresse de leur pages, les mots-clés associés … – Mais ensuite les moteurs de recherche se basent sur des mots-clés insérés dans le code des pages • Ce sont les étiquettes méta ou « meta tag » (meta parce qu’il s’agit de donner de l’information … sur de l’information). – Mais on est confrontés aux limites de l’utilisation des meta tags comme indicateurs de la pertinence des pages : • Les webmasters y mettent des mots-clés sans rapport avec le contenu réel du site dans le but d'attirer du trafic = "spamdexing", "black hat" • .. résultat : à cette époque, trouver la bonne page web est une aventure… – Les premiers moteurs de recherche sont facilement manipulés et discrédités mais de nouveaux algorithmes d’indexation, plus difficiles à tromper sont développés… • La course entre les moteurs de recherche et les webmasters qui veulent manipuler les résultats de recherche pour attirer du trafic s'engage… Google : les débuts Des étudiants de Stanford, Larry Page et Sergey Brin développent "backrub," un moteur de recherche basé sur un algorithme d’indexation baptisé PageRank – PageRank = nom de l'inventeur, Larry Page L'algorithme calcule un indice basé sur les liens entrants : – PR(page X) = Σ PR(des pages qui donnent un lien vers X) Le principe n'est pas nouveau – Utilisé en recherche : citation index. On mesure l'importance d'un article au nombre de fois qu'il est cité dans d'autres articles. – Le moteur de recherche Inktomi utilise déjà ce principe – … et déjà des webmestres ont développé des manières de le manipuler pour tricher (link farms) Google est fondé en 1998. – Le moteur de recherche est : • Dépouillé (page légère) • Simple (recherche "et" par défaut) • Rapide … et il devient très rapidement populaire (en quelques semaines et aux dépens d’Alta Vista) Souvenez-‐vous… Google, les chiffres : • • • • Un index de plus de 40 milliards de pages (Google 2013, Bing 3.8 milliards) – 44 000 employés dans le monde (2013) – Plus de 110 sites régionaux La marque la plus populaire au monde[1] (ou 2ème) Plus de 4 milliards de requête/jour (2012) Slogan « Don't be evil » – Eric E. Schmidt, président du CA – Sergey Brin, directeur technique – Larry E. Page, directeur produits Les concurrents de Google • ≈ • • Yahoo! Search, Microsoft Live Search / Bing Les outsiders : Exalead, Ask.com Les annuaires et moteurs thématiques / régionaux – DMOZ – Baidu (百度, suit les consignes du ministère de la sécurité publique) – Une myriade de "micro" moteurs expérimentaux… • De nouveaux venus ? – Mais le « ticket d'entrée » n'est-il pas aujourd'hui devenu énorme ? Google comme étalon universel Dans la plupart des pays, le référencement naturel est devenu une « chasse au classement Google » Google, les concurrents de demain • Des alternatives à la manière d’accéder au web et à la recherche « façon Google » se développent à travers le « web social ». – Facebook, Twitter : les informations « pertinentes » sont proposées par les « amis », pas par un moteur de recherche. – Le temps passé sur le net est plus centré sur les interactions sociales proposées par ces services • « monétiser le réseau social » vs. respect de la vie privée – Google : Gmail + Google agenda + mémorisation des recherches sous IP pendant plusieurs mois) – Facebook : les informations du profil, photos etc … sont cédées à Facebook (cf. le contrat d’utilisation) La fréquentation d’un site Les trois piliers du trafic Autres manières de capter du trafic Les trois piliers du trafic 1. Les accès directs • Ceux qui mettent en marque-page votre site et y reviennent directement – Votre site fourni une réponse à leur besoin ! • Que faut-il analyser ? – Qui revient, selon quelle fréquence, quelles pages, quel CTA… – But : comprendre qui sont ces « visiteurs fidèles » 2. Les moteurs de recherche • Ce référencement naturel … est le but de cette formation – Votre site est bien référencé ? • Que faut-il analyser ? – Quels mots clés, taux de rebond, quelle fidélisation ensuite, première visite ? – taux de transformation = apport réel à l’objectif du site (cliquer sur des annonces, partager, contribuer…) 3. Netlinking : Les sites référents • Ces sites vous recommandent … – Ou vous détestent, mais le résultat est le même… – Lien fort avec le ranking de votre site – Il peut aussi s’agir des liens sponsorisés que vous achetez… (SEA). • Que faut-il analyser ? – Ranking et autres liens de la page qui vous « link » – Raison de la citation, mots-clés des liens, conversion apportée… Autres manières de capter du trafic Elles sont multiples.. • Campagnes Email • Affiliation – Afficher des produits en échange d'une commission sur les ventes • Cadeaux à des bloggeurs influents • Comparateur / Comparison Engine • Nouveaux vecteurs = réseaux sociaux, community management – – – – – Facebook Twitter LinkedIn YouTube … Comment se comporte un moteur de recherche PageRank Page Rank (PR) Google utilise, dans son algorithme de pertinence, la notion de "PageRank" (nommé "PR" par les experts du domaine), pour mesurer la "popularité" d'un site web. Un PageRank est toujours associé à une page web (pas à un site). Ce "PageRank", dont la barre d'outils de Google fournit une indication notée de 0 à 10, est calculé à deux niveaux (quantitatif et qualitatif) à partir du nombre de liens pointant sur une page web. Dans un premier temps, l'aspect quantitatif est pris en compte. Plus il y a, dans l'index de Google, de pages contenant un lien hypertexte vers un document donné, plus la "popularité de premier niveau" de ce dernier sera considérée comme élevée. Dans un second temps, la qualité de chacune de ces pages pointant vers vous est prise en compte. Plus la page B pointant vers la page A a un PR élevé, plus le PR de A augmente. Donc un lien émanant d'une page "populaire" a plus de poids qu'un lien émanant d'une page isolée, peu populaire car peu pointée par ses pairs. Pour obtenir un bon PR (condition importante pour être bien classé sur Google), il faut donc que des pages émanant de sites dits "populaires" (à fort PR) aient mis en place des liens vers votre site, et notamment sa page d'accueil. Son Algorithme ? UN SECRET bien GARDE ! – Ces facteurs sont très nombreux (plus de 200 d'après Google). – Leur nature et leur pondération sont secrets pour limiter les chances de manipulations (et la concurrence des autres moteurs de recherche). – Le terme "PageRank" est une marque déposée et a été l’objet de brevets. Le brevet appartient à Stanford University et Google en a l’usage exclusif, mais l’algorithme a beaucoup évolué depuis le dépôt en 98. – Beaucoup de spéculations sur ce sujet, voyons quelques-uns des paramètres connus… Quelques-uns des 200 paramètres du calcul du ranking Sur la page (« onpage ») – Ancienneté / Fréquence d’actualisation – Texte = visible sur la page / Code = Meta tags = non visibles sur la page Sur le site (« onsite ») – Lien internes, arborescence, fil d’ariane (« Breadcrumbs ») – Paramétrage sur Google outils pour les webmasters (Sitemap..) Hors du site (« offsite ») – Liens entrants en (petite) partie visibles via une recherche Google link:http://fr.wikipedia.org • • Leur PageRank, Âge, Social bookmaking, tweets… Un débat : Google utilise t-il les données qu’il stocke sur le comportement des internautes pour le calcul du PageRank ? • Temps passé sur le site, statistiques renvoyées par la barre d’outil google, citations d’URL dans Gmail, requêtes avec l’URL du site, marque-pages Google, âge/sexe/ localisation des internautes, leurs recherches précédentes …. les licences de ces services précisent souvent que non.. Web Analytics & Webmasters tools Analytics pour faire quoi exactement ? ü ü ü ü ü Suivre la provenance des visiteurs Améliorer la conception et le contenu du site Optimiser les campagnes marketing Comparer les indicateurs / benchmarking Alertes automatiques / personnalisées Mais aussi répondre à certaines questions : • Quels mots clés attirent les visiteurs qui passent le plus de temps sur mon site ? • Quelle variante de l’annonce a déclenché le plus de clics entrants ? • Page de destination la plus visitée ? • Abandons : Quels éléments poussent les visiteurs à abandonner leur navigation ? • Y-a-t-il un problème technique sur mon site ? Webmasters Tools Permet de suivre ü L’indexation de son site ü Soumettre une sitemap ü Connaître la dernière date de passage du googlebot ü Liste des erreurs, liens morts etc.. détectés par le robot ü Positionnement du site sur les 10 principaux mots-clés/expressions-clés ü Impressions = nombre de recherche où la SERP affiche le site ü Clic = nombre de clics amenant au site ü Liste des sites donnant des backlinks ü Plus exhaustive qu’une recherche link:http://monsite.com ü Autres outils utiles ü Google guidelines liste de bonnes pratiques conseillées. ü Yahoo! Site Explorer est analogue à GWT Optimisation du référencement Optimisation OnPage Deux variantes : 1. Texte : visible sur la page 2. Code : non visible sur la page Optimisation OnPage : choix du titre de la page Le titre est : formation webmarketing namur – L’« image de marque » qui apparaît sur le snipet de la page de résultats de recherche. • • C’est le texte du lien, Le reste de la description étant le meta tag meta name="description" .. ou sinon les premiers mots de la page, sa date.. – Le mot-clé le plus fort pour le robot indexeur Entre 7 et 10 mots – Éviter les termes « tarte à la crème » ( "page", "bienvenue"…) – Un titre propre à chaque page Le titre doit reprendre les mots clés importants – Il donne un résumé de la page (éviter les pages multi thèmes) – De plus en plus détaillé quand on descend dans l’arborescence du site Optimisation OnPage : rédaction du texte Voir le chapitre sur les mots-clés / formation Ecriture Web Le cloaking (texte caché visible pour le robot indexeur, mais invisible par le lecteur) a suscité beaucoup de tentatives pour leurrer les moteurs de recherche – Techniques : Meta tags, identification des images, texte blanc sur fond blanc, caché derrière une image, balise <div>, noframes, noscript, display:none .. ü Les robots détectent de plus en plus les données cachées, ü Ils baissent le TrustRank* des pages * Algorithme visant à combattre les pages internet de spam Optimisation OnPage : le code - Meta Tags Meta = des “données sur les données” <HEAD> <TITLE>titre de la page</TITLE> <META name="description" content="description du contenu, snipet"> <META name="keywords" content="mots clés séparés par des espaces"> </HEAD> Balise des images <IMG SRC="url_de_l_image" ALT="Texte remplaçant l'image si elle ne s’affiche pas =mot-clé pour google Images" TITLE="Texte à afficher, =mot-clé pour google Image"> <meta name="robots" content="valeurs"> all : Le robot indexe tout (= défaut) none : Le robot n'indexe rien du tout noindex : Votre page n'est pas indexée mais les liens sont suivis nofollow pour toute une page ou comme attribut de lien : voir diapo suivante rel="nofollow" Permet au webmasters de spécifier que ce lien ne doit pas compter dans le PageRank Balise inventée en 2005, notamment par un "responsable antispam" de Google Les autres moteurs de recherche se sont ralliés au système Prévient le spamdexing, notamment pour les sites : • Ouverts aux commentaires • Forums de discussion, commentaires de blogs • De crowdsourcing • Wikis… Optimisation “Onsite” • Règle des "3C" : – Contenu – Code – Conception, Optimisation “Onsite” : structure du site Ergonomie = Facilité de lecture du site pour un internaute • Plan du site • Navigation Breadcrumbs Belgique > Province de Namur > Sombreffe > Ligny Facilité de lecture du site pour un indexeur • Fonction "Analyser comme Googlebot" Intérêt des CMS pour mettre à jour la structure • Wordpress, Joomla, Magento… Optimisation “Onsite” : fichiers spéciaux Robots.txt – Spécifie aux robots indexeurs le comportement qu’il doivent adopter • Indexer ou pas, suivre les liens etc.. Sitemap.xml – Cartes sémantisée des pages du site à visiter <loc>http://www.example.com/?id=what</loc> <lastmod>2009-09-22</lastmod> <changefreq>monthly</changefreq> <priority>0.5</priority> Fichier d’identification – Pour valider par Google qu’on est bien le responsable d’un site. Optimisation “Onsite” : Choix techniques Réécriture d'URL – http://www.discounteo.com/tv-video/televiseur/tv-lcd Cas du Flash – Désormais indexé par Google dans certains cas. Cas des sites dynamiques – Facteurs pénalisants et de leurs solutions (frames, formulaires, AJAX, JavaScript, sessions, contenus dupliqués, etc.) « Le contenu c’est ce qui compte avant tout » Contenu = le texte visible par le lecteur, mais aussi les médias (images, vidéo), la facilité de navigation, l’ergonomie/affordance, l’interactivité, au global l’expérience du site.. Symptômes d’une faiblesse de contenu : • • • • Taux de rebond = les internautes ne restent pas sur le site % élevé de nouveaux visiteurs = pas de retour Peu d’entrées directes (pas de mémorisation du site en marque-pages) … Optimisation “Offsite” / Netlinking Content is King Links are Queen Optimisation “Offsite” : backlinks Les liens vers votre site sont le facteur le plus important du référencement naturel • Sauf via des sites de spam, de TrustRank faible… Ces liens sont plus efficaces s’ils viennent de sites • Couvrant le même domaine • À fort PageRank Échange de liens • Plus efficace s'ils ne sont pas directement réciproques (complaisance) Optimisation “Offsite” : efficacité des liens Les mots-clés dans les liens sont plus ou moins pondérés Moins efficace : • Cours de référencement <a href=“article1783.html”>ici</a>. Efficace : • On y propose un <a href=“article1783.html”> cours de référencement </a>. Encore plus efficace : • On y parle de <a href=“cours-referencement.html” title=“cours de référencement ”> cours de référencement </a>. Optimisation “Offsite” : netlinking Rechercher des partenaires pour augmenter le ranking du site. • Cet aspect prend de plus en plus d’importance, la gestion des partenariats est un élément clé pour ce poste. • Les fonctions du référenceur s’approchent ici de celles de community manager. Types de liens : • liens de ressources : pointent vers des ressources utiles • Liens réciproques : le site A pointe vers B, qui pointe vers A en échange. Des annuaires d’échanges de liens peuvent aider à la mise en contact. • Spam de liens : Un robot insère des commentaires dans les site web 2.0 pour augmenter le PageRank d’un site (blogs, wikis..). Stratégie neutralisée par les balises nofollow. • Liens internes : toutes les pages du site affichent un lien vers la page principale. Les annuaires • Un référencement dans un bon annuaire compte plus qu'une myriades de pages mineures. • Yahoo directory • DMOZ – Obstacles: • Difficile de se faire accepter – Gérés par des opérateurs humains, souvent des volontaires (DMOZ) – Formulaires complexes, délais … • Attention aux faux annuaires / spamdexing La déclaration aux moteurs de recherche • Ajouter l'URL de votre site à Google – Seule la page de premier niveau d'un site est à soumettre (« to submit ») – Il n'est pas nécessaire d'indiquer les liens mis à jour ou obsolètes. Les liens désactivés disparaissent au cours de l'exploration suivante – Voir aussi dans le chapitre "outils" • … Google webmasters tools. Référencement et réseaux sociaux Synthèse : White Hat ou Black Hat ? White Hat : Contenu de qualité, site agréable et pertinent pour l'utilisateur § Optimisation des mots-clés raisonnable § Stratégie de netlinking honnête (=non rémunérée) § Ne pas exiger de résultats immédiats (effet sandbox) § Rien à cacher Black Hat : Manipuler les moteurs de recherche… au risque du bannissement des résultats de recherche § Occultage (transmettre une page différente au moteur de recherche et au visiteur) § Texte caché (Cloaking) § Répéter abusivement un mot-clé, mots-clés sans rapport avec le contenu réel (Keyword stuffing) § Pages en double / contenu copiécollé d’autres sites (Scraper site) § Achat abusifs de noms de domaine (Cybersquatting, Domain spam) Rien qui cherche à tromper l’internaute ou les moteurs de recherche § Globalement, le spamdexing Trouver et optimiser les mots clés L’audit de mots-clés, pourquoi ? § Pas de SEO possible sans un travail fin sur les mots-clés – Le ranking n’a aucun sens dans l’absolu Seul compte le résultat d’une recherche sur les mots-clés entrés par les personnes auxquelles le site s’adresse. – – Attirer n’importe quel trafic ne sert à rien dans 95% des cas » coût de la bande passante » fort taux de rebond = internautes déçus » voire sanction .. Le design/audit/veille de mots-clé permet de repenser/recadrer un site § Objectif de l’audit de mots-clés - la sélection de mots ou groupes de mots selon deux considérations : 1. 2. L’adéquation aux objectifs du site (peu de conversion) La concurrence – est-il réellement possible de conquérir une bonne place sur ce mot-clé ? Un préalable : fixer l’objectif Qu’est-ce qui est attendu du site ? – Plus de visiteurs ? – Plus de visiteurs certes, mais que vont ils faire? • Trois visites avant une inscription à la newsletter, chacune avec des besoins différentes.. – Une certaine réputation / image de marque ? – Positionnement sur des catégories de visiteurs spécifiques ? – Un visiteur « branché » n’utilisera pas les mêmes mots-clés, que les jeunes, les seniors etc… – Plus de visites ? • Viser des mots-clés à fort trafic et faible concurrence Dans la tête .. du visiteur qui recherche ce que vous proposez Étapes : 1. Quelles questions l’internaute se pose t-il ? 2. .. Et donc : quelles recherches tape-t-il ? 3. Compiler les mots et phrases-clés correspondantes, chercher les variantes, le nombre de recherches … 4. Les prioriser et les trier. Outils de recherche de mots-clés • Dictionnaire des synonymes (ou maj-F7 sous MS Office) • Sites spécialisés Google – Trends • http://www.google.com/trends • Voir ci-après – Générateur de mots clés : • récupérer un fichier csv avec des idées de mots-clés avec le Google Adwords Keyword Tool • https://adwords.google.com/select/KeywordToolExternal Étude des prix des enchères pour l’achat de mots-clés • Microsoft’s adCenter Labs keyword forecast • http://adlab.msn.com/Keyword-Forecast/ Nombre de mots clés saisis sur les moteurs de recherche • 1 seul mot : 13 % – (donc requête contenant plus d’un mot : 87% : = 6 fois plus) – – – – 2 mots : 28 % 3 mots : 27% de 3 à 5 mots : 52 % de 4 à 10 mots : 31 % (source : rankstat.com, chiffres arrondis) La longue traîne • …. et la longue traîne (Long Tail) • La plupart des recherches des internautes accédant au site vient : • • • • Des combinaisons et permutations de mots-clés De mots-clés qui sont dans le texte, mais paraissaient peu importants De variantes (pluriel, fautes d’orthographe, coquilles…) Pour une variante, le trafic est faible, mais la quantité de combinaisons est telle qu’elle pèse aussi lourd que les mots-clés « star ». Rédaction et placement efficace des mots-clés • Typographie – <h1 class=“header”>titre avec mots-clés importants</h1>, idem h2, h3… – Ou en <b> gras </b> … • Mots-clés importants en tête de page... et de phrase – Moins efficace : “de nombreux domaines sont concernés (bla bla bla bla bla bla bla bla) par la gestion de projet.” – Plus efficace : “la gestion de projet comprend de nombreux domaines, dont…” • Répéter sans abuser, mais quand même … – Efficace : “la gestion de projet a évolué depuis 1970. Les outils de gestion de projet sont notamment…” • Mettre les mots-clés liés à proximité les uns des autres – Moins efficace : “la gestion est un point majeur des projets” – Plus efficace : ““la gestion de projet est un point majeur ” • Mettre les mots-clés dans le nom du site – Plus efficace : http://gestiondeprojet.com Rédaction : Content is King • Il faut avant tout un bon contenu – Informations – Services (via le mashup, et actualités/recherche personnalisée, alertes,…) – Liens vers des ressources.. • Economie de l’attention – Marchés web où l’offre est abondante (dévalorisée) et la ressource rare devient le temps et l’attention – les consommateurs de contenu acceptent de donner leur attention en échange de services Conclusion Méthodologie & quel avenir pour le SEO ? Stratégies de référencement Une méthodologie en 4 temps 1. Audit • Évaluer les sites concurrents, élaborer une stratégie, examiner les motsclés, trouver sa valeur ajoutée 2. Conception • Développer le site, l’optimiser 3. Référencement • Soumission, netlinking… 4. Optimisation / Suivi • Un processus continu de web analytics, de mise à jour et d’amélioration Les huit commandements du SEO • Le ranking n’est pas une fin en soi, il faut savoir précisément ce que l’on souhaite en faire • Connaître et surveiller ses concurrents • Concevoir ses pages et son site avec soin « dans la peau d’un robot indexeur » : mots-clés, titres etc… • … mais se rappeler que « content is king » • Links are queen : établir une politique de liens • Embaucher des experts.. ou travailler dur • Pas de résultats garantis ou stables : un suivi permanent • Ne pas dépenser tout son temps/budget à concevoir un site, il faut des ressources pour le référencement et le suivi Qu’est-ce que la réussite ? On a réussit lorsque : 1. Les gens viennent sur le site (Référencement, netlinking …). 2. Restent pour le consulter (Taux de rebond) 3. Agissent de la manière attendue = conversion Taux de conversion = – taux de conversion online = inscription, abonnement à une newsletter, téléchargement… – … + taux de conversion offline = recherche de votre asbl, appels téléphoniques, fréquentation d’un événement… 4. Sont fidélisés = Mettent l'adresse du site dans leurs favoris, reviennent, s’abonnent (Mise à jour de l'information, pull/push, RSS...). 5. Le recommandent à leurs connaissances (Social bookmarking, marketing viral...). Le facteur principal de promotion d'un site est son utilité, son contenu, content is King Le référencement est donc nécessaire mais pas suffisant. Mais aussi… • • • • Internet mobile, géolocalisation Image search optimization, recherche de vidéos Social media optimization, marketing viral sur Facebook Google Authorship Ranking is dead Thèse de Bruce Clay en 2008, à propos des SERP de plus en plus adaptées à l’internaute. Passage d’une algorithmique générale => personnalisée • Quelle localisation ? Quelle heure… • Quels amis ? Quels objets connectés à proximité ? • Quel comportement : historique de recherche, de consultations, trajectoire .. • … Applications très larges la télévision du futur n’a pas de « chaines », mais des « envies » Quelques liens A visiter… http://www.abondance.com https://www.google.com/webmasters/tools/home?hl=fr www.webmarketing-com.com http://woorank.com/ http://www.webrankinfo.com/ n eure d n a V Yves ltant u s n o ing C uren.be t e k r ande al Ma .be Digit : http://Yv bequiet 8 Web il : Yves@ 5 20 39 6 n e Ma +32 49 deur n : a v e /in/y hon Té l é p i n k e d i n : L
Documents pareils
mots-clés
Le fichier robots.txt doit être placé obligatoirement à la racine de votre site ; sinon les orbots ne
le découvreront pas et ne suivront pas ses règles et paramètres. Par ailleurs, le fichier doit ...