This page has been robot translated, sorry for typos if any. Original content here.

Promotion du site pas à pas

Promotion du site pas à pas

Table des matières:
Introduction
1. Informations générales sur les moteurs de recherche
1.1 l'histoire du développement des moteurs de recherche
1.2 Principes généraux des moteurs de recherche
2. Facteurs de classement interne
2.1 Pages Web de conception de texte
2.1.1 La quantité de texte sur la page
2.1.2 Nombre de mots-clés par page
2.1.3 Densité de mots clés
2.1.4 L'emplacement des mots-clés sur la page
2.1.5 Design stylistique du texte
2.1.6 Balise TITLE
2.1.7 Mots-clés dans le texte du lien
2.1.8 Balises ALT d'images
2.1.9 Desciption méta-tag
2.1.10 Meta Tags de mots-clés
2.2 Structure du site
2.2.1 Le nombre de pages du site
2.2.2. Menu de navigation
2.2.3 Mot clé dans le titre de la page
2.2.4 Éviter les sous-répertoires
2.2.5 Une page - une phrase clé
2.2.6 page d'accueil
2.3 Erreurs communes
2.3.1 En-tête graphique
2.3.2 Menu de navigation graphique
2.3.3 Navigation dans les scripts
2.3.4 ID de session
2.3.5 Redirections
2.3.6 Texte caché
2.3.7 Liens d'un seul pixel
3 facteurs de classement externes
3.1 Pourquoi utiliser la comptabilité des liens externes vers le site
3.2 Importance des liens (index de citation)
3.3. Texte de référence
3.4 Pertinence des pages de renvoi
3.5 Google PageRank - Fondements théoriques
3.6 Google PageRank - utilisation pratique
3.7 TIC et VIT Yandex
3.8 Augmenter la popularité de lien
3.8.1 Soumettre à des répertoires d'usage général
3.8.2 Catalogue DMOZ
3.8.3 Catalogue Yandex
3.8.4 Echange de lien
3.8.5 Communiqués de presse, fils d'actualités, ressources thématiques
4 Indexation de site
5 Sélection de mots-clés
5.1 Sélection initiale du mot clé
5.2 Haute fréquence et Subwoofer
5.3 Évaluation du niveau de concurrence pour les requêtes de recherche
5.4 Raffinement séquentiel des requêtes de recherche
6 Informations diverses sur les moteurs de recherche
6.1 Google SandBox
6.2 Google LocalRank
6.3 Caractéristiques des différents moteurs de recherche
6.4 Astuces, hypothèses et observations
6.5 Créer le bon contenu
6.6 Choisir un domaine et un hébergement
6.7 Changer l'adresse du site
7. Semonitor - progiciel de promotion et d’optimisation de site
7.1 Module Définition des positions
7.2 Liens externes du module
7.3 Module d'indexation de site
7.4 analyseur de journal de module
7.5 analyseur de classement de page de module
7.6 Module de sélection de mots clés
7.7 Module d'analyse HTML
7.7 Programmes d'enregistrement AddSite et Add2Board
8. Ressources utiles
Au lieu de conclusion - promotion du site Web étape par étape
--------------------------------------------

Introduction
Ce cours est destiné aux auteurs et aux propriétaires de sites souhaitant aborder de manière plus détaillée les questions d’optimisation des moteurs de recherche et de promotion de leurs ressources. Il est conçu principalement pour les débutants, bien qu'un webmaster expérimenté, j'espère, en apprenne quelque chose de nouveau. Sur Internet, vous trouverez un grand nombre d'articles sur l'optimisation des moteurs de recherche. Dans ce tutoriel, nous essayons de combiner toutes les informations sous la forme d'un cours unique et cohérent.
Les informations présentées dans ce tutoriel peuvent être divisées en plusieurs parties:
- des recommandations claires et spécifiques, un guide d'action pratique;
- des informations théoriques qui, à notre avis, devraient être accessibles à tout expert dans le domaine du référencement;
- des conseils, des observations, des recommandations tirées de l'expérience, l'étude de divers matériaux, etc.

1. Informations générales sur les moteurs de recherche
1.1 l'histoire du développement des moteurs de recherche
Au début de la période de développement d’Internet, le nombre de ses utilisateurs était faible et la quantité d’informations disponibles était relativement faible. Dans la plupart des cas, les employés de diverses universités et laboratoires avaient accès à Internet et, en général, le réseau était utilisé à des fins scientifiques. À cette époque, la recherche d’informations sur Internet était loin d’être aussi urgente qu’aujourd’hui.
L’un des premiers moyens d’organiser l’accès aux ressources d’information du réseau a été la création de répertoires de sites dans lesquels les liens vers les ressources ont été regroupés en fonction du sujet. Le premier projet de ce type a été le site Yahoo, qui a ouvert ses portes en avril 1994. Après que le nombre de sites dans l'annuaire Yahoo ait augmenté de manière significative, la possibilité de rechercher des informations dans l'annuaire a été ajoutée. Bien entendu, il ne s’agissait pas d’un moteur de recherche au sens plein du terme, car la zone de recherche n’était limitée que par les ressources présentes dans le répertoire, et non par toutes les ressources d’Internet.
Les catalogues de liens étaient largement utilisés auparavant, mais ils ont pratiquement perdu leur popularité à l'heure actuelle. La raison en est très simple: même les annuaires modernes contenant une énorme quantité de ressources ne fournissent des informations que sur une très petite partie d'Internet. Le plus grand répertoire du réseau DMOZ (ou du projet Open Directory) contient des informations sur 5 millions de ressources, tandis que la base de données du moteur de recherche Google comprend plus de 8 milliards de documents.
Le premier moteur de recherche à part entière a été le projet WebCrawler, qui est apparu en 1994.
En 1995, les moteurs de recherche Lycos et AltaVista sont apparus. Dernière depuis de nombreuses années était un chef de file dans le domaine de la recherche d'information sur Internet.
En 1997, Sergey Brin et Larry Page ont créé Google dans le cadre d’un projet de recherche mené à l’Université de Stanford. Google est actuellement le moteur de recherche le plus populaire au monde.
Le 23 septembre 1997, le moteur de recherche Yandex, le plus populaire de la partie russe d’Internet, a été officiellement annoncé.
Il existe actuellement 3 principaux moteurs de recherche internationaux - Google, Yahoo et MSN Search, qui possèdent leurs propres bases de données et algorithmes de recherche. La plupart des moteurs de recherche restants (sur lesquels vous pouvez compter beaucoup) utilisent les résultats des 3 répertoriés sous une forme ou une autre. Par exemple, AOL search (search.aol.com) et Mail.ru utilisent la base de données Google et AltaVista, Lycos et AllTheWeb utilisent la base de données Yahoo.
En Russie, Yandex est le principal moteur de recherche, suivi de Rambler, Google.ru, Aport, Mail.ru et KM.ru.

1.2 Principes généraux des moteurs de recherche
Le moteur de recherche comprend les composants principaux suivants:
Spider (araignée) - programme semblable à un navigateur qui télécharge des pages Web.
Crawler (crawler, "travelling" araignée) - un programme qui passe automatiquement à travers tous les liens présents sur la page.
Indexer (indexer) - programme analysant les pages Web téléchargées par des araignées.
Base de données (base de données) - un référentiel de pages téléchargées et traitées.
Moteur de recherche (récupération de résultats) - récupère les résultats d'une recherche dans une base de données.
Un serveur Web est un serveur Web qui communique entre l'utilisateur et le reste des composants du moteur de recherche.
L'implémentation détaillée des moteurs de recherche peut différer les uns des autres (par exemple, le groupe Spider + Crawler + Indexer peut être implémenté en tant que programme unique qui télécharge des pages Web connues, les analyse et recherche de nouvelles ressources via des liens), mais les plus communes décrites sont inhérentes à tous les moteurs de recherche. traits
Araignée. Spider est un programme qui télécharge des pages Web de la même manière que le navigateur de l'utilisateur. La différence est que le navigateur affiche les informations contenues sur la page (texte, graphique, etc.), l’araignée ne contient aucun composant visuel et fonctionne directement avec le texte html de la page (vous pouvez «afficher le code html» dans votre navigateur pour voir le texte «brut» en HTML).
Crawler. Sélectionne tous les liens présents sur la page. Sa tâche est de déterminer où l'araignée doit aller, en se basant sur les liens ou sur une liste d'adresses prédéterminée. Crawler, à la suite des liens trouvés, recherche de nouveaux documents inconnus du moteur de recherche.
Indexeur. L'indexeur analyse la page dans ses composants et les analyse. Différents éléments de la page sont identifiés et analysés, tels que le texte, les en-têtes, les caractéristiques structurelles et stylistiques, les balises HTML de service spéciales, etc.
Base de données. La base de données est le référentiel de toutes les données téléchargées et analysées par le moteur de recherche. Parfois, la base de données s'appelle un index de moteur de recherche.
Moteur de recherche Le système de résultats traite du classement des pages. Il décide quelles pages satisfont la demande de l'utilisateur et dans quel ordre elles doivent être triées. Cela se produit selon les algorithmes de classement des moteurs de recherche. Cette information est la plus précieuse et la plus intéressante pour nous - c’est avec cette composante du moteur de recherche que l’optimiseur interagit pour essayer d’améliorer la position du site dans le numéro. Nous allons donc examiner à l’avenir tous les facteurs qui affectent le classement des résultats.
Serveur Web. En règle générale, sur le serveur, il existe une page HTML avec un champ de saisie dans lequel l'utilisateur peut spécifier le terme de recherche qui l'intéresse. Le serveur Web est également responsable de la transmission des résultats à l'utilisateur sous la forme d'une page HTML. Au début >>>

2. Facteurs de classement interne
Tous les facteurs affectant la position du site dans l'émission d'un moteur de recherche peuvent être divisés en externes et internes. Les facteurs de classement interne sont ceux qui sont sous le contrôle du propriétaire du site Web (texte, mise en page, etc.).
2.1 Pages Web de conception de texte
2.1.1 La quantité de texte sur la page
Les moteurs de recherche valorisent les sites riches en contenu. En général, vous devez vous efforcer d’accroître le contenu textuel du site.
Les meilleurs devraient être considérés comme des pages contenant 500-3000 mots ou 2-20 kb. texte (de 2 000 à 20 000 caractères).
Une page composée uniquement de quelques phrases est moins susceptible d'entrer dans les principaux moteurs de recherche.
En outre, une plus grande quantité de texte sur une page augmente la visibilité d'une page dans les moteurs de recherche en raison de phrases de recherche rares ou aléatoires, qui peuvent dans certains cas permettre un afflux de visiteurs intéressant.
2.1.2 Nombre de mots-clés par page
Les mots clés (phrases) doivent apparaître dans le texte au moins 3 ou 4 fois. La limite supérieure dépend de la taille totale de la page. Plus le volume total est grand, plus vous pouvez effectuer de répétitions.
Séparément, vous devriez considérer la situation avec des expressions de recherche, c'est-à-dire des expressions de plusieurs mots clés. Les meilleurs résultats sont observés si la phrase est trouvée plusieurs fois dans le texte exactement comme une phrase (c'est-à-dire, tous les mots réunis dans le bon ordre), et que les mots de la phrase rencontrent le texte plusieurs fois, une à une. Il devrait également y avoir une certaine différence (déséquilibre) entre le nombre d'occurrences de chacun des mots composant la phrase.
Considérez la situation par exemple. Supposons que nous optimisions la page sous la phrase "lecteur de DVD". Une bonne option - l'expression "lecteur de DVD" se trouve dans le texte 10 fois. De plus, le mot "dvd" apparaît séparément 7 fois, le mot "lecteur" encore 5 fois. Tous les chiffres de l'exemple sont arbitraires, mais ils donnent une bonne idée générale.
2.1.3 Densité de mots clés
La densité du mot-clé sur la page indique la fréquence relative du contenu du mot dans le texte. La densité est mesurée en pourcentage. Par exemple, si un mot donné a été rencontré 5 fois sur une page de 100 mots, la densité de ce mot est de 5%. Une densité trop faible aura pour conséquence que le moteur de recherche ne donnera pas le sens approprié à ce mot. Une densité trop élevée peut activer le filtre anti-spam du moteur de recherche (c'est-à-dire que la page sera artificiellement réduite dans les résultats de la recherche en raison de l'utilisation excessive d'un mot clé).
L'optimum est la densité du texte clé 5-7%. Dans le cas de phrases composées de plusieurs mots, il convient de calculer la densité totale de tous les mots clés composant la phrase et de s’assurer qu’elle s’inscrit dans les limites spécifiées.
La pratique montre que la densité du texte clé est supérieure à 7-8%, bien que cela n’entraîne aucune conséquence négative, mais n’a pas non plus de signification particulière dans la plupart des cas.
2.1.4 L'emplacement des mots-clés sur la page
Une règle très courte est la suivante: plus un mot clé ou une phrase se rapproche du début d'un document, plus il prend du poids aux yeux du moteur de recherche.
2.1.5 Design stylistique du texte
Les moteurs de recherche mettent l'accent sur le texte, d'une manière ou d'une autre surlignée sur la page. Vous pouvez faire les recommandations suivantes:
- utilisez des mots-clés dans les en-têtes (texte marqué avec des balises «H», en particulier «h1» et «h2»). Actuellement, l'utilisation de css vous permet de remplacer l'apparence du texte mis en surbrillance par ces balises. Par conséquent, l'utilisation des balises «H» est moins importante qu'auparavant, mais vous ne devez pas les négliger.
- sélectionnez des mots-clés en gras (pas dans le texte en entier, bien sûr, mais faire une telle sélection 2 ou 3 fois sur la page ne fera pas de mal). À cette fin, il est recommandé d'utiliser la balise «forte» au lieu de la balise plus traditionnelle «B» (gras).
2.1.6 Balise TITLE
L'une des balises les plus importantes auxquelles les moteurs de recherche accordent une grande importance. Veillez à utiliser des mots-clés dans la balise TITLE.
En outre, le lien vers votre site dans le moteur de recherche contiendra le texte de la balise TITLE. Il s’agit donc, à certains égards, de la carte de visite de la page.
C’est par ce lien que le visiteur du moteur de recherche accède à votre site. La balise TITLE doit non seulement contenir des mots clés, mais aussi être informative et attrayante.
En règle générale, 50 à 80 caractères de la balise TITLE entrent dans la sortie du moteur de recherche. Il est donc conseillé de limiter la taille de l'en-tête à cette longueur.
2.1.7 Mots-clés dans le texte du lien
C’est aussi une règle très simple: utilisez des mots-clés dans le texte des liens sortants de vos pages (à la fois vers d’autres pages internes de votre site et vers d’autres ressources réseau), cela peut vous donner un léger avantage lors du classement.
2.1.8 Balises ALT d'images
Toute image de la page possède un attribut spécial "texte alternatif", spécifié dans la balise "ALT". Ce texte sera affiché à l'écran si le téléchargement de l'image a échoué ou si l'affichage des images est bloqué dans le navigateur.
Les moteurs de recherche retiennent la valeur de la balise ALT lors de l'analyse (indexation) d'une page, mais ne l'utilisent pas lors du classement des résultats de recherche.
Pour le moment, on sait de manière fiable que le moteur de recherche Google prend en compte le texte de la balise ALT de ces images qui constituent des liens vers d'autres pages, alors que le reste des balises ALT est ignoré. Pour les autres moteurs de recherche, il n'y a pas de données exactes, mais on peut supposer quelque chose de similaire.
En général, il vaut la peine de donner ce conseil - l’utilisation de mots-clés dans les balises ALT est possible et nécessaire, bien que cela n’ait pas d’importance en principe.
2.1.9 Desciption méta-tag
La balise Meta Description est spécialement conçue pour définir la description de la page. Cette balise n’affecte pas le classement, mais est néanmoins très importante. De nombreux moteurs de recherche (et en particulier les plus grands, Yandex et Google) affichent les informations de cette balise dans les résultats de la recherche si cette balise est présente sur la page et que son contenu correspond au contenu de la page et à la requête de recherche.
Il est prudent de dire qu'une place élevée dans les résultats de recherche ne fournit pas toujours un grand nombre de visiteurs. Si la description de vos concurrents dans les résultats du numéro sera plus attrayante que celle de votre site, les visiteurs des moteurs de recherche les choisiront et non votre ressource.
Par conséquent, une écriture compétente de la balise méta Description est d’une grande importance. La description doit être brève, mais informative et attrayante, contenir des mots clés spécifiques à cette page.
2.1.10 Meta Tags de mots-clés
Cette balise META était à l'origine destinée à indiquer les mots-clés d'une page donnée. Cependant, à l'heure actuelle, il n'est presque pas utilisé par les moteurs de recherche.
Cependant, il convient de remplir cette balise "au cas où". Lors de la saisie, vous devez respecter la règle suivante: ajoutez uniquement les mots-clés réellement présents sur la page.

2.2 Structure du site
2.2.1 Le nombre de pages du site
La règle générale est que le plus sera le mieux. L'augmentation du nombre de pages du site améliore sa visibilité dans les moteurs de recherche.
En outre, l’ajout progressif de nouveaux documents d’information au site est perçu par les moteurs de recherche comme le développement du site, ce qui peut offrir des avantages supplémentaires lors du classement.
Essayez donc de placer sur le site plus d'informations - des nouvelles, des communiqués de presse, des articles, des conseils utiles, etc.
2.2.2. Menu de navigation
En règle générale, tous les sites ont un menu de navigation. Utilisez des mots-clés dans le menu des liens, cela donnera un poids supplémentaire aux pages auxquelles le lien mène.
2.2.3 Mot clé dans le titre de la page
On pense que l'utilisation de mots-clés dans le nom du fichier html de la page peut avoir une incidence positive sur sa place dans les résultats de la recherche. Naturellement, cela ne s'applique qu'aux requêtes en anglais.
2.2.4 Éviter les sous-répertoires
Si votre site contient un nombre modéré de pages (plusieurs dizaines), il est préférable qu'elles se trouvent dans le répertoire racine du site. Les moteurs de recherche trouvent ces pages plus importantes.
2.2.5 Une page - une phrase clé
Essayez d'optimiser chaque page pour votre propre phrase clé. Parfois, vous pouvez choisir 2 à 3 phrases apparentées, mais vous ne devez pas optimiser une page pour 5 à 10 phrases à la fois. Il est fort probable qu'il n'y aura aucun résultat.
2.2.6 page d'accueil
Optimisez la page principale du site (nom de domaine, index.html) avec les expressions les plus importantes pour vous. Cette page a la plus grande chance d'entrer dans les principaux moteurs de recherche.
Selon mes observations, la page principale du site pourrait représenter jusqu'à 30 à 40% du trafic total de recherche.

2.3 Erreurs communes
2.3.1 En-tête graphique
Très souvent, la conception du site utilise un en-tête graphique (en-tête), c'est-à-dire une image sur toute la largeur de la page, contenant en règle générale le logo, le nom et d'autres informations de la société.
Ne fais pas ça! Le haut de la page est un endroit très précieux où vous pouvez placer les mots-clés les plus importants. Dans le cas d'une image graphique, cet endroit est perdu.
Dans certains cas, il existe des situations assez absurdes: l'en-tête contient des informations textuelles, mais afin de les rendre plus attrayantes, elles sont créées sous la forme d'une image (en conséquence, le texte affiché ne peut pas être pris en compte par les moteurs de recherche).
Il est préférable d’utiliser l’option combinée: le logo graphique en haut de la page est présent, mais il n’occupe pas toute sa largeur. Le reste contient un en-tête de texte avec des mots-clés.
2.3.2 Menu de navigation graphique
La situation est similaire à l'item précédent - les liens internes sur votre site doivent également contenir des mots-clés, cela donnera un avantage supplémentaire lors du classement. Si le menu de navigation à des fins plus attractives est constitué de graphiques, les moteurs de recherche ne pourront pas prendre en compte le texte des liens.
S'il n'y a aucune possibilité de refuser le menu graphique, n'oubliez pas, au moins, de fournir à toutes les images les balises ALT correctes.
2.3.3 Navigation dans les scripts
Dans certains cas, le site utilise des scripts. Il faut comprendre que les moteurs de recherche ne peuvent pas lire et exécuter des scripts. Ainsi, le lien spécifié via le script sera inaccessible au moteur de recherche et le robot de recherche ne le passera pas.
Dans ce cas, veillez à dupliquer les liens de la manière habituelle, de sorte que la navigation sur le site soit accessible à tous, tant pour vos visiteurs que pour les robots des moteurs de recherche.
2.3.4 ID de session
Sur certains sites, il est d'usage d'utiliser un identifiant de session: chaque visiteur obtient un paramètre & session_id = unique lors de sa visite sur le site, qui est ajouté à l'adresse de chaque page visitée sur le site.
L'utilisation de l'identifiant de session vous permet de collecter plus facilement des statistiques sur le comportement des visiteurs du site et peut être utilisée à d'autres fins.
Cependant, du point de vue du robot de recherche, la page avec la nouvelle adresse est une nouvelle page. Chaque fois que vous visitez le site, le robot de recherche recevra un nouvel identifiant de session et, en visitant les mêmes pages qu'auparavant, il les percevra comme de nouvelles pages du site.
À proprement parler, les moteurs de recherche ont des algorithmes pour coller des miroirs et des pages avec le même contenu. Les sites utilisant des identifiants de session seront donc toujours indexés. Toutefois, l’indexation de ces sites est difficile et peut, dans certains cas, ne pas fonctionner correctement. Par conséquent, l'utilisation d'identificateurs de session sur le site n'est pas recommandée.
2.3.5 Redirections
Les redirections compliquent l'analyse du site par les moteurs de recherche. N'utilisez pas de redirections s'il n'y a pas de raison claire à cela.
2.3.6 Texte caché
Les deux derniers points ne sont probablement pas des erreurs, mais bien des recherches délibérées pour tromperie, mais il reste à les mentionner.
L'utilisation de texte masqué (la couleur du texte coïncide avec la couleur d'arrière-plan, par exemple, blanc sur blanc) vous permet de «gonfler» la page avec les mots-clés nécessaires sans perturber la logique et la conception de la page. Un tel texte est invisible pour les visiteurs, mais parfaitement lisible par les robots de recherche.
L'utilisation de telles méthodes d'optimisation "grises" peut entraîner une interdiction de site, c'est-à-dire l'exclusion obligatoire d'un site de l'index du système de recherche (base de données).
2.3.7 Liens d'un seul pixel
L'utilisation de liens d'image graphiques d'une taille de 1 * 1 pixel (c'est-à-dire invisibles pour le visiteur) est également perçue par les moteurs de recherche comme une tentative de tromperie pouvant conduire à une interdiction de site. Au début >>>

3 facteurs de classement externes
3.1 Pourquoi utiliser la comptabilité des liens externes vers le site
Comme vous pouvez le constater dans la section précédente, presque tous les facteurs ayant une incidence sur le classement sont contrôlés par l'auteur de la page. Ainsi, il devient impossible pour un moteur de recherche de distinguer un document de très haute qualité d'une page créée spécifiquement pour une phrase de recherche donnée ou même d'une page générée par un robot et ne contenant aucune information utile.
Par conséquent, l'un des facteurs clés du classement des pages est l'analyse des liens externes vers chaque page évaluée. C'est le seul facteur qui échappe au contrôle de l'auteur du site.
Il est logique de supposer que plus il y a de liens externes sur le site, plus ce site est intéressant pour les visiteurs. Si les propriétaires d'autres sites du réseau ont mis un lien vers la ressource estimée, cela signifie qu'ils considèrent que cette ressource est de qualité suffisante. Suivant ce critère, le moteur de recherche peut également décider du poids à accorder à un document particulier.
Ainsi, il existe deux facteurs principaux selon lesquels les pages disponibles dans la base de données du moteur de recherche seront triées à la parution. C’est la pertinence (c’est-à-dire dans quelle mesure la page en question est liée au sujet de la demande - facteurs décrits dans la section précédente) et le nombre et la qualité des liens entrants. Ce dernier facteur a également reçu les noms de citation de référence, de popularité de lien ou d’index de citation.
3.2 Importance des liens (index de citation)
Il est facile de voir que le simple fait de compter le nombre de liens externes ne nous donne pas assez d'informations pour évaluer le site. Évidemment, un lien provenant de www.microsoft.com devrait signifier bien plus qu'un lien provenant de la page d'accueil www.hostingcompany.com/~myhomepage.html. Par conséquent, nous ne pouvons pas comparer la popularité des sites uniquement par le nombre de liens externes - vous devez également prendre en compte l'importance des liens.
Pour évaluer le nombre et la qualité des liens externes vers le site, les moteurs de recherche introduisent le concept d’index de citation.
L'index de citation ou IC est une désignation générale d'indicateurs numériques qui évaluent la popularité d'une ressource particulière, c'est-à-dire une valeur absolue de l'importance de la page. Chaque moteur de recherche utilise ses propres algorithmes pour calculer son propre index de citations. En règle générale, ces valeurs ne sont publiées nulle part.
Outre l'indice de citation ordinaire, qui est un indicateur absolu (c'est-à-dire un nombre spécifique), le terme indice de citation pondéré est introduit, il s'agit d'une valeur relative, c'est-à-dire qu'il indique la popularité de cette page par rapport à celle d'autres pages sur Internet. Le terme "indice de citation pondéré" (CIC) est généralement utilisé en relation avec le moteur de recherche Yandex.
Une description détaillée des indices de citation et de leurs algorithmes de calcul sera présentée dans les sections suivantes.
3.3. Texte de référence
Une grande importance lors du classement des résultats de recherche est attachée au texte des liens externes au site.
Le texte de lien (ou autre ancre ou texte de lien) est un texte entre les balises «A» et «/ A», c’est-à-dire le texte sur lequel vous pouvez cliquer avec le pointeur de la souris dans le navigateur pour accéder à une nouvelle page.
Si le texte du lien contient les mots-clés nécessaires, le moteur de recherche le perçoit comme une recommandation supplémentaire très importante confirmant que le site contient réellement des informations précieuses correspondant au sujet de la requête.
3.4 Pertinence des pages de renvoi
Outre le texte de référence, le contenu général des informations de la page de renvoi est également pris en compte.
Un exemple Supposons que nous promouvions une ressource pour la vente de voitures. Dans ce cas, un lien depuis un site de réparation automobile signifiera beaucoup plus qu'un lien similaire depuis un site de jardinage. Le premier lien provient d'une ressource thématiquement similaire, il sera donc plus apprécié par le moteur de recherche.
3.5 Google PageRank - Fondements théoriques
Le premier qui a breveté le système de comptabilité pour les liens externes était Google. L'algorithme s'appelle PageRank. Dans ce chapitre, nous allons parler de cet algorithme et de son incidence sur le classement des résultats de recherche.
Le PageRank est calculé pour chaque page Web séparément et est déterminé par le PageRank (citant) des pages qui pointent vers elle. Une sorte de cercle vicieux.
La tâche principale est de trouver un critère exprimant l’importance de la page. Dans le cas de PageRank, le trafic de page théorique a été choisi comme critère.
Examinons le modèle de voyage de l'utilisateur sur le réseau en cliquant sur les liens. Il est supposé que l'utilisateur commence à naviguer sur les sites à partir d'une page sélectionnée au hasard. Ensuite, les liens, il va vers d'autres ressources. En même temps, il est possible que le visiteur quitte le site et revoie les documents à partir d'une page aléatoire (dans l'algorithme PageRank, la probabilité d'une telle action est de 0,15 à chaque étape). En conséquence, avec une probabilité de 0,85, il poursuivra le voyage en cliquant sur l’un des liens disponibles sur la page actuelle (tous les liens sont équivalents). Poursuivant son voyage à l'infini, il visitera les pages populaires de nombreuses fois, et moins souvent.
Ainsi, le PageRank d'une page Web est défini comme la probabilité qu'un utilisateur trouve une page Web donnée; dans le même temps, la somme des probabilités sur toutes les pages Web du réseau est égale à un, l'utilisateur se trouvant nécessairement sur une page.
Comme il n’est pas toujours pratique de travailler avec des probabilités, après une série de transformations, vous pouvez travailler avec PageRank sous la forme de nombres spécifiques (comme, par exemple, nous sommes habitués à le voir dans la barre d’outils Google, où chaque page a un classement de PageRank de 0 à 10).
Selon le modèle décrit ci-dessus, on obtient que:
- chaque page du réseau (même s'il n'y a pas de liens externes) possède initialement un PageRank non nul (bien que très petit);
- chaque page comportant des liens sortants envoie une partie de son PageRank aux pages auxquelles elle fait référence. Dans le même temps, le PageRank transféré est inversement proportionnel au nombre de liens de la page - plus il y a de liens, plus le PageRank est réduit pour chacun d'eux;
- Le classement PageRank n’est pas entièrement transmis, il y a un amortissement à chaque étape (la même probabilité de 15% lorsque l’utilisateur commence à naviguer à partir d’une nouvelle page sélectionnée de manière aléatoire).
Voyons maintenant comment le PageRank peut influer sur le classement des résultats de recherche (nous disons «peut», car, dans sa forme la plus pure, PageRank n’a pas été impliqué dans l’algorithme de Google depuis longtemps, comme c’était le cas auparavant, mais plus en détail ci-dessous). Avec l'influence de PageRank, tout est très simple - après que le moteur de recherche a trouvé un certain nombre de documents pertinents (en utilisant des critères de texte), vous pouvez les trier selon le PageRank - car il serait logique de supposer qu'un document avec un plus grand nombre de liens externes de qualité contient les informations les plus précieuses.
Ainsi, l'algorithme PageRank "pousse" vers le haut dans la recherche des documents les plus populaires, même sans moteur de recherche.
3.6 Google PageRank - utilisation pratique
Actuellement, le PageRank n'est pas utilisé directement dans l'algorithme de Google. Cela est compréhensible - après tout, PageRank caractérise uniquement la quantité et la qualité des liens externes vers le site, mais ne tient pas compte du texte de référence et du contenu des informations des pages de renvoi - à savoir que ces facteurs auront une valeur maximale lors du classement. Il est supposé que Google utilise le PageRank thématisé (c'est-à-dire qu'il ne prend en compte que les liens de pages relatives par thème) pour le classement, mais les détails de cet algorithme ne sont connus que des développeurs Google.
Vous pouvez connaître la valeur de PageRank pour toute page Web à l'aide de la barre d'outils Google, qui indique la valeur du PageRank comprise entre 0 et 10. Il convient de noter que la barre d'outils Google n'indique pas la valeur exacte du PageRank, mais uniquement la plage du PageRank dans laquelle se trouve le site et le numéro de la plage. (de 0 à 10) est déterminé sur une échelle logarithmique.
Laissez-moi vous expliquer avec un exemple: chaque page a la valeur de PageRank exacte, connue uniquement par Google. Pour déterminer la plage souhaitée et afficher des informations sur la barre d'outils, une échelle logarithmique est utilisée (un exemple est présenté dans le tableau).
Valeur de la barre d'outils Valeur réelle PR
1-10 -> 1
10-100 -> 2
100-1000 -> 3
1000-10.000 -> 4
et ainsi de suite
Tous les chiffres sont conditionnels, mais démontrent clairement que les plages du PageRank affichées dans la barre d'outils Google ne sont pas équivalentes. Par exemple, augmenter le PageRank de 1 à 2 est facile, et de 6 à 7, beaucoup plus difficile.
En pratique, le PageRank est principalement utilisé à deux fins:
1. Évaluation rapide du niveau de promotion du site. PageRank ne donne pas d'informations précises sur les pages de renvoi, mais vous permet d'estimer rapidement et facilement le niveau de développement du site. Pour les sites anglophones, vous pouvez suivre la gradation suivante: PR 4-5 est le PR le plus typique pour la plupart des sites de promotion moyenne. PR 6 est un site très bien annoncé. Le PR 7 est une valeur pratiquement inaccessible pour un webmaster régulier, mais parfois il le fait. PR 8, 9, 10 - trouvés uniquement sur les sites Web de grandes entreprises (Microsoft, Google, etc.). La connaissance de PageRank peut être utilisée lors de l'échange de liens afin d'évaluer la qualité de la page proposée pour l'échange et dans d'autres situations similaires.
2. Évaluation du niveau de concurrence pour la requête de recherche. Bien que le PageRank ne soit pas utilisé directement dans les algorithmes de classement, il vous permet néanmoins d'évaluer indirectement la compétitivité d'une requête donnée. Par exemple, s'il existe des sites avec PageRank 6 à 7 dans l'émission d'un moteur de recherche, un site avec PageRank 4 a très peu de chances de grimper au sommet.
Une autre remarque importante est que les valeurs de classement PageRank affichées dans la barre d'outils Google sont rarement recalculées (tous les quelques mois), de sorte que la barre d'outils affiche des informations obsolètes. En d'autres termes, le moteur de recherche Google lui-même prend en compte les modifications de liens externes beaucoup plus rapidement que ces modifications ne s'affichent dans la barre d'outils Google.
3.7 TIC et VIT Yandex
VIC - index de citations pondéré - analogue de PageRank, utilisé par le moteur de recherche Yandex. Les valeurs du CID ne sont publiées nulle part et ne sont connues que de Yandex. Comme il est impossible de connaître le CID, vous devez simplement vous rappeler que Yandex dispose de son propre algorithme pour estimer l’importance des pages.
TIC - Indice de citation thématique - est calculé pour le site dans son ensemble et montre l’autorité de la ressource par rapport à d’autres ressources thématiquement proches (et non pas tous les sites Internet en général). TIC est utilisé pour classer les sites du catalogue Yandex et n’affecte pas les résultats de la recherche dans Yandex même.
Les valeurs du TIC sont indiquées dans Yandeks.Bar. Rappelons seulement que le TIC est calculé pour le site dans son ensemble et non pour chaque page spécifique.
En pratique, les TIC peuvent être utilisés aux mêmes fins que PageRank - évaluation de la promotion du site et évaluation du niveau de concurrence pour une requête de recherche donnée. En raison de la couverture d'Internet par le moteur de recherche Yandex, TIC est très bien adapté à l'évaluation de sites en langue russe.
3.8 Augmenter la popularité de lien
3.8.1 Soumettre à des répertoires d'usage général
Sur Internet, il existe un grand nombre de sites de répertoires (répertoires) contenant des liens vers d'autres ressources du réseau, classés par sujet. Le processus d’ajout d’informations sur votre site s’appelle la soumission.
Ces annuaires sont payants et gratuits, peuvent exiger ou non un lien réciproque à partir de votre site. Leur nombre est très faible, c’est-à-dire qu’il n’ya pas de véritable afflux de visiteurs. Cependant, les moteurs de recherche prennent en compte les liens de ces annuaires, ce qui peut faire apparaître votre site dans les résultats de recherche.
C'est important! N'oubliez pas que seuls les annuaires qui établissent un lien direct vers votre site ont une valeur réelle. À ce stade, cela vaut la peine de rester plus en détail. Il y a deux façons de créer un lien. Un lien direct est mis à travers la construction standard du langage HTML ("A href = ... etc."). De plus, les liens peuvent être placés à travers différents types de scripts, redirections, etc. Les moteurs de recherche ne comprennent que les liens directs directement spécifiés dans le code HTML. Par conséquent, si le catalogue ne fournit pas de lien direct vers votre site, sa valeur est proche de zéro.
Ne soumettez pas à des répertoires FFA (free-for-all). De tels répertoires hébergent automatiquement des liens sur n'importe quel sujet, ils sont ignorés par les moteurs de recherche. La soumission de la FFA n'entraîne qu'une augmentation du spam envoyé à votre adresse électronique. En fait, le principal objectif de la FFA est le suivant.
Faites attention aux promesses de divers programmes et services d’ajouter votre ressource à des centaines de milliers de moteurs de recherche, annuaires et annuaires. Les répertoires vraiment utiles sur le réseau ne seront pas dactylographiés plus de quelques centaines, à partir de cette figure et doivent commencer. Les services de soumission professionnels fonctionnent avec autant de répertoires. Si des quantités énormes de centaines de milliers de ressources sont promises, la base de soumission comprend principalement les archives et autres ressources inutiles mentionnées par la FFA.
Privilégiez les processus manuels ou semi-automatiques - ne faites pas confiance aux processus entièrement automatisés. En règle générale, le fait de soumettre une personne sous contrôle produit un bien meilleur rendement que de le soumettre entièrement automatiquement.
La nécessité d’ajouter un site à des annuaires payants ou d’apposer un lien réciproque réciproque à partir de votre site doit être traitée séparément pour chaque annuaire. Dans la plupart des cas, cela n’a pas beaucoup de sens, mais il peut y avoir des exceptions.
La soumission d'un site à des annuaires n'a pas d'effet significatif, mais améliore quelque peu la visibilité d'un site dans les moteurs de recherche. Cette opportunité est généralement disponible et ne nécessite pas de temps ni de coûts financiers importants, alors ne l'oubliez pas lors de la promotion de votre projet.
3.8.2 Catalogue DMOZ
Le répertoire DMOZ (www.dmoz.org) ou le projet Open Directory est le plus grand répertoire Internet. En outre, il existe un grand nombre de copies du site principal de DMOZ sur Internet. Ainsi, en plaçant votre site Web dans le répertoire DMOZ, vous recevrez non seulement un lien précieux du répertoire lui-même, mais également quelques dizaines de liens de ressources connexes. Ainsi, le catalogue DMOZ est d'une grande valeur pour le webmaster.
Entrer dans le répertoire n’est pas facile, ou plutôt, cela dépend de votre chance. Le site peut apparaître dans l'annuaire quelques minutes après son ajout et peut-être plusieurs mois attendent son tour.
Si votre site n'apparaît pas dans le catalogue pendant longtemps, mais que vous êtes certain que tout a été fait correctement et que le site convient au catalogue en termes de paramètres, vous pouvez essayer d'écrire à l'éditeur de votre catégorie avec une question sur votre application (le site Web de DMOZ offre cette possibilité). Bien sûr, il n'y a aucune garantie, mais cela peut aider.
Ajout gratuit au catalogue DMOZ, y compris pour les sites commerciaux.
3.8.3 Catalogue Yandex
La présence dans le catalogue Yandex fournit un lien thématique précieux vers votre site, ce qui peut améliorer la position de votre site dans le moteur de recherche. De plus, le catalogue Yandex lui-même est capable de générer peu de trafic sur votre site.
Il existe des options gratuites et payantes pour l’ajout d’informations au catalogue Yandex. Bien entendu, dans le cas d'une option gratuite, ni le timing ni l'ajout du site lui-même ne peuvent être garantis.
En conclusion, quelques recommandations supplémentaires à soumettre à des annuaires aussi importants que DMOZ et Yandex. Tout d’abord, lisez attentivement les conditions requises pour les sites, les descriptions, etc., afin de ne pas enfreindre les règles lors de la soumission d’une candidature (cela pourrait entraîner le fait que votre candidature ne sera pas prise en compte).
Et le second - la présence dans ces répertoires est une exigence souhaitable, mais pas obligatoire. Si vous ne parvenez pas à accéder à ces répertoires, ne désespérez pas - il est possible d'atteindre des positions élevées dans les résultats de recherche sans ces répertoires, ce que la plupart des sites font.
3.8.4 Echange de lien
L'échange de liens consiste pour vous, à partir d'une page dédiée, à créer des liens vers d'autres sites. Ils obtiennent eux-mêmes des liens similaires. En général, les moteurs de recherche n'apprécient pas les échanges de liens, car dans la plupart des cas, il est destiné à modifier les résultats des moteurs de recherche et n'apporte rien d'utile aux utilisateurs d'Internet. Cependant, il s'agit d'un moyen efficace d'augmenter la popularité de lien, si vous suivez quelques règles simples.
- échanger des liens avec des sites thématiques. Partager avec des sites non thématiques est inefficace;
- avant l'échange, assurez-vous que votre lien sera placé sur la "bonne" page. C'est-à-dire que la page devrait avoir un certain PageRank (de préférence 3-4 ou plus), devrait être disponible pour l'indexation par les moteurs de recherche, le lien devrait être direct, le nombre total de liens sur la page ne devrait pas dépasser 50, etc.
- ne créez pas de répertoires de liens sur le site. L'idée d'un tel catalogue semble attrayante - il devient possible de changer avec un grand nombre de sites sur n'importe quel sujet, pour chaque site, une catégorie correspondante figure dans le catalogue. Cependant, dans notre cas, la qualité est plus importante que la quantité et il existe ici un certain nombre de pièges. Aucun webmaster ne mettra un lien de qualité sur vous si, en réponse, il obtient un lien factice de votre catalogue (le classement PageRank de pages de tels répertoires laisse généralement beaucoup à désirer). De plus, les moteurs de recherche sont extrêmement négatifs pour ces annuaires, il y a également eu des cas d'interdiction de sites pour l'utilisation de tels annuaires;
- mettez en surbrillance une page distincte du site sous l’échange de liens. Il devrait y avoir du PageRank, être indexé par les moteurs de recherche, etc. Ne placez pas plus de 50 liens de la même page (sinon, certains liens pourraient ne pas être pris en compte par les moteurs de recherche). Cela facilitera la recherche de partenaires d’échange.
- Les moteurs de recherche essaient de suivre les liens réciproques. Si possible, utilisez un autre domaine / site que celui qui a été promu pour placer des liens réciproques. Например, вы продвигаете ресурс site1.com, а ответные ссылки ставите на ресурсе site2.com – это оптимальный вариант;
- проявляйте некоторую осторожность при обмене. Довольно часто приходится сталкиваться с тем, что не совсем честные вебмастера удаляют ваши ссылки со своих ресурсов, поэтому необходимо время от времени проверять наличие своих ссылок.
3.8.5 Communiqués de presse, fils d'actualités, ressources thématiques
Этот раздел относится уже скорее к маркетингу сайта, а не к чистому seo. Существует большое число информационных ресурсов и новостных лент, которые публикуют пресс-релизы и новости на различные темы. Такие сайты способны не только привести к вам посетителей напрямую, но и повысить столь нужную нам ссылочную популярность сайта.
Если вы затрудняетесь создать пресс-релиз или новость самостоятельно, то подключайте журналистов – они помогут вам найти или создать информационный повод.
Ищите тематически связанные ресурсы. В Интернете существует огромное количество проектов, которые, не являясь вашими конкурентами, посвящены той же тематике, что и ваш сайт. Старайтесь найти подход к владельцам этих ресурсов, вполне вероятно, что они будут рады разместить информацию о вашем проекте.
И последнее – это относится ко всем способам получения внешних ссылок – старайтесь несколько разнообразить ссылочный текст. Если все внешние ссылки на ваш сайт будут иметь одинаковый ссылочный текст, то это может быть понято поисковыми системами как попытка спама. Au début >>>

4 Indexation de site
Avant qu'un site n'apparaisse dans les résultats de recherche, il doit être indexé par un moteur de recherche. L'indexation signifie que le robot de recherche a visité votre site, l'a analysé et a entré les informations dans la base de données du moteur de recherche.
Si une page est répertoriée dans un index de moteur de recherche, elle peut être affichée dans les résultats de la recherche. Si la page de l'index est manquante, le moteur de recherche n'en sait rien et ne peut donc pas utiliser les informations de cette page.
La plupart des sites de taille moyenne (c'est-à-dire contenant plusieurs dizaines ou centaines de pages) ne rencontrent généralement pas de problèmes d'indexation appropriée par les moteurs de recherche. Cependant, un certain nombre de points doivent être pris en compte lorsque vous travaillez sur le site.
Le moteur de recherche peut en apprendre davantage sur le site nouvellement créé de deux manières:
- ajout manuel de l'adresse du site via le formulaire du moteur de recherche approprié. Dans ce cas, vous informez vous-même le moteur de recherche du nouveau site et son adresse est mise en file d'attente pour l'indexation. Vous devez ajouter uniquement la page principale du site, le reste sera trouvé par le robot de recherche sur les liens;
- fournissez un robot de recherche pour trouver votre site vous-même. Si votre nouvelle ressource comporte au moins un lien externe à partir d'autres ressources déjà indexées par le moteur de recherche, le robot de recherche visitera et indexera votre site dans un bref délai. Dans la plupart des cas, il est recommandé d’utiliser cette option, c’est-à-dire de recevoir plusieurs liens externes vers le site et d’attendre l’arrivée du robot. L'ajout manuel du site peut même allonger le temps d'attente du robot.
Le temps requis pour indexer le site est généralement compris entre 2-3 jours et 2 semaines, selon le moteur de recherche. Le moteur de recherche Google indexe les sites les plus rapides.
Essayez de rendre le moteur de recherche du site convivial. Pour ce faire, prenez en compte les facteurs suivants:
- Essayez de vous assurer que toutes les pages de votre site sont accessibles via des liens de la page principale en 3 transitions maximum. Si la structure du site ne le permet pas, créez un sitemap qui vous permettra de suivre la règle.
- Ne répétez pas les erreurs courantes. Les identifiants de session rendent l’indexation difficile. Si vous utilisez la navigation par script, veillez à dupliquer les liens de la manière habituelle - les moteurs de recherche ne peuvent pas lire les scripts (pour plus d'informations sur ces erreurs et sur d'autres, consultez le chapitre 2.3);
- N'oubliez pas que les moteurs de recherche n'indiquent pas plus de 100 à 200 Ko de texte sur une page. Pour les pages plus grandes, seul le haut de la page sera indexé (les 100 à 200 premiers Ko). La règle en découle: n'utilisez pas de pages de plus de 100 Ko si vous souhaitez qu'elles soient entièrement indexées.
Vous pouvez contrôler le comportement des robots de recherche à l'aide d'un fichier robots.txt, dans lequel vous pouvez activer ou désactiver explicitement certaines pages pour l'indexation. Il existe également une balise spéciale «NOINDEX» qui vous permet de fermer des parties de la page pour l'indexation, mais cette balise n'est prise en charge que par les moteurs de recherche russes.
Les bases de données des moteurs de recherche sont constamment mises à jour, les enregistrements de la base de données peuvent être modifiés, disparaître et réapparaître, de sorte que le nombre de pages indexées sur votre site peut changer de temps à autre.
L'une des raisons les plus courantes de la disparition d'une page d'un index est l'inaccessibilité du serveur. En d'autres termes, le robot de recherche, lors de la tentative d'indexation d'un site, ne pouvait pas y accéder. Une fois le serveur restauré, le site devrait à nouveau apparaître dans l'index après un certain temps.
Il convient également de noter que plus votre site contient de liens externes, plus il sera indexé rapidement.
Vous pouvez suivre le processus d'indexation d'un site à l'aide de l'analyse des fichiers journaux du serveur dans laquelle toutes les visites de robots de recherche sont enregistrées. Dans la section appropriée, nous décrirons en détail les programmes qui vous permettent de le faire. Au début >>>
5 Sélection de mots-clés
5.1 Sélection initiale du mot clé
La sélection de mots-clés est la première étape avec laquelle commence la construction du site. Lors de la préparation des textes sur le site, un ensemble de mots-clés devrait déjà être connu.
Pour déterminer des mots-clés, vous devez d’abord utiliser les services proposés par les moteurs de recherche eux-mêmes.
Pour les sites de langue anglaise, il s'agit des sites www.wordtracker.com et inventory.overture.com.
Pour les langues russes, adstat.rambler.ru/wrds/, direct.yandex.ru et stat.go.mail.ru
Lors de l'utilisation de ces services, vous devez vous rappeler que leurs données peuvent être très différentes de la réalité. Lors de l’utilisation de Yandex Direct, il convient également de rappeler que ce service n’affiche pas le nombre attendu de demandes, mais le nombre attendu d’impressions d’annonces pour une expression donnée. Étant donné que les visiteurs des moteurs de recherche consultent souvent plusieurs pages, le nombre réel de requêtes est nécessairement inférieur au nombre d'impressions d'annonce correspondant à la même requête.
Le moteur de recherche Google ne fournit aucune information sur la fréquence des demandes.
Une fois que la liste des mots-clés est approximativement déterminée, vous pouvez analyser vos concurrents, afin de déterminer les expressions clés qu'ils ciblent, vous pourrez peut-être apprendre quelque chose de nouveau.
5.2 Haute fréquence et Subwoofer
Lors de l'optimisation d'un site, deux stratégies peuvent être distinguées: l'optimisation pour un petit nombre de mots clés très populaires ou pour un grand nombre de mots clés moins populaires. En pratique, les deux sont généralement combinés.
L'absence de requêtes à haute fréquence est généralement un niveau de concurrence élevé. Pour un site jeune, il n'est pas toujours possible de grimper au sommet pour ces demandes.
Pour les requêtes à basse fréquence, il suffit souvent de mentionner la phrase souhaitée sur la page ou une optimisation textuelle minimale. Dans certaines conditions, les requêtes à basse fréquence peuvent générer un très bon trafic de recherche.
Le but de la plupart des sites commerciaux est de vendre un produit ou un service particulier, ou d’une autre manière, de gagner de l’argent auprès de ses visiteurs. Ceci doit être pris en compte lors de la recherche d'optimisation et lors de la sélection de mots-clés. Vous devez vous efforcer d’obtenir des visiteurs ciblés sur le site (c’est-à-dire prêts à acheter le produit ou le service proposé), et pas seulement un grand nombre de visiteurs.
Un exemple La requête «moniteur» est beaucoup plus populaire et parfois plus compétitive que la requête «moniteur samsung 710N» (le nom exact du modèle). Toutefois, le deuxième visiteur est beaucoup plus précieux pour le fournisseur de moniteurs et il est beaucoup plus facile de l'obtenir, car le niveau de concurrence pour la deuxième demande est faible. Ceci est une autre différence possible entre les requêtes haute fréquence et basse fréquence à prendre en compte.
5.3 Évaluation du niveau de concurrence pour les requêtes de recherche
Une fois qu'un ensemble de mots-clés est approximativement connu, il est nécessaire de déterminer le noyau principal des mots sous lesquels l'optimisation sera effectuée.
Les demandes de basse fréquence pour des raisons évidentes sont immédiatement rejetées (temporairement). Dans la section précédente, nous avons décrit les avantages des requêtes à basse fréquence, mais ils sont également à basse fréquence, ce qui ne nécessite pas d'optimisation particulière. Par conséquent, dans cette section, nous ne les considérons pas.
Pour les expressions très populaires, le niveau de concurrence est généralement très élevé, vous devez donc vraiment évaluer les capacités de votre site. Pour évaluer le niveau de concurrence, calculez un certain nombre d'indicateurs pour les dix premiers sites dans les résultats de la recherche:
- PageRank moyen des pages en cause;
- le TIC moyen des sites dont les pages ont été incluses dans le numéro;
- le nombre moyen de liens externes vers des sites lors de la publication de différentes versions de moteurs de recherche;
Paramètres supplémentaires:
- le nombre de pages sur Internet contenant un terme de recherche donné (en d'autres termes, le nombre de résultats de recherche);
- le nombre de pages sur Internet contenant la correspondance exacte de la phrase donnée (comme lors d'une recherche entre guillemets).
Ces paramètres supplémentaires aideront à évaluer indirectement la difficulté d’afficher le site en haut pour une phrase donnée.
Outre les paramètres décrits, vous pouvez également vérifier le nombre de sites du problème présents dans les principaux répertoires, tels que les catalogues DMOZ, Yahoo et Yandex.
L’analyse de tous les paramètres ci-dessus et leur comparaison avec les paramètres de votre propre site vous permettront de prédire assez clairement les perspectives de porter votre site au sommet de la phrase spécifiée.
En évaluant le niveau de concurrence pour toutes les phrases sélectionnées, vous pouvez choisir un certain nombre de phrases assez populaires avec un niveau de concurrence acceptable, qui constitueront l’enjeu principal lors de la promotion et de l’optimisation.
5.4 Raffinement séquentiel des requêtes de recherche
Comme mentionné ci-dessus, les services de moteur de recherche fournissent souvent des informations très inexactes. Par conséquent, il est assez rare de déterminer le jeu de mots-clés idéal pour votre site dès la première fois.
Une fois votre site créé et certaines mesures prises pour le promouvoir, des statistiques supplémentaires sur vos mots clés sont entre vos mains: vous connaissez le classement de votre site dans les moteurs de recherche pour une phrase en particulier et le nombre de visites de votre site pour cette phrase. .
En possédant ces informations, vous pouvez clairement identifier les expressions réussies et non réussies. Souvent, vous n'avez même pas besoin d'attendre que le site aille au sommet des phrases évaluées dans tous les moteurs de recherche - une ou deux suffisent.
Un exemple Supposons que votre site soit classé premier dans le moteur de recherche Rambler pour cette phrase. En même temps, ni dans Yandex ni dans Google ne sont encore en cause pour cette phrase. Cependant, connaissant le pourcentage de visites sur votre site à partir de divers moteurs de recherche (par exemple, Yandex - 70%, Google - 20%, Rambler - 10%), vous pouvez déjà prévoir le trafic approximatif pour cette phrase et décider si elle convient à votre site ou si elle convient. non
En plus de mettre en évidence les phrases qui échouent, vous pouvez trouver de nouvelles variantes réussies. Par exemple, pour voir qu'une certaine phrase, en vertu de laquelle aucune promotion n'a été faite, génère un bon trafic, même si votre site Web figure sur la deuxième ou la troisième page.
Ainsi, vous avez entre vos mains un nouvel ensemble raffiné de mots-clés. Après cela, vous devez procéder à la restructuration du site - changer les textes pour des phrases plus réussies, créer de nouvelles pages pour les nouvelles phrases trouvées, etc.
Ainsi, après un certain temps, vous pourrez trouver le meilleur ensemble de mots-clés pour votre site et augmenter considérablement le trafic de recherche.
Quelques autres conseils. Selon les statistiques, la page principale du site représente jusqu'à 30% à 50% de l'ensemble du trafic de recherche. On le voit mieux dans les moteurs de recherche et a le plus de liens externes. Par conséquent, la page principale du site doit être optimisée pour les demandes les plus populaires et les plus concurrentielles. Chaque page du site doit être optimisée pour 1 à 2 phrases de base (et éventuellement pour un certain nombre de requêtes à basse fréquence). Cela augmentera les chances d'entrer dans les principaux moteurs de recherche pour des phrases données. Au début >>>
6 Informations diverses sur les moteurs de recherche
6.1 Google SandBox
Début 2004, dans l'environnement des optimiseurs, un nouveau concept mystérieux est apparu - Google SandBox ou Google Sandbox. Cette désignation a reçu un nouveau filtre anti-spam Google, destiné à exclure de la question des jeunes sites récemment créés.
Le filtre SandBox se manifeste par le fait que les sites nouvellement créés sont absents des résultats de la recherche pour presque toutes les phrases. Cela se produit malgré la disponibilité d'un contenu informatif unique et de haute qualité et d'une promotion correctement menée (sans utiliser de méthodes de spam).
À l'heure actuelle, SandBox s'applique uniquement au segment anglais, les sites en russe et dans d'autres langues ne sont pas exposés à ce filtre. Cependant, il est probable que ce filtre puisse étendre son influence.
On peut supposer que l'objectif du filtre SandBox est d'empêcher les sites de spam d'émettre. En effet, aucun polluposteur associé à une recherche ne peut attendre des mois avant que les résultats ne s'affichent. Cependant, parallèlement à cela, un grand nombre de sites normaux nouvellement créés souffrent.
Il n’existe toujours pas d’information exacte sur le filtre SandBox. Il existe un certain nombre d'hypothèses obtenues sur la base de l'expérience que nous présentons ci-dessous:
- SandBox est un filtre pour les sites jeunes. Le site nouvellement créé tombe dans le bac à sable et y reste indéfiniment jusqu'à ce que le moteur de recherche le traduise dans la catégorie "ordinaire";
- SandBox est un filtre pour les nouveaux liens vers les sites nouvellement créés. Essayez de noter une différence fondamentale par rapport à l'hypothèse précédente: le filtre ne se superpose pas à l'âge du site, mais à l'âge des liens vers le site. En d'autres termes, Google n'a pas à se plaindre du site, mais refuse de prendre en compte les liens externes vers ce site si moins de X mois se sont écoulés depuis leur apparition. Les liens externes étant l’un des principaux facteurs de classement, ignorer les liens externes équivaut à l’absence de site dans les résultats des moteurs de recherche. Il est difficile de dire laquelle des deux hypothèses est la plus vraie, il est probable que les deux soient vraies;
- le site peut être situé dans le bac à sable de 3 mois à un an ou plus. Il y a aussi l'observation que des sites sortent en masse du bac à sable. C'est à dire Le terme du bac à sable n'est pas déterminé individuellement pour chaque site, mais pour les grands groupes de sites (les sites créés dans un certain intervalle de temps appartiennent à un groupe). Le filtre est ensuite retiré en une fois pour tout le groupe. Ainsi, les sites d'un groupe resteront dans le sable à des moments différents.
Signes typiques que votre site est dans un bac à sable:
- votre site est normalement indexé par Google, visité régulièrement par un robot de recherche;
- votre site a un PageRank, le moteur de recherche sait et affiche correctement les liens externes vers votre site;
- une recherche à l'adresse du site (www.site.com) donne les résultats corrects, avec le titre, l'extrait de code correct (description de la ressource), etc.
- votre site est normalement situé sur des phrases rares et uniques contenues dans le texte des pages;
- votre site n'est pas visible dans les mille premiers résultats pour toute autre demande, même pour celles pour lesquelles il a été créé à l'origine. Parfois, il y a des exceptions et le site pour certaines demandes apparaît sur 500 à 600 postes, ce qui, bien sûr, ne change pas l'essence.
Les méthodes de traversée de filtres sont pratiquement inexistantes. Il y a un certain nombre d'hypothèses sur la façon dont cela peut être fait, cependant, ce n'est rien de plus que des hypothèses, outre qu'elles ne sont pas acceptables pour un webmaster ordinaire. La méthode principale consiste à travailler sur le site et à attendre la fin du filtre.
Une fois le filtre retiré, les notations ont fortement augmenté, de 400 à 500 positions ou plus.
6.2 Google LocalRank
Le 25 février 2003, Google a breveté un nouvel algorithme de classement de page appelé LocalRank. Il est basé sur l’idée de classer les pages non pas par leur citation de référence globale, mais par la citation parmi le groupe de pages thématiquement liées à la requête.
L'algorithme LocalRank n'est pas utilisé en pratique (du moins sous la forme dans laquelle il est décrit dans le brevet). Cependant, le brevet contient un certain nombre d'idées intéressantes avec lesquelles, nous pensons, tout optimiseur devrait être familier. Sujets de comptabilité faisant référence à des pages utilisées par presque tous les moteurs de recherche. Bien que cela se produise, apparemment, selon plusieurs autres algorithmes, l’étude du brevet permettra de comprendre les idées générales sur la manière de le mettre en oeuvre.
En lisant ce chapitre, n'oubliez pas qu'il contient des informations théoriques et non un guide pratique de l'action.
L'idée principale de l'algorithme LocalRank est exprimée par les trois points suivants:
1. En utilisant un certain algorithme, sélectionnez un certain nombre de documents pertinents pour la requête de recherche (on note ce nombre N). Ces documents sont initialement triés selon un certain critère (par exemple, un classement PageRank, une évaluation de la pertinence ou un autre critère ou leur regroupement). Indique l'expression numérique de ce critère sous la forme OldScore.
2. Chacune des N pages passe par une nouvelle procédure de classement, à la suite de laquelle chaque page obtient un nouveau classement. Nous le désignons par LocalScore.
3. À cette étape, les valeurs d'OldScore et de LocalScore sont multipliées, ce qui donne la nouvelle valeur de NewScore, selon laquelle le classement final des pages a lieu.
La clé de cet algorithme est la nouvelle procédure de classement, à la suite de laquelle un nouveau classement LocalScore est attribué à chaque page. Nous décrivons cette procédure plus en détail.
0. En utilisant un algorithme de classement, N pages correspondant à la requête de recherche sont sélectionnées. Le nouvel algorithme de classement ne fonctionnera qu'avec ces N pages. Chaque page de ce groupe a un grade OldScore.
1. Lors du calcul de LocalScore pour cette page, toutes les pages de N qui ont des liens externes vers cette page sont mises en surbrillance. Nous notons l'ensemble de ces pages par M. Dans ce cas, l'ensemble de M n'obtiendra pas les pages du même hôte (hôte, le filtrage se fera par adresse IP), ainsi que les pages qui sont le miroir de celui-ci.
2. L'ensemble M est divisé en sous-ensembles de Li. Ces sous-ensembles contiennent des pages combinées aux fonctionnalités suivantes:
- appartenant à un hôte (ou similaire). Ainsi, les pages avec les trois premiers octets de l’adresse IP appartiennent au même groupe. C’est-à-dire la page dont l’adresse IP appartient à la plage
xxx.xxx.xxx.0
xxx.xxx.xxx.255
sera considéré comme appartenant à un groupe;
- les pages ayant un contenu identique ou similaire (miroirs, miroirs);
- Pages d'un site (domaine).
3. Chaque page de chaque ensemble Li a un certain rang (OldScore). Dans chaque ensemble, une page avec le plus grand OldScore est sélectionnée, le reste est exclu. Ainsi, nous obtenons une série de K pages qui renvoient à cette page.
4. Страницы в множестве K сортируются согласно параметру OldScore, затем в множестве K остаются только k первых страниц (k – некоторое заданное число), остальные страницы исключаются из рассмотрения.
5. На данном шаге рассчитывается LocalScore. По оставшимся k страницам происходит суммирование их значений OldScore. Это можно выразить следующей формулой:
Здесь m – некоторый заданный параметр, который может варьироваться от 1 до 3 (к сожалению, информация, содержащаяся в патенте на описываемый алгоритм, не дает подробного описания данного параметра).
После того, как расчет LocalScore для каждой страницы из множества N закончен, происходит расчет значений NewScore и пересортировка страниц согласно новому критерию. Для рассчета NewScore используется следующая формула:
NewScore(i)= (a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)
i – страница, для которой рассчитывается новое значение ранга.
a и b – некоторые числа (патент не дает более подробной информации об этих параметрах).
MaxLS – максимальное из рассчитанных значений LocalScore
MaxOS – максимальное из значений OldScore
Теперь постараемся отвлечься от математики и повторим все вышесказанное простым языком.
На первом этапе происходит отбор некоторого количества страниц соответствующих запросу. Это делается по алгоритмам, не учитывающим тематику ссылок (например, по релевантности и общей ссылочной популярности).
После того, как группа страниц определена, будет подсчитана локальная ссылочная популярность каждой из страниц. Все страницы так или иначе связаны с темой поискового запроса и, следовательно, имеют отчасти схожу тематику. Проанализировав ссылки друг на друга в отобранной группе страниц (игнорируя все остальные страницы в Интернете), получим локальную (тематическую) ссылочную популярность.
После проделанного шага у нас есть значения OldScore (рейтинг страницы на основе релевантности, общей ссылочной популярности и других факторов) и LocalScore (рейтинг страницы среди тематически связанных страниц). Итоговый рейтинг и ранжирование страниц проводится на основе сочетания этих двух факторов.
6.3 Caractéristiques des différents moteurs de recherche
Все, сказанные выше идеи по текстовой оптимизации и увеличению ссылочной популярности применимы ко всем поисковым системам в равной степени. Более подробное описание Google объясняется большим наличием информации об этой поисковой системе в свободном доступе, однако идеи, высказанные в отношении Google, в большой степени применимы и к другим поисковым системам.
Вообще, я не являюсь сторонником поиска «секретного знания» о том, как детально работают алгоритмы различных поисковых систем. Все они в той или иной мере подчиняются общим правилам и грамотная работа над сайтом (без учета каких-либо особенностей) приводит к хорошим позициям почти во всех поисковых системах.
Тем не менее, приведем некоторые особенности различных поисковых систем:
Google – очень быстрая индексация, очень большое значение придается внешним ссылкам. База Google используется очень большим числом других поисковых систем и порталов.
MSN – больший, нежели у других поисковых систем, акцент на информационное содержимое сайта.
Yandex – крупнейшая российская поисковая система. Обрабатывает (по разным данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют эффект, но в меньшей степени, чем у других поисковых систем). Индексация проходит медленнее, чем у Google, однако так же в приемлемые сроки. Понижает в рейтинге или исключает из индекса сайты, занимающиеся нетематическим ссылкообменом (содержащих каталоги нетематических ссылок, созданных лишь с целью повышения рейтинга сайта), а также сайты, участвующие в системах автоматического обмена ссылками. В периоды обновлений базы, которые длятся несколько дней, выдача Яндекса постоянно меняется, в такие периоды следует отказаться от каких-либо работ по сайту и дождаться стабильных результатов работы поисковой системы.
Rambler – наиболее загадочная поисковая система. Занимает второе (по другим данные третье после Google) место по популярности среди российских пользователей. По имеющимся наблюдениям, понижает в рейтинге сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних ссылок). Ценит наличие поисковых терминов в простом тексте страницы (без выделения различными стилистическими тегами).
Mail.ru – набирающая популярность поисковая система. Использует результаты поисковой системы Google после некоторой дополнительной обработки. Оптимизация под Mail.ru сводится к оптимизации под Google.
6.4 Astuces, hypothèses et observations
В данной главе представлена информация, появившаяся в результате анализа различных статей, общения оптимизаторов, практических наблюдений и т.п. Информация эта не является точной и достоверной – это всего лишь предположения и идеи, однако идеи интересные. Данные, представленные в этом разделе, воспринимайте не как точное руководство, а как информацию к размышлению.
- исходящие ссылки. Ссылайтесь на авторитетные в вашей области ресурсы, используя нужные ключевые слова. Поисковые системы ценят ссылки на другие ресурсы той же тематики;
- исходящие ссылки. Не ссылайтесь на FFA сайты и прочие сайты, исключенные из индекса поисковой системы. Это может привести к понижению рейтинга вашего собственного сайта;
- исходящие ссылки. Страница не должна содержать более 50-100 исходящих ссылок. Это не приводит к понижению страницы в рейтинге, но ссылки сверх этого числа не будут учтены поисковой системой;
- исходящие site wide ссылки, то есть ссылки, стоящие на каждой странице сайта. Считается, что поисковые системы негативно относятся к таким ссылкам и не учитывают их при ранжировании. Существует также другое мнение, что это относится только к большим сайтам с тысячами страниц;
- идеальная плотность ключевых слов. Очень часто приходится слышать подобный вопрос. Ответ заключается в том, что идеальной плотности ключевых слов не существует, вернее она различная для каждого запроса, то есть рассчитывается поисковой системой динамически, в зависимости от поискового термина. Наш совет – проанализировать первые сайты из выдачи поисковой системы, что позволит примерно оценить ситуацию;
- возраст сайта. Поисковые системы отдают предпочтение старым сайтам, как более стабильным;
- обновление сайта. Поисковые системы отдают предпочтение развивающимся сайтам, то есть тем, на которых периодически добавляется новая информация, новые страницы;
- доменная зона (касается западных поисковиков). Предпочтение отдается сайтам, расположенным в зонах .edu, .mil, .gov и т.п. Такие домены могут зарегистрировать только соответствующие организации, поэтому доверия таким сайтам больше;
- поисковые системы отслеживают, какой процент посетителей возвращается к поиску, после посещения того или иного сайта из вылачи. Большой процент возвратов означает нетематическое содержимое, и такая страница понижается в поиске;
- поисковые системы отслеживают, насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка выбирается редко, значит, страница не представляет интереса и такая страница понижается в рейтинге;
- используйте синонимы и родственные формы ключевых слов, это будет оценено поисковыми системами;
- слишком быстрый рост числа внешних ссылок воспринимается поисковыми системами как искусственная раскрутка и ведет к понижению рейтинга. Очень спорное утверждение, прежде всего потому, что такой способ может использоваться для понижения рейтинга конкурентов;
- Google не учитывает внешние ссылки, если они находятся на одном (или сходных) хостах, то есть страницах, IP адрес которых принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение происходит скорее всего от того, что Google высказывал данную идею в своих патентах. Однако сотрудники Google заявляют, что никаких ограничений по IP адресу на внешние ссылки не налагается, и нет никаких оснований не доверять им;
- поисковые системы проверяют информацию о владельце домена. Соответственно ссылки с сайтов, принадлежащих одному владельцу имеют меньший вес, чем обычные ссылки. Информация представлена в патенте;
- срок, на который зарегистрирован домен. Чем больше срок, тем большее предпочтение отдается сайту;
6.5 Créer le bon contenu
Контент (информационное содержимое сайта) играет важнейшую роль в раскрутке сайта. Тому есть множество причин, о которых мы расскажем в этой главе, а также дадим советы, как правильно наполнить сайт информацией.
- уникальность контента. Поисковики ценят новую информацию, нигде ранее не публиковавшуюся. Поэтому при создании сайта опирайтесь на собственные тексты. Сайт, построенный на основе чужих материалов, имеет гораздо меньшие шансы на выход в топ поисковых систем. Как правило, первоисточник всегда находится выше в результатах поиска;
- при создании сайта не забывайте, что он изначально создается для посетителей, а не для поисковых систем. Привести посетителя на сайт – это только первый и не самый трудный шаг. Удержать посетителя на сайте и превратить его в покупателя – вот действительно сложная задача. Добиться этого можно только грамотным информационным наполнением сайта, интересным для человека;
- старайтесь регулярно обновлять информацию на сайте, добавлять новые страницы. Поисковики ценят развивающиеся сайты. Кроме того, больше текста – больше посетителей на сайт. Пишите статьи на тему вашего сайта, публикуйте отзывы посетителей, создайте форум для обсуждения вашего проекта (последнее – только если посещаемость сайта позволит создать активный форум). Интересный контент – залог привлечения заинтересованных посетителей;
- сайт, созданный для людей, а не поисковых машин, имеет большие шансы на попадание в важные каталоги, такие как DMOZ, Яндекс и другие;
- интересный тематический сайт имеет гораздо больше шансов на получение ссылок, отзывов, обзоров и т.д. других тематических сайтов. Такие обзоры сами по себе могут дать неплохой приток посетителей, кроме того, внешние ссылки с тематических ресурсов будут по достоинству оценены поисковыми системами.
В заключение еще один совет. Как говорится, сапоги должен делать сапожник, а писать тексты должен журналист или технический писатель. Если вы сумеете создать увлекательные материалы для вашего сайта – это очень хорошо. Однако у большинства из нас нет особых способностей к написанию привлекательных текстов. Тогда лучше доверить эту часть работы профессионалам. Это более дорогой вариант, но в долгосрочной перспективе он себя оправдает.
6.6 Choisir un domaine et un hébergement
В настоящее время создать свою страницу в Интернет может любой и для этого не нужно никаких затрат. Существуют компании, предоставляющие бесплатный хостинг, которые разместят вашу страницу в обмен на право показывать на ней свою рекламу. Многие Интернет-провайдеры также дадут вам место на своем сервере, если вы являетесь их клиентом. Однако все эти варианты имеют очень существенные недостатки, поэтому, при создании коммерческого проекта, вы должны отнестись к этим вопросам с большей ответственностью.
Прежде всего стоит купить свой собственный домен. Это дает вам следующие преимущества:
- проект, не имеющий собственного домена, воспринимается как сайт-однодневка. Действительно, почему мы должны доверять данному ресурсу, если его владельцы не готовы потратить даже символическую сумму для создания минимального имиджа. Размещение бесплатных материалов на таких ресурсах возможно, но попытка создания коммерческого проекта без собственного домена почти всегда обречена на неудачу;
- собственный домен дает вам свободу в выборе хостинга. Если текущая компания перестала вас устраивать, то вы в любой момент можете перенести свой сайт на другую, более удобную или быструю площадку.
При выборе домена помните о следующих моментах:
- старайтесь, чтобы имя домена было запоминающимся и его произношение и написание было бы однозначным;
- для раскрутки международных англоязычных проектов более всего подходят домены с расширением .com Можно также использовать домены из зон .net, .org, .biz и т.п., однако этот вариант менее предпочтителен;
- для раскрутки национальных проектов всегда следует брать домен в соответствующей национальной зоне (.ru – для русскоязычных проектов, .de – для немецких и т.д.);
- в случае двуязычных (и более) сайтов следует выделить свой домен под каждый из языков. Национальные поисковые системы в большей степени оценят такой подход, чем наличие на основном сайте подразделов на различных языках.
Стоимость домена составляет (в зависимости от регистратора и зоны) 10-20$ в год.
При выборе хостинга следует опираться на следующие факторы:
- скорость доступа;
- время доступности серверов (uptime);
- стоимость трафика за гигабайт и количество предоплаченного трафика;
- желательно, чтобы площадка располагалась в том же географическом регионе, что и большинство ваших посетителей;
Стоимость хостинга для небольших проектов колеблется в районе 5-10$ в месяц.
При выборе домена и хостинга избегайте «бесплатных» предложений. Часто можно видеть, что хостинг-компании предлагают бесплатные домены своим клиентам. Как правило, домены в этом случае регистрируются не на вас, а на компанию, то есть фактическим владельцем домена является ваш хостинг-провайдер. В результате вы не сможете сменить хостинг для своего проекта, либо будете вынуждены выкупать свой собственный, раскрученный домен. Также в большинстве случаев следует придерживаться правила не регистрировать свои домены через хостинг-компанию, так как это может затруднить возможный перенос сайта на другой хостинг (даже несмотря на то, что вы являетесь полноценным владельцем своего домена).
6.7 Changer l'adresse du site
Иногда по ряду причин может потребоваться смена адреса проекта. Некоторые ресурсы, начинавшиеся на бесплатном хостинге и адресе, развиваются до полноценных коммерческих проектов и требуют переезда на собственный домен. В других случаях находится более удачное название для проекта. При любых подобных вариантах встает вопрос правильного переноса сайта на новый адрес.
Наш совет в этом плане таков – создавайте на новом адресе новый сайт с новым, уникальным контентом. На старом сайте поставьте на новый ресурс видные ссылки, чтобы посетители могли перейти на ваш новый сайт, однако не убирайте совсем старый сайт и его содержимое.
При таком подходе вы сможете получать поисковых посетителей как на новый, так и на старый ресурс. При этом у вас появляется возможность охватить дополнительные темы и ключевые слова, что было бы сложно сделать в рамках одного ресурса.
Перенос проекта на новый адрес задача сложная и не очень приятная (так как в любом случае раскрутку нового адреса придется начинать практически с нуля), однако, если этот перенос необходим, то следует извлечь максимум пользы из него. Au début >>>
7. Semonitor – пакет программ для раскрутки и оптимизации сайта
В предыдущих главах мы рассказали о том, как правильно создать свой сайт и какими методами его можно раскрутить. Последняя глава посвящена программным инструментам, которые позволят автоматизировать значительную часть работы над сайтом и добиться более высоких результатов. Речь пойдет о пакете программ Semonitor, который вы можете скачать с нашего сайта (www.semonitor.ru).
7.1 Module Définition des positions
Проверка позиций сайта в поисковых системах является практически каждодневной задачей каждого оптимизатора. Позиции можно проверять и вручную, однако, если у вас несколько десятков ключевых слов и 5-7 поисковых систем, которые нужно мониторить, то этот процесс будет очень утомительным.
Модуль Определение позиций проделает всю работу автоматически. Вы сможете получить информацию о рейтингах вашего сайта по всем ключевым словам в различных поисковых системах, увидеть динамику и историю позиций (рост/падение вашего сайта по заданным ключевым словам), увидеть ту же информацию в наглядной графической форме.
7.2 Liens externes du module
Программа сама опросит все доступные поисковые системы и составит наиболее полный и не содержащий дубликатов список внешних ссылок на ваш ресурс. Для каждой ссылки вы увидите такие важные параметры, как PageRank ссылающейся страницы и ссылочный текст (в предыдущих главах мы подробно рассказали о ценности этих параметров).
Помимо общего списка внешних ссылок вы сможете отслеживать их динамику – то есть видеть вновь появившиеся и устаревшие ссылки.
7.3 Module d'indexation de site
Покажет все страницы, проиндексированные той или иной поисковой системой. Необходимый инструмент при создании нового ресурса. Для каждой из проиндексированных страниц будет показано значение PageRank.
7.4 analyseur de journal de module
Вся информация о ваших посетителях (с каких сайтов они попали на ваш ресурс, какие ключевые слова использовали, в какой стране они находятся и многое другое) содержится в лог-файлах сервера. Модуль лог-анализатор представит всю эту информацию в удобных и наглядных отчетах.
7.5 analyseur de classement de page de module
Определяет огромное количество конкурентной информации о заданном списке сайтов. Автоматически определяет для каждого сайта из списка такие параметры, как Google PageRank, Yandex ТИЦ, число внешних ссылок, присутствие сайта в основных каталогах DMOZ, Yandex и Yahoo каталоге. Идеальный инструмент для анализа уровня конкуренции по тому или иному поисковому запросу.
7.6 Module de sélection de mots clés
Подбирает релевантные ключевые слова для вашего сайта, сообщает данные об их популярности (число запросов за месяц), оценивает уровень конкуренции по той или иной фразе.
7.7 Module d'analyse HTML
Анализирует html-код страницы, подсчитывает вес и плотность ключевых слов, создает отчет о правильности текстовой оптимизации сайта. Используется на этапе создания собственного сайта, а также для анализа сайтов конкурентов. Позволяет анализировать как локальные html-страницы, так и он-лайн проекты. Поддерживает особенности русского языка, поэтому может быть использован для успешной работы, как с английскими, так и с русскими сайтами.
7.7 Programmes d'enregistrement AddSite et Add2Board
Программы AddSite (регистрация в каталогах) и Add2Board (доски объявлений) позволят поднять ссылочную популярность вашего проекта. Подробнее об этих программах можно узнать на сайте наших партнеров www.addsite.ru В начало >>>
8. Полезные ресурсы
В сети существует масса ресурсов по продвижению сайтов. Приведем здесь основные, наиболее ценные на наш взгляд:
www.searchengines.ru – крупнейший в рунете сайт по оптимизации
forum.searchengines.ru – место, где общаются оптимизаторы, как профессионалы так и новички
http://www.optimization.ru/subscribe/list.html - архив рассылок компании Ашманов и партнеры, базовый курс поисковой оптимизации. Самая лучшая рассылка на тему seo, здесь вы найдете самые последние новости, статьи и т.д.
http://www.optimization.ru – сайт посвященный ежегодной конференции Поисковая оптимизация и продвижение сайтов в Интернете. Возможность приобрести доклады предыдущих конференций, содержащие очень ценную информацию.
http://seminar.searchengines.ru/ - сборник материалов по теме seo. Сборник платный, но цена невысокая, очень хорошая подборка материалов.

Вместо заключения – раскрутка сайта шаг за шагом
В этой главе я расскажу о том, как раскручиваю свои собственные сайты. Это нечто вроде небольшой пошаговой инструкции, в которой коротко повторяется то, что было описано в предыдущих разделах. В своей работе я использую программу Semonitor, поэтому она и будет взята в качестве примера.
1. Для начала работы над сайтом следует обладать некоторыми базовыми знаниями, в достаточном объеме они представлены в данном курсе. Подчеркну, что не нужно быть гуру в оптимизации и эти базовые знания приобретаются достаточно быстро. После этого начинаем работать,
экспериментировать, выводить сайты в топ и т.д. Здесь нам и становятся нужны программные средства.
2. Составляем примерный список ключевых слов и проверяем уровень конкуренции по ним. Оцениваем свои возможности и останавливаем выбор на достаточно популярных, но среднеконкурентных словах. Подбор ключевых слов делается с помощью соответствующего модуля, примерная проверка конкуренции в нем же. По наиболее интересным для нас запросам
проводим детальный анализ выдачи поисковых систем в модуле Page Rank
анализатор и принимаем окончательные решения по ключевым словам.
3. Начинаем писать тексты для сайта. Часть текстов я пишу самостоятельно, часть наиболее важных отдаю на написание журналистам. То есть мое мнение - контент прежде всего. При наличии хорошего
информационного содержимого, будет легче получать внешние ссылки и посетителей. На этом же этапе начинаем использовать модуль HTML-анализатор, создаем нужную плотность ключевых слов. Каждую страницу оптимизируем под свое словосочетание.
4. Регистрация сайта в каталогах. Для этого служит программа AddSite (www.addsite.ru)
5. После того, как первые шаги сделаны, ждем и проверяем индексацию, чтобы убедиться, что сайт нормально воспринимается различными поисковыми системами.
6. На следующем шаге уже можно начинать проверку позиций сайта по нужным ключевым словам. Позиции скорее всего будут не очень хорошими сначала, однако информацию к размышлению это даст.
7. Продолжаем работать над увеличением ссылочной популярности, процесс отслеживаем с помощью модуля Внешние ссылки.
8. Посещаемость сайта анализируем с помощью Лога анализатора и работаем над ее увеличением.