This page has been robot translated, sorry for typos if any. Original content here.

Promotion du site étape par étape

Promotion du site étape par étape

Table des matières
Introduction
1. Informations générales sur les moteurs de recherche
1.1 Historique du développement des moteurs de recherche
1.2 Principes généraux des moteurs de recherche
2. Facteurs de classement internes
2.1 Conception textuelle des pages Web
2.1.1 La quantité de texte par page
2.1.2 Nombre de mots-clés par page
2.1.3 Densité des mots-clés
2.1.4 Emplacement des mots-clés sur la page
2.1.5 Conception stylistique du texte
2.1.6 La balise "TITLE"
2.1.7 Mots-clés dans le texte des liens
2.1.8 Balises d'image "ALT"
2.1.9 Méta-tag de description
2.1.10 Mots-clés meta tag
2.2 Structure du site
2.2.1 Nombre de pages sur le site
2.2.2. Menu de navigation
2.2.3 Mot-clé dans le titre de la page
2.2.4 Eviter les sous-répertoires
2.2.5 Une page - une phrase clé
2.2.6 Page d'accueil du site
2.3 Erreurs communes
2.3.1 Titre graphique
2.3.2 Menu de navigation graphique
2.3.3 Navigation dans les scripts
2.3.4 Identificateur de session
2.3.5 Redirections
2.3.6 Le texte caché
2.3.7 Liens d'un pixel
3 Facteurs de classement externes
3.1 Qu'est-ce qui est utilisé pour comptabiliser les liens externes vers le site
3.2 Importance des références (indice de citation)
3.3. Texte de référence
3.4 Pertinence des pages de renvoi
3.5 Google PageRank - la base théorique
3.6 Google PageRank - utilisation pratique
3.7 TIC et VIC Yandex
3.8 Augmentation de la popularité du lien
3.8.1 Soumission aux catalogues généraux
3.8.2 Le répertoire DMOZ
3.8.3 L'annuaire Yandex
3.8.4 Échange de lien
3.8.5 Communiqués de presse, flux d'actualités, ressources thématiques
4 Indexer le site
5 Sélection de mot-clé
5.1 Choix initial des mots-clés
5.2 Haute fréquence et basse fréquence
5.3 Évaluation du niveau de concurrence des requêtes de recherche
5.4 Affinement séquentiel des requêtes de recherche
6 Informations diverses sur les moteurs de recherche
6.1 Google SandBox
6.2 LocalRank de Google
6.3 Caractéristiques des différents moteurs de recherche
6.4 Conseils, hypothèses, observations
6.5 Créer le bon contenu
6.6 Choisir un domaine et un hébergement
6.7 Changement d'adresse du site
7. Semonitor - un ensemble de programmes pour la promotion et l'optimisation du site
7.1 Définition du module de positions
7.2 Module de liens externes
7.3 Module Indexation du site
7.4 Module d'analyse de journal
7.5 Module Rank Page Analyseur
7.6 Module de sélection de mot-clé
7.7 Module d'analyse HTML
7.7 Programmes d'inscription au site AddSite et Add2Board
8. Ressources utiles
Au lieu de la conclusion - la promotion du site étape par étape
----------------------------------------

Introduction
Ce cours s'adresse aux auteurs et aux propriétaires de sites qui souhaitent aborder de plus près les problématiques d'optimisation des moteurs de recherche et de promotion de leurs ressources. Il est conçu principalement pour les débutants, même si un webmaster expérimenté, j'espère, va apprendre quelque chose de nouveau. Sur Internet, vous pouvez trouver un grand nombre d'articles sur le thème de l'optimisation des moteurs de recherche, ce tutoriel tente de combiner toutes les informations sous la forme d'un cours unique et cohérent.
Les informations présentées dans ce manuel peuvent être divisées en plusieurs parties:
- Des recommandations claires et spécifiques, des conseils pratiques pour l'action;
- des informations théoriques qui, à notre avis, devraient être possédées par tout spécialiste dans le domaine du référencement;
- conseils, observations, recommandations obtenus sur la base de l'expérience, étude de divers matériaux, etc.

1. Informations générales sur les moteurs de recherche
1.1 Historique du développement des moteurs de recherche
Dans la période initiale du développement de l'Internet, le nombre de ses utilisateurs était faible et la quantité d'informations disponibles est relativement faible. Dans la plupart des cas, les gens de différentes universités et laboratoires avaient accès à Internet et, en général, le réseau était utilisé à des fins scientifiques. À l'époque, la recherche d'informations sur Internet était loin d'être aussi pertinente qu'aujourd'hui.
L'une des premières façons d'organiser l'accès aux ressources d'information du réseau a été la création de catalogues de sites dans lesquels les liens vers les ressources ont été regroupés en fonction du sujet. Le premier projet de ce genre a été le site Yahoo, qui a ouvert ses portes en avril 1994. Après que le nombre de sites dans le répertoire de Yahoo a considérablement augmenté, la possibilité de trouver des informations sur le catalogue a été ajouté. Ceci, bien sûr, n'était pas un moteur de recherche au sens complet, puisque la portée de la recherche était limitée uniquement aux ressources présentes dans le répertoire, et non à toutes les ressources Internet.
Les catalogues de références ont été largement utilisés plus tôt, mais ont pratiquement perdu leur popularité à l'heure actuelle. La raison en est très simple - même les catalogues modernes contenant une énorme quantité de ressources ne représentent que des informations sur une très petite partie d'Internet. Le plus grand répertoire du réseau DMOZ (ou Open Directory Project) contient des informations sur 5 millions de ressources, tandis que la base de données des moteurs de recherche Google contient plus de 8 milliards de documents.
Le premier moteur de recherche à part entière a été le projet WebCrawler apparu en 1994.
En 1995, les moteurs de recherche Lycos et AltaVista sont apparus. Les dernières années ont été le leader dans le domaine de la recherche d'information sur Internet.
En 1997, Sergey Brin et Larry Page ont créé Google dans le cadre d'un projet de recherche à l'Université de Stanford. En ce moment, Google est le moteur de recherche le plus populaire au monde.
Septembre 23, 1997 a été officiellement annoncé le moteur de recherche Yandex, le plus populaire dans la partie russophone de l'Internet.
Actuellement, il existe 3 principaux moteurs de recherche internationaux - Google, Yahoo et MSN Search, qui ont leurs propres bases de données et algorithmes de recherche. La plupart des autres moteurs de recherche (qui peuvent être comptés beaucoup) utilise sous une forme ou une autre les résultats des trois énumérés. Par exemple, la recherche AOL (search.aol.com) et Mail.ru utilisent la base de données de Google, et AltaVista, Lycos et AllTheWeb - la base de données Yahoo.
En Russie, le moteur de recherche principal est Yandex, suivi par Rambler, Google.ru, Aport, Mail.ru et KM.ru.

1.2 Principes généraux des moteurs de recherche
Le système de recherche comprend les composants principaux suivants:
Spider (spider) - un programme de type navigateur qui télécharge des pages Web.
Crawler (crawler, "travelling" spider) - un programme qui passe automatiquement à travers tous les liens trouvés sur la page.
Indexer (un indexeur) est un programme qui analyse les pages Web téléchargées par les araignées.
Base de données - la banque de pages téléchargées et traitées.
Moteur de recherche de moteur de recherche - recherche les résultats de la base de données.
Le serveur Web (serveur Web) est un serveur Web qui interagit avec l'utilisateur et le reste du moteur de recherche.
L'implémentation détaillée des moteurs de recherche peut différer (par exemple, le paquet Spider + Crawler + Indexer peut être exécuté comme un seul programme qui télécharge des pages Web bien connues, les analyse et recherche des liens par de nouvelles ressources), mais tous les moteurs de recherche caractéristiques.
Araignée Un araignée est un programme qui télécharge des pages Web de la même manière que le navigateur d'un utilisateur. La différence est que le navigateur affiche les informations contenues sur la page (texte, graphique, etc.), l'araignée n'a pas de composants visuels et travaille directement avec le texte html de la page (vous pouvez faire "voir le code html" dans votre navigateur pour voir le texte "brut" html).
Crawler. Sélectionne tous les liens qui apparaissent sur la page. Sa tâche consiste à déterminer où l'araignée devrait aller ensuite, sur la base de références ou sur la base d'une liste prédéfinie d'adresses. Krauler, en suivant les liens trouvés, recherche de nouveaux documents qui ne sont pas encore connus du moteur de recherche.
Indexeur. L'indexeur analyse la page en plusieurs parties et les analyse. Différents éléments de la page sont distingués et analysés, tels que le texte, les en-têtes, les caractéristiques structurelles et de style, les balises html de service spécial, etc.
Base de données La base de données est l'entrepôt de toutes les données que le moteur de recherche télécharge et analyse. Parfois, une base de données s'appelle un index de moteur de recherche.
Moteur de recherche de moteur de recherche. Le système de sortie des résultats traite du classement des pages. Il décide quelles pages satisfont la requête de l'utilisateur et dans quel ordre il doit être trié. Cela se produit en fonction des algorithmes du classement des moteurs de recherche. Cette information est la plus précieuse et la plus intéressante pour nous - c'est avec ce composant du moteur de recherche que l'optimiseur interagit, essayant d'améliorer la position du site dans le problème, donc nous examinerons en détail tous les facteurs affectant le classement des résultats.
Serveur Web En règle générale, le serveur a une page html avec un champ de saisie, dans lequel l'utilisateur peut spécifier le terme de recherche d'intérêt. Le serveur Web est également chargé de fournir les résultats à l'utilisateur sous la forme d'une page html. Retour en haut >>>

2. Facteurs de classement internes
Tous les facteurs qui affectent la position du site dans l'émission du moteur de recherche peuvent être décomposés en ceux externes et internes. Les facteurs internes de classement sont ceux qui sont sous le contrôle du propriétaire du site (texte, design, etc.).
2.1 Conception textuelle des pages Web
2.1.1 La quantité de texte par page
Les moteurs de recherche valorisent les sites riches en informations. En général, vous devriez vous efforcer d'augmenter le contenu textuel du site.
Les optimales sont des pages contenant 500-3000 mots ou 2-20 kb. texte (de 2 à 20 000 caractères).
Une page composée de quelques phrases est moins susceptible de frapper les moteurs de recherche supérieurs.
En outre, plus de texte sur la page augmente la visibilité de la page dans les moteurs de recherche en raison de phrases de recherche rares ou aléatoires, qui dans certains cas peuvent donner un bon afflux de visiteurs.
2.1.2 Nombre de mots-clés par page
Les mots-clés (expressions) devraient apparaître dans le texte au moins 3-4 fois. La limite supérieure dépend du volume total de la page - plus le volume total est grand, plus le nombre de répétitions peut être important.
Séparément, nous devrions considérer la situation avec des expressions de recherche, c'est-à-dire des combinaisons de mots provenant de plusieurs mots-clés. Les meilleurs résultats sont observés si la phrase apparaît plusieurs fois dans le texte, exactement comme une phrase (c'est-à-dire tous les mots dans le bon ordre), et de plus, les mots de la phrase apparaissent plusieurs fois dans le texte. Il doit également y avoir une différence (déséquilibre) entre le nombre d'occurrences de chacun des mots qui composent la phrase.
Considérez la situation avec un exemple. Disons que nous optimisons la page pour l'expression "lecteur DVD". Une bonne option - l'expression "lecteur DVD" se produit 10 fois dans le texte, en outre, le mot "DVD" se produit séparément 7 fois de plus, le mot "joueur" 5 fois plus. Toutes les figures de l'exemple sont conditionnelles, mais elles montrent bien une idée générale.
2.1.3 Densité des mots-clés
La densité du mot-clé sur la page montre la fréquence relative du contenu du mot dans le texte. La densité est mesurée en pourcentage. Par exemple, si un mot donné a été rencontré 5 fois sur une page de 100 mots, alors la densité de ce mot est de 5%. Si la densité est trop faible, le moteur de recherche ne donnera pas de sens à ce mot. Une densité trop élevée peut activer le filtre anti-spams du moteur de recherche (la page sera artificiellement réduite dans les résultats de recherche en raison d'une utilisation trop fréquente de la phrase secrète).
La densité du texte clé est de 5-7%. Dans le cas d'expressions composées de plusieurs mots, vous devez calculer la densité totale de tous les mots-clés qui composent la phrase et assurez-vous qu'elle correspond aux limites spécifiées.
La pratique montre que la densité du texte clé est de plus de 7-8%, bien qu'elle n'entraîne pas de conséquences négatives, mais aussi le sens du spécial dans la plupart des cas non plus.
2.1.4 Emplacement des mots-clés sur la page
Une règle très courte - plus le mot clé ou la phrase au début du document est proche, plus le poids du moteur de recherche est important.
2.1.5 Conception stylistique du texte
Les moteurs de recherche accordent une importance particulière au texte, d'une manière ou d'une autre sélectionné sur la page. Les recommandations suivantes peuvent être faites:
- utiliser des mots-clés dans les rubriques (le texte marqué avec les balises "H", notamment "h1" et "h2"). Actuellement, l'utilisation de css vous permet de remplacer l'apparence du texte mis en évidence par ces balises, donc l'utilisation des balises "H" est moins importante qu'auparavant, mais vous ne devriez pas les négliger du tout;
- Mettez en surbrillance les mots-clés en caractères gras (pas dans le texte entier, bien sûr, mais faites cette sélection 2-3 fois sur la page ne fait pas de mal). Pour ce faire, nous recommandons d'utiliser la balise "strong" au lieu de la balise "B" plus traditionnelle (en gras).
2.1.6 La balise "TITLE"
L'un des tags les plus importants que les moteurs de recherche attachent une grande importance. Vous devez utiliser des mots-clés dans la balise TITLE.
En outre, le lien vers votre site dans la sortie du moteur de recherche contiendra le texte de la balise TITLE, il s'agit donc, d'une certaine manière, de la carte de visite de la page.
C'est par ce lien que le visiteur du moteur de recherche accède à votre site, donc la balise TITLE ne doit pas seulement contenir des mots-clés, mais être informative et attractive.
Typiquement, la sortie du moteur de recherche est de 50 à 80 caractères à partir de la balise TITLE, de sorte que la taille de l'en-tête doit de préférence être limitée à cette longueur.
2.1.7 Mots-clés dans le texte des liens
Aussi une règle très simple - utiliser des mots-clés dans le texte des liens sortants de vos pages (à la fois vers d'autres pages internes de votre site, et vers d'autres ressources réseau), cela peut ajouter un petit avantage au classement.
2.1.8 Balises d'image "ALT"
Toute image sur la page a un attribut spécial "texte alternatif", qui est spécifié dans la balise "ALT". Ce texte sera affiché à l'écran si l'image n'a pas pu être téléchargée ou si les images sont bloquées dans le navigateur.
Les moteurs de recherche se souviennent de la valeur de la balise ALT lors de l'analyse (indexation) d'une page, mais ne l'utilisent pas lors du classement des résultats de recherche.
À l'heure actuelle, on sait de façon fiable que le moteur de recherche Google prend en compte le texte dans la balise ALT de ces images qui sont des liens vers d'autres pages, le reste des balises ALT sont ignorés. Il n'y a pas de données précises sur les autres moteurs de recherche, mais on peut supposer quelque chose comme ça.
En général, il vaut la peine de donner un tel conseil - utiliser des mots-clés dans les balises ALT est possible et nécessaire, même si cela n'a pas d'importance en principe.
2.1.9 Méta-tag de description
La balise Meta Description est spécialement conçue pour spécifier la description de la page. Cette balise n'a aucune incidence sur le classement, mais elle est néanmoins très importante. Beaucoup de moteurs de recherche (et en particulier le plus grand Yandex et Google) affichent des informations de cette balise dans les résultats de recherche, si cette balise est présente sur la page et son contenu correspond au contenu de la page et à la requête de recherche.
Il est sûr de dire qu'une place importante dans les résultats de recherche n'est pas toujours fournie par un grand nombre de visiteurs. Si la description de vos concurrents dans les résultats de l'émission sera plus attrayante que votre site, alors les visiteurs du moteur de recherche les choisiront, pas votre ressource.
Par conséquent, la bonne composition de la méta-étiquette Description est d'une grande importance. La description doit être brève, mais informative et attrayante, contenir des mots-clés spécifiques à cette page.
2.1.10 Mots-clés meta tag
Ce méta-tag était à l'origine destiné à indiquer les mots-clés de cette page. Cependant, à l'heure actuelle, il n'est presque pas utilisé par les moteurs de recherche.
Cependant, vous devez remplir cette balise "juste au cas où". Lors du remplissage, la règle suivante doit être respectée: ajoutez uniquement les mots clés réellement présents sur la page.

2.2 Structure du site
2.2.1 Nombre de pages sur le site
La règle générale est que plus il y en a, mieux c'est. L'augmentation du nombre de pages du site améliore sa visibilité dans les moteurs de recherche.
En outre, l'ajout progressif de nouveaux matériaux d'information sur le site est perçu par les moteurs de recherche comme le développement du site, ce qui peut donner des avantages supplémentaires dans le classement.
Ainsi, essayez d'afficher plus d'informations sur le site - nouvelles, communiqués de presse, articles, conseils utiles et ainsi de suite.
2.2.2. Menu de navigation
En règle générale, tout site dispose d'un menu de navigation. Utilisez les mots-clés dans les liens du menu, cela donnera un poids supplémentaire aux pages qui sont référencées.
2.2.3 Mot-clé dans le titre de la page
Il existe une opinion selon laquelle l'utilisation de mots-clés dans le nom du fichier html de la page peut avoir une incidence positive sur sa place dans les résultats de recherche. Naturellement, cela ne s'applique qu'aux demandes en anglais.
2.2.4 Eviter les sous-répertoires
Si votre site a un nombre modéré de pages (plusieurs dizaines), il est préférable qu'ils soient dans le répertoire racine du site. Les moteurs de recherche considèrent que ces pages sont plus importantes.
2.2.5 Une page - une phrase clé
Essayez d'optimiser chaque page sous votre propre expression clé. Parfois, vous pouvez choisir 2-3 phrases connexes, mais vous ne devriez pas optimiser une page pour 5-10 phrases à la fois, le résultat ne sera probablement pas.
2.2.6 Page d'accueil du site
Optimisez la page principale du site (nom de domaine, index.html) pour les phrases les plus importantes pour vous. Cette page a la plus grande chance d'entrer dans les meilleurs moteurs de recherche.
Selon mes observations, la page principale du site peut représenter jusqu'à 30-40% du trafic total de recherche.

2.3 Erreurs communes
2.3.1 Titre graphique
Très souvent dans la conception du site est utilisé un titre graphique (cap), c'est-à-dire une image pleine largeur qui contient, en règle générale, un logo de l'entreprise, le nom et d'autres informations.
Ne fais pas ça! Le haut de la page est un endroit très précieux où vous pouvez placer les mots-clés les plus importants. Dans le cas d'une image graphique, cet endroit est gaspillé.
Dans certains cas, il y a des situations assez ridicules: l'en-tête contient des informations textuelles, mais par souci d'un plus grand attrait visuel se présente une image (l'image ne peut donc pas être prise en compte par les moteurs de recherche).
Il est préférable d'utiliser une option combinée - le logo graphique en haut de la page est présent, mais n'occupe pas toute sa largeur. Le reste de l'en-tête de texte est placé avec les mots-clés.
2.3.2 Menu de navigation graphique
La situation est similaire au paragraphe précédent - les liens internes sur votre site doivent également contenir des mots clés, ce qui donnera un avantage supplémentaire au classement. Si le menu de navigation pour une plus grande attractivité est fait sous forme de graphique, les moteurs de recherche ne pourront pas prendre en compte le texte des liens.
Si vous n'avez pas la possibilité d'ignorer le menu graphique, n'oubliez pas de fournir au moins toutes les images avec les balises ALT correctes.
2.3.3 Navigation dans les scripts
Dans certains cas, la navigation à travers le site est à travers l'utilisation de scripts. Il doit être compris que les moteurs de recherche ne peuvent pas lire et exécuter des scripts. Ainsi, le lien donné par le script ne sera pas disponible pour le moteur de recherche et le robot d'exploration ne le parcourra pas.
Dans ce cas, vous devez toujours dupliquer les liens de la manière habituelle, afin que la navigation sur le site soit accessible à tous - à la fois pour vos visiteurs et pour les robots des moteurs de recherche.
2.3.4 Identificateur de session
Sur certains sites, il est habituel d'utiliser l'identifiant de session, c'est-à-dire que chaque visiteur visitant le site reçoit un paramètre unique & session_id =, qui est ajouté à l'adresse de chaque page visitée du site.
L'utilisation de l'identificateur de session vous permet de recueillir plus facilement des statistiques sur le comportement des visiteurs du site et peut être utilisé à d'autres fins.
Cependant, du point de vue du robot de recherche, la page avec la nouvelle adresse est une nouvelle page. À chaque visite sur le site, le robot de recherche recevra un nouvel identifiant de session et, en visitant les mêmes pages qu'avant, il les traitera comme de nouvelles pages du site.
Strictement parlant, les moteurs de recherche ont des algorithmes pour "coller" des miroirs et des pages avec le même contenu, donc les sites qui utilisent des identifiants de session seront toujours indexés. Cependant, l'indexation de tels sites est difficile et, dans certains cas, peut mal tourner. Par conséquent, l'utilisation d'identifiants de session sur le site n'est pas recommandée.
2.3.5 Redirections
Les redirections gênent l'analyse du site par des robots de recherche. N'utilisez pas les redirections s'il n'y a pas de raisons claires à cela.
2.3.6 Le texte caché
Les deux derniers points sont plus vraisemblablement pas des erreurs, mais une tromperie délibérée des recherches, mais ils doivent encore être mentionnés.
L'utilisation de texte caché (la couleur du texte coïncide avec la couleur d'arrière-plan, par exemple, blanc sur blanc) vous permet de "pomper" la page avec les mots-clés nécessaires sans perturber la logique et le design de la page. Ce texte est invisible aux visiteurs, mais il est parfaitement lu par les robots de recherche.
L'utilisation de telles méthodes d'optimisation «grises» peut conduire à une interdiction de site, c'est-à-dire à l'exclusion forcée d'un site de l'index (base de données) du moteur de recherche.
2.3.7 Liens d'un pixel
L'utilisation de liens graphiques 1 * 1 pixel (c'est-à-dire, en fait invisible pour le visiteur) est également perçue par les moteurs de recherche comme une tentative de tromperie et peut conduire à une interdiction de site. Retour en haut >>>

3 Facteurs de classement externes
3.1 Qu'est-ce qui est utilisé pour comptabiliser les liens externes vers le site
Comme on peut le voir dans la section précédente, presque tous les facteurs affectant le classement sont sous le contrôle de l'auteur de la page. Ainsi, pour le moteur de recherche, il devient impossible de distinguer un document de très haute qualité, d'une page créée spécifiquement pour une phrase de recherche donnée ou même une page générée par un robot et ne portant aucune information utile.
Par conséquent, l'un des facteurs clés du classement des pages est l'analyse des liens externes vers chaque page évaluée. C'est le seul facteur qui échappe au contrôle de l'auteur du site.
Il est logique de supposer que plus il y a de liens externes disponibles sur le site, plus ce site présente d'intérêt pour les visiteurs. Si les propriétaires d'autres sites sur le réseau mettent un lien vers la ressource estimée, cela signifie qu'ils considèrent cette ressource comme étant de qualité suffisante. Suivant ce critère, le moteur de recherche peut également décider du poids à attacher à un document particulier.
Ainsi, il y a deux facteurs principaux par lesquels les pages disponibles dans le moteur de recherche de la base de données seront triées lorsqu'elles seront publiées. Cette pertinence (c'est-à-dire, combien la page est liée à l'objet de la requête - les facteurs décrits dans la section précédente) et le nombre et la qualité des liens externes. Ce dernier facteur a également reçu la référence de référence, la popularité de lien ou l'index de citation de noms.
3.2 Importance des références (indice de citation)
Il est facile de voir qu'un simple décompte du nombre de liens externes ne nous donne pas assez d'informations pour évaluer le site. Évidemment, le lien de www.microsoft.com devrait signifier beaucoup plus que le lien de la page d'accueil www.hostingcompany.com/~myhomepage.html, donc vous ne pouvez pas comparer la popularité des sites par le nombre de liens externes - vous devez également prendre en compte l'importance des liens.
Pour évaluer le nombre et la qualité des liens externes vers un site, les moteurs de recherche introduisent le concept d'indice de citation.
L'indice de citation ou IC est une indication générale d'indicateurs numériques qui estiment la popularité d'une ressource particulière, c'est-à-dire une valeur absolue de l'importance de la page. Chaque moteur de recherche utilise ses propres algorithmes pour calculer son propre indice de citation. En règle générale, ces valeurs ne sont publiées nulle part
En plus de l'indice de citation habituel, qui est un indicateur absolu (c'est-à-dire un certain nombre spécifique), le terme indice pondéré de citation est introduit, qui est une valeur relative, c'est-à-dire la popularité de cette page. Le terme "indice pondéré de citation" (WIC) est généralement utilisé par rapport au moteur de recherche Yandex.
Une description détaillée des indices de citation et des algorithmes pour leur calcul sera présentée dans les sections suivantes.
3.3. Texte de référence
Une grande importance dans le classement des résultats de recherche est donnée au texte des liens externes vers le site.
Le texte du lien (ou, subsidiairement, l'ancre ou le texte de référence) est le texte entre les balises "A" et "/ A", c'est-à-dire le texte par lequel vous pouvez cliquer sur le navigateur pour accéder à une nouvelle page.
Si le texte du lien contient les mots-clés nécessaires, le moteur de recherche voit cela comme une recommandation supplémentaire et très importante, une confirmation que le site contient des informations importantes concernant le sujet de la requête de recherche.
3.4 Pertinence des pages de renvoi
En plus du texte de référence, le contenu général des informations de la page de renvoi est également pris en compte.
Un exemple Supposons que nous faisons la promotion d'une ressource pour la vente de voitures. Dans ce cas, le lien du site de réparation automobile signifiera beaucoup plus qu'un lien similaire du site pour le jardinage. Le premier lien vient avec une ressource thématiquement similaire, donc il sera plus apprécié par le moteur de recherche.
3.5 Google PageRank - la base théorique
Le premier qui a breveté le système de comptabilité pour les liens externes était Google. L'algorithme s'appelait PageRank. Dans ce chapitre, nous allons parler de cet algorithme et de son influence sur le classement des résultats de recherche.
PageRank est calculé pour chaque page Web séparément, et est déterminé par le PageRank (citation) des pages qui s'y réfèrent. Une sorte de cercle vicieux.
La tâche principale est de trouver un critère exprimant l'importance de la page. Dans le cas du PageRank, ce critère a été utilisé pour sélectionner la fréquentation théorique des pages.
Considérons le modèle du parcours de l'utilisateur à travers le réseau en cliquant sur les liens. Il est supposé que l'utilisateur commence à parcourir les sites avec une page sélectionnée au hasard. Puis il va à d'autres ressources via des liens. Dans ce cas, il est possible que le visiteur quitte le site et recommence à visualiser des documents à partir d'une page aléatoire (dans l'algorithme PageRank, la probabilité de cette action est de 0,15 à chaque étape). En conséquence, avec une probabilité de 0.85, il continuera le voyage en cliquant sur l'un des liens disponibles sur la page en cours (tous les liens sont égaux dans ce cas). Continuant le voyage vers l'infini, il visitera des pages populaires à plusieurs reprises, et sur des pages peu connues - moins.
Ainsi, le PageRank d'une page Web est défini comme la probabilité de trouver un utilisateur sur cette page Web; tandis que la somme des probabilités pour toutes les pages Web du réseau est une, puisque l'utilisateur est nécessairement sur une page.
Comme il n'est pas toujours pratique d'utiliser des probabilités, après une série de transformations avec PageRank, il est possible de travailler sous forme de nombres concrets (comme dans Google ToolBar, où chaque page a un PageRank de 0 à 10).
Selon le modèle décrit ci-dessus, nous obtenons cela:
- chaque page sur le réseau (même si elle n'a pas de liens externes) a initialement un PageRank non nul (bien que très petit);
- Chaque page qui a des liens sortants transfère une partie de son PageRank aux pages auxquelles il se réfère. Dans ce cas, le PageRank transmis est inversement proportionnel au nombre de liens sur la page - plus il y a de liens, plus le PageRank est petit pour chacun;
- Le PageRank n'est pas transmis complètement, à chaque étape il y a un amortissement (cette probabilité est de 15% lorsque l'utilisateur commence à regarder depuis une nouvelle page sélectionnée aléatoirement).
Voyons maintenant comment PageRank peut influencer le classement des résultats de recherche (disons "peut", parce que dans sa forme pure, PageRank n'a plus été impliqué dans l'algorithme de Google, comme c'était le cas auparavant, mais plus sur ce point ci-dessous). Avec l'influence de PageRank, tout est très simple - après avoir trouvé un certain nombre de documents pertinents (en utilisant des critères textuels), vous pouvez les trier selon PageRank - puisqu'il est logique de supposer qu'un document contenant des liens externes de haute qualité contient les informations les plus précieuses.
Ainsi, l'algorithme PageRank "pousse" vers le haut la recherche de ces documents qui sont les plus populaires sans le moteur de recherche.
3.6 Google PageRank - utilisation pratique
Actuellement, PageRank n'est pas utilisé directement dans l'algorithme de Google. Cela est compréhensible - parce que PageRank caractérise seulement le nombre et la qualité des liens externes vers le site, mais ne tient pas compte du texte de référence et du contenu d'information des pages de référence - ces facteurs auront la valeur maximum dans le classement. On suppose que pour le classement Google utilise le PageRank soi-disant thématique (c'est-à-dire, seulement des liens à partir de pages thématiques), mais les détails de cet algorithme ne sont connus que des développeurs de Google.
Pour connaître la valeur de PageRank pour n'importe quelle page Web, vous pouvez utiliser la barre d'outils Google, qui affiche la valeur de PageRank comprise entre 0 et 10. Notez que Google ToolBar n'affiche pas la valeur exacte de PageRank, mais uniquement la plage PageRank (de 0 à 10) est déterminé par l'échelle logarithmique.
Expliquons par un exemple: chaque page a la valeur exacte de PageRank, connue seulement de Google. Pour déterminer la plage désirée et les informations de sortie sur la barre d'outils, une échelle logarithmique est utilisée (un exemple est montré dans le tableau)
Valeur réelle de PR Value ToolBar
1-10 -> 1
10-100 -> 2
100-1000 -> 3
1000-10.000 -> 4
et ainsi de suite.
Tous les chiffres sont relatifs, mais ils démontrent clairement que les plages PageRank affichées dans Google ToolBar ne sont pas équivalentes entre elles. Par exemple, augmenter le PageRank de 1 à 2 est facile, et de 6 à 7 c'est beaucoup plus difficile.
En pratique, le PageRank est principalement utilisé à deux fins:
1. Évaluation rapide du niveau de promotion du site Web. PageRank ne fournit pas d'informations précises sur les pages de référence, mais vous permet d'estimer rapidement et facilement le niveau de développement du site. Pour les sites anglophones, vous pouvez suivre la gradation suivante: PR 4-5 - PR la plus courante pour la plupart des sites de promotion moyenne. PR 6 - site très bien promu. PR 7 - une valeur qui est presque inaccessible pour un webmaster régulier, mais se produit parfois. PR 8, 9, 10 - se trouvent uniquement sur les sites de grandes entreprises (Microsoft, Google, etc.). Les connaissances du PageRank peuvent être utilisées lors de l'échange de liens, afin d'évaluer la qualité de la page proposée pour l'échange et dans d'autres situations similaires.
2. Évaluation du niveau de concurrence sur la requête de recherche. Bien que le PageRank ne soit pas utilisé directement dans les algorithmes de classement, il permet néanmoins d'évaluer indirectement la compétitivité d'une requête donnée. Par exemple, s'il y a des pages avec PageRank 6-7 dans le moteur de recherche, alors le site avec PageRank 4 a très peu de chance d'atteindre le sommet.
Une autre remarque importante est que les valeurs PageRank affichées dans Google ToolBar sont recalculées assez rarement (tous les quelques mois), de sorte que ToolBar affiche des informations périmées. Autrement dit, le moteur de recherche Google lui-même prend en compte les changements dans les liens externes beaucoup plus rapidement que ces changements sont affichés dans la barre d'outils Google.
3.7 TIC et VIC Yandex
Indice de citation pondéré par VIC - PageRank analogique, utilisé par le moteur de recherche Yandex. Les valeurs du WIC ne sont publiées nulle part et ne sont connues que de Yandex. Puisque vous ne pouvez pas trouver le WIC, vous devriez juste vous rappeler que Yandex a son propre algorithme pour évaluer "l'importance" des pages.
TIC - indice thématique de la citation - est calculé pour l'ensemble du site et montre l'autorité de la ressource par rapport à d'autres ressources thématiquement proches (et pas tous les sites Internet en général). TIC est utilisé pour les sites de classement dans le catalogue Yandex et n'affecte pas les résultats de recherche dans Yandex lui-même.
Les valeurs de TIC sont affichées dans Yandex.Bar. Il ne faut pas oublier que le TIC est calculé pour le site dans son ensemble, et non pour chaque page spécifique.
Pour la pratique, TIC peut être utilisé aux mêmes fins que PageRank - évaluer la popularité du site et évaluer le niveau de concurrence pour une requête de recherche donnée. En raison de la couverture de l'Internet par le moteur de recherche Yandex, le TIC est très bien adapté pour l'évaluation des sites en langue russe.
3.8 Augmentation de la popularité du lien
3.8.1 Soumission aux catalogues généraux
Sur Internet, il existe un grand nombre de sites répertoires (répertoires) qui contiennent des liens vers d'autres ressources réseau, ventilées par sujet. Le processus d'ajout d'informations sur votre site s'appelle une soumission.
Ces annuaires sont payants et gratuits, ils peuvent exiger ou ne nécessitent pas un lien de retour de votre site. Leur présence est très faible, c'est-à-dire qu'il n'y a pas de véritable afflux de visiteurs d'eux. Cependant, les moteurs de recherche prennent en compte les liens de ces répertoires qui peuvent augmenter votre site dans les résultats de recherche.
Important! Considérez que la valeur réelle est seulement les répertoires qui placent un lien direct vers votre site. À ce stade, il vaut la peine d'y demeurer plus en détail. Il y a deux façons de lier. Un lien direct est placé à travers la construction de langage HTML standard ("A href = ... etc"). En outre, des liens peuvent être mis à travers différents types de scripts, de redirections, etc. Les moteurs de recherche ne comprennent que les liens directs, directement spécifiés dans le code html. Par conséquent, si le répertoire ne fournit pas de lien direct vers votre site, sa valeur est proche de zéro.
Ne pas soumettre aux annuaires FFA (free-for-all). Ces annuaires hébergent automatiquement des liens de n'importe quel sujet, ils sont ignorés par les moteurs de recherche. La seule chose qui entraînera la soumission à la FFA est l'augmentation du spam sur votre adresse e-mail. En fait, l'objectif principal de la FFA est la suivante.
Méfiez-vous des promesses de divers programmes et services pour ajouter votre ressource à des centaines de milliers de moteurs de recherche, répertoires et répertoires. Les répertoires vraiment utiles sur le réseau ne seront pas tapés plus de quelques centaines, ce chiffre et vous devez construire sur. Les services professionnels pour la soumission de travail avec autant de répertoires. Si des chiffres énormes sont promis dans des centaines de milliers de ressources, alors la base de données de soumission se compose principalement des archives FFA mentionnées ci-dessus et d'autres ressources inutiles.
Donner la préférence à la soumission manuelle ou semi-automatique - ne faites pas confiance aux processus entièrement automatisés. En règle générale, soumettre, sous le contrôle d'une personne, donne un bien meilleur rendement que la soumission entièrement automatique.
Le besoin d'ajouter un site à des catalogues payants, ou d'apposer un backlink de réponse depuis votre site, devrait être décidé séparément pour chaque catalogue. Dans la plupart des cas, cela n'a pas beaucoup de sens, mais il peut y avoir des exceptions.
La soumission de site Web aux annuaires n'a pas un effet très significatif, mais elle améliore la visibilité du site dans les moteurs de recherche. Cette possibilité est généralement disponible et ne nécessite pas beaucoup de temps ou d'argent, alors ne l'oubliez pas lors de la promotion de votre projet.
3.8.2 Le répertoire DMOZ
Le répertoire DMOZ (www.dmoz.org) ou Open Directory Project est le plus grand répertoire Internet. En outre, il existe un grand nombre d'exemplaires du site principal de DMOZ sur Internet. Ainsi, en plaçant votre site dans le répertoire DMOZ, vous recevrez non seulement un lien précieux du catalogue lui-même, mais aussi plusieurs dizaines de liens provenant de ressources connexes. Ainsi, le répertoire DMOZ est d'une grande valeur pour le webmaster.
Ce n'est pas facile d'accéder au répertoire, cela dépend de votre chance. Le site peut apparaître dans le catalogue quelques minutes après l'ajout, et peut attendre plusieurs mois pour son tour.
Si votre site n'apparait pas dans l'annuaire depuis longtemps, mais que vous êtes sûr que tout a été fait correctement et que le site est adapté au catalogue, vous pouvez écrire à l'éditeur de votre catégorie avec une question sur votre application. Bien sûr, aucune garantie n'est donnée, mais cela peut aider.
L'ajout au répertoire DMOZ est gratuit, y compris pour les sites commerciaux.
3.8.3 L'annuaire Yandex
La présence dans le catalogue Yandex donne un lien thématique précieux à votre site, ce qui peut améliorer la position de votre site dans le moteur de recherche. En outre, le répertoire Yandex lui-même peut donner un peu de trafic à votre site.
Il existe des options payantes et gratuites pour ajouter des informations dans le répertoire Yandex. Bien entendu, dans le cas d'une option gratuite, ni les termes ni l'ajout du site ne sont garantis d'aucune façon.
En conclusion, quelques recommandations pour se soumettre à des répertoires importants tels que DMOZ et Yandex. Tout d'abord, lisez attentivement les exigences pour les sites, les descriptions, etc., afin de ne pas enfreindre les règles lors de l'application (cela peut conduire au fait que votre demande ne sera pas prise en compte).
Et deuxièmement, la présence dans ces catalogues est une exigence souhaitable, mais pas obligatoire. Si vous ne pouvez pas entrer dans ces répertoires, ne désespérez pas - pour atteindre des positions élevées dans les résultats de recherche que vous pouvez et sans ces répertoires, la plupart des sites font exactement cela.
3.8.4 Échange de lien
L'échange de liens est que vous faites un lien vers d'autres sites à partir d'une page spécialement dédiée, vous recevez vous même des liens similaires. En général, les moteurs de recherche n'apprécient pas l'échange de liens, car dans la plupart des cas, il vise à modifier la sortie d'un moteur de recherche et n'apporte rien d'utile aux internautes. Cependant, c'est un moyen efficace d'augmenter la popularité des liens, si vous observez plusieurs règles simples.
- Modifier les liens avec des sites thématiques. L'échange avec des sites non thématiques est inefficace;
- avant l'échange, assurez-vous que votre lien est placé sur une "bonne" page. Autrement dit, la page devrait avoir du PageRank (de préférence 3-4 ou plus), devrait être disponible pour l'indexation par les moteurs de recherche, le lien placé devrait être direct, le nombre total de liens sur la page ne devrait pas dépasser 50, etc.
- Ne créez pas de liens sur le site des catalogues. L'idée d'un tel catalogue semble attrayante - il devient possible de changer avec un grand nombre de sites de n'importe quel sujet, pour chaque site il y a une catégorie correspondante dans le catalogue. Cependant, dans notre cas, la qualité est plus importante que la quantité, et il y a ici un certain nombre de pièges. Aucun webmaster ne mettra un lien qualitatif sur vous, si en réponse il reçoit un lien factice de votre répertoire (les pages PageRank de ces répertoires, en règle générale, laisse beaucoup à désirer). En outre, les moteurs de recherche sont extrêmement négatifs à ces répertoires, il y avait aussi des cas de sites d'interdiction pour l'utilisation de ces répertoires;
- Mettez en surbrillance une page distincte sur le site sous l'échange de lien. Il devrait avoir du PageRank, être indexé par les moteurs de recherche, etc. Ne mettez pas plus de 50 liens de la même page (sinon certains liens ne seront peut-être pas pris en compte par les moteurs de recherche). Cela vous aidera à trouver des partenaires pour échanger plus facilement;
- Les moteurs de recherche tentent de suivre les liens réciproques, donc si possible, utilisez un autre domaine / site autre que celui promu pour héberger les liens de réponse. Например, вы продвигаете ресурс site1.com, а ответные ссылки ставите на ресурсе site2.com – это оптимальный вариант;
- проявляйте некоторую осторожность при обмене. Довольно часто приходится сталкиваться с тем, что не совсем честные вебмастера удаляют ваши ссылки со своих ресурсов, поэтому необходимо время от времени проверять наличие своих ссылок.
3.8.5 Communiqués de presse, flux d'actualités, ressources thématiques
Этот раздел относится уже скорее к маркетингу сайта, а не к чистому seo. Существует большое число информационных ресурсов и новостных лент, которые публикуют пресс-релизы и новости на различные темы. Такие сайты способны не только привести к вам посетителей напрямую, но и повысить столь нужную нам ссылочную популярность сайта.
Если вы затрудняетесь создать пресс-релиз или новость самостоятельно, то подключайте журналистов – они помогут вам найти или создать информационный повод.
Ищите тематически связанные ресурсы. В Интернете существует огромное количество проектов, которые, не являясь вашими конкурентами, посвящены той же тематике, что и ваш сайт. Старайтесь найти подход к владельцам этих ресурсов, вполне вероятно, что они будут рады разместить информацию о вашем проекте.
И последнее – это относится ко всем способам получения внешних ссылок – старайтесь несколько разнообразить ссылочный текст. Если все внешние ссылки на ваш сайт будут иметь одинаковый ссылочный текст, то это может быть понято поисковыми системами как попытка спама. Retour en haut >>>

4 Indexer le site
Avant que le site apparaisse dans les résultats de recherche, il doit être indexé par le moteur de recherche. L'indexation signifie que le robot a visité votre site, l'a analysé et a entré des informations dans la base de données du moteur de recherche.
Si une page est entrée dans l'index du moteur de recherche, elle peut être affichée dans les résultats de la recherche. S'il n'y a pas de page dans l'index, le moteur de recherche n'en sait rien et ne peut donc pas utiliser les informations de cette page.
La plupart des sites de taille moyenne (c'est-à-dire contenant des dizaines ou des centaines de pages) ne rencontrent généralement aucun problème d'indexation correcte par les moteurs de recherche. Cependant, il y a un certain nombre de points qui devraient être considérés en travaillant sur le site.
Le moteur de recherche peut en apprendre plus sur le nouveau site de deux façons:
- Ajouter manuellement l'adresse du site via le formulaire approprié du moteur de recherche. Dans ce cas, vous dites vous-même au moteur de recherche sur le nouveau site et son adresse tombe dans la file d'attente pour l'indexation. Ajoutez seulement la page principale du site, le reste sera trouvé par le robot de recherche par des liens;
- Pour fournir le robot de recherche pour trouver votre site indépendamment. Si votre nouvelle ressource a au moins un lien externe provenant d'autres ressources déjà indexées par le moteur de recherche, le robot d'exploration va visiter et indexer votre site dans un court laps de temps. Dans la plupart des cas, il est recommandé d'utiliser cette option, c'est-à-dire d'obtenir quelques liens externes vers le site et d'attendre l'arrivée du robot. L'ajout manuel d'un site peut même prolonger le temps d'attente du robot.
Le temps nécessaire pour indexer un site est généralement de 2-3 jours à 2 semaines, selon le moteur de recherche. Le moteur de recherche Google est le plus rapide de tous les sites.
Essayez de rendre le site convivial pour les moteurs de recherche. Pour cela, considérez les facteurs suivants:
- Essayez de vous assurer que toutes les pages de votre site sont accessibles par des liens de la page principale pour pas plus de 3 sauts. Si la structure du site ne le permet pas, créez un plan du site qui vous permettra d'exécuter la règle spécifiée;
- Ne répétez pas les erreurs communes. Les ID de session rendent l'indexation difficile. Si vous utilisez la navigation dans les scripts, assurez-vous de dupliquer les liens de la manière habituelle - les moteurs de recherche ne savent pas lire les scripts (pour plus d'informations sur ces erreurs et d'autres, voir le chapitre 2.3);
- rappelez-vous que les moteurs de recherche n'indiquent pas plus de 100-200 Kb de texte sur la page. Pour les pages d'un plus grand volume, seul le haut de la page sera indexé (les premiers 100-200 Kb). De ceci suit la règle - n'utilisez pas les pages plus grandes que 100 KB, si vous voulez qu'elles soient complètement indexées.
Vous pouvez contrôler le comportement des robots de recherche en utilisant un fichier robots.txt, vous pouvez explicitement autoriser ou interdire certaines pages pour l'indexation. Il y a aussi une balise spéciale "NOINDEX" qui vous permet de fermer des pages individuelles pour l'indexation, mais cette balise n'est supportée que par les moteurs de recherche russes.
Les bases de données des moteurs de recherche sont constamment mises à jour, les enregistrements dans la base de données peuvent être modifiés, disparaître et réapparaître, de sorte que le nombre de pages indexées de votre site peut changer périodiquement.
L'une des raisons les plus courantes de la disparition de la page de l'index est l'inaccessibilité du serveur, c'est-à-dire que le robot d'exploration n'a pas pu y accéder en essayant d'indexer le site. Après la restauration du serveur, le site devrait apparaître à nouveau dans l'index après un certain temps.
Il convient également de noter que plus les liens externes de votre site sont nombreux, plus sa ré-indexation est rapide.
Vous pouvez suivre le processus d'indexation du site en utilisant l'analyse des fichiers journaux du serveur, dans laquelle toutes les visites des robots de recherche sont enregistrées. Dans la section correspondante, nous discuterons en détail des programmes qui le permettent. Retour en haut >>>
5 Sélection de mot-clé
5.1 Choix initial des mots-clés
La sélection des mots-clés est la première étape à partir de laquelle la construction du site commence. Au moment de la préparation des textes pour le site, l'ensemble des mots-clés devrait déjà être connu.
Pour déterminer les mots-clés, vous devez d'abord utiliser les services offerts par les moteurs de recherche eux-mêmes.
Pour les sites en anglais, il s'agit de www.wordtracker.com et de inventory.overture.com
Pour la langue russe adstat.rambler.ru/wrds/, direct.yandex.ru et stat.go.mail.ru
Lorsque vous utilisez ces services, vous devez vous rappeler que leurs données peuvent être très différentes de l'image réelle. Lors de l'utilisation du service Yandex Direct, il convient également de garder à l'esprit que ce service ne montre pas le nombre attendu de demandes, mais le nombre attendu de fois qu'une annonce est affichée pour une phrase donnée. Étant donné que les visiteurs du moteur de recherche affichent souvent plusieurs pages, le nombre réel de demandes est nécessairement inférieur au nombre d'impressions pour la même requête.
Le moteur de recherche Google ne fournit pas d'informations sur la fréquence des demandes.
Après que la liste des mots-clés soit approximativement déterminée, vous pouvez analyser vos concurrents, afin de savoir quelles phrases clés ils ciblent, vous serez probablement en mesure d'apprendre quelque chose de nouveau.
5.2 Haute fréquence et basse fréquence
Lors de l'optimisation du site, vous pouvez distinguer deux stratégies - l'optimisation pour un petit nombre de mots clés très populaires, ou pour un grand nombre de peu populaires. En pratique, les deux sont généralement combinés.
Le manque de demandes de haute fréquence - en règle générale, un niveau élevé de concurrence pour eux. Pour un jeune site, il n'est pas toujours possible de monter au sommet pour ces requêtes.
Pour les requêtes à basse fréquence, il suffit souvent de mentionner la combinaison de mots souhaitée sur la page, ou une optimisation minimale du texte. Sous certaines conditions, les requêtes à basse fréquence peuvent générer un très bon trafic de recherche.
L'objectif de la plupart des sites commerciaux est de vendre l'un ou l'autre produit ou service, ou d'une autre manière de faire de l'argent sur leurs visiteurs. Cela devrait être pris en compte dans l'optimisation des moteurs de recherche et dans la sélection des mots-clés. Il est nécessaire de s'efforcer de recevoir des visiteurs ciblés sur le site (c'est-à-dire prêts à acheter le produit ou le service proposé), plutôt que seulement à un grand nombre de visiteurs.
Un exemple La requête "monitor" est beaucoup plus populaire et parfois plus compétitive que la requête "monitor samsung 710N" (le nom exact du modèle). Cependant, pour le vendeur de moniteur, le deuxième visiteur est beaucoup plus précieux, et l'obtenir est beaucoup plus facile, parce que le niveau de concurrence pour la deuxième demande est petit. C'est une autre différence possible entre les requêtes à haute fréquence et à basse fréquence, qui devraient être prises en compte.
5.3 Évaluation du niveau de concurrence des requêtes de recherche
Après que l'ensemble des mots-clés est approximativement connu, il est nécessaire de déterminer le noyau principal des mots sous lesquels l'optimisation sera effectuée.
Les requêtes basse fréquence pour des raisons évidentes sont rejetées immédiatement (temporairement). Dans la section précédente, nous avons décrit les avantages des requêtes à basse fréquence, mais ce sont des requêtes à basse fréquence, qui ne nécessitent pas d'optimisation particulière. Par conséquent, nous ne les considérons pas dans cette section.
Pour les phrases très populaires, le niveau de la concurrence est généralement très élevé, vous devez donc vraiment évaluer les capacités de votre site. Pour évaluer le niveau de concurrence, vous devez calculer un certain nombre d'indicateurs pour les dix premiers sites dans le moteur de recherche:
- le PageRank moyen des pages en cause;
- le site TIC moyen, dont les pages étaient en cause;
- le nombre moyen de liens externes vers des sites dans l'édition de versions de différents moteurs de recherche;
Paramètres supplémentaires:
- le nombre de pages sur Internet contenant le terme recherché (en d'autres termes, le nombre de résultats de recherche);
- le nombre de pages sur Internet qui contiennent la correspondance exacte de la phrase spécifiée (comme lors de la recherche entre guillemets).
Ces paramètres supplémentaires permettront d'évaluer indirectement la complexité du retrait du site en haut pour une phrase donnée.
En plus des paramètres décrits, vous pouvez également vérifier combien de sites de l'émission sont présents dans les répertoires principaux, tels que les répertoires DMOZ, Yahoo et Yandex.
Analyser tous les paramètres ci-dessus et les comparer avec les paramètres de votre propre site vous permettra de prédire clairement les perspectives de retrait de votre site vers le haut par la phrase spécifiée.
Évaluer le niveau de concurrence pour toutes les phrases sélectionnées, vous pouvez choisir un certain nombre de phrases assez populaires avec un niveau de compétition acceptable, qui sera le principal pari pour la promotion et l'optimisation.
5.4 Affinement séquentiel des requêtes de recherche
Comme mentionné ci-dessus, les services de moteur de recherche fournissent souvent des informations très inexactes. Par conséquent, il est assez rare de déterminer l'ensemble idéal de mots-clés pour votre site de la première fois.
Après que votre site soit constitué et que certaines mesures soient prises pour le promouvoir, vous avez entre les mains des statistiques supplémentaires sur les mots clés: vous connaissez le classement de votre site dans les moteurs de recherche pour une phrase particulière et connaissez le nombre de visites sur votre site .
Posséder cette information, vous pouvez définir assez clairement les phrases réussies et infructueuses. Souvent, vous n'avez même pas besoin d'attendre que le site arrive en tête des phrases classées dans tous les moteurs de recherche - un ou deux suffisent.
Un exemple Disons que votre site est classé premier dans le moteur de recherche Rambler pour cette phrase. Dans ce cas, ni dans Yandex, ni dans Google, il n'est pas encore en cause sur cette phrase. Cependant, connaissant le pourcentage de visites sur votre site de différents moteurs de recherche (par exemple, Yandex - 70%, Google - 20%, Rambler - 10%), vous pouvez déjà prévoir le trafic approximatif pour cette phrase et décider si elle correspond à votre site ou non
En plus de mettre en évidence les phrases qui ont échoué, vous pouvez trouver de nouvelles options réussies. Par exemple, pour voir qu'une phrase, sous laquelle aucune promotion n'a été faite, apporte un bon trafic, même si votre site sur cette phrase est sur 2 ou 3 pages dans le numéro.
Ainsi, entre vos mains est un nouvel ensemble de mots-clés raffinés. Après cela, vous devriez procéder à la réorganisation du site - en changeant les textes pour des phrases plus réussies, en créant de nouvelles pages pour de nouvelles phrases trouvées, etc.
Ainsi, après un certain temps, vous serez en mesure de trouver le meilleur ensemble de mots-clés pour votre site et augmenter considérablement le trafic de recherche.
Quelques autres conseils. Selon les statistiques, la page principale du site représente jusqu'à 30% -50% de tout le trafic de recherche. Il est mieux vu dans les moteurs de recherche et a le plus de liens externes. Par conséquent, la page principale du site devrait être optimisée pour les demandes les plus populaires et les plus concurrentielles. Chaque page du site devrait être optimisée pour 1-2 phrases de base (et, éventuellement, pour un certain nombre de requêtes à basse fréquence). Cela augmentera les chances d'atteindre les meilleurs moteurs de recherche pour les phrases données. Retour en haut >>>
6 Informations diverses sur les moteurs de recherche
6.1 Google SandBox
Début 2004, dans l'environnement de l'optimiseur, un nouveau concept mystérieux est apparu - Google SandBox ou le sandbox de Google. Cette désignation a reçu un nouveau filtre de spam de Google, visant à exclure de l'émission de jeunes sites nouvellement créés.
Le filtre SandBox se manifeste par le fait que les sites nouvellement créés ne sont pas disponibles dans le moteur de recherche pour pratiquement toutes les phrases. Cela se produit malgré la disponibilité d'un contenu unique de haute qualité et la bonne promotion (sans l'utilisation de techniques de spam).
Pour le moment, SandBox ne concerne que le segment anglais, les sites en russe et les autres langues ne sont pas affectés par ce filtre. Cependant, il est probable que ce filtre puisse étendre son influence.
On peut supposer que le but du filtre SandBox est d'exclure les sites de spam de la distribution - en effet, aucun spammeur de recherche ne peut attendre des mois avant que les résultats apparaissent. Cependant, avec cela, beaucoup de sites normaux, nouvellement créés souffrent.
Des informations précises sur ce qu'est exactement un filtre Sandbox ne sont toujours pas disponibles. Il y a un certain nombre d'hypothèses obtenues sur la base de l'expérience, que nous donnerons ci-dessous:
- SandBox est un filtre pour les jeunes sites. Le site nouvellement créé tombe dans le «bac à sable» et s'y trouve indéfiniment, jusqu'à ce que le moteur de recherche le traduise dans la catégorie «ordinaire»;
- SandBox est un filtre pour les nouveaux liens qui sont placés sur les sites nouvellement créés. Essayez de remarquer la différence fondamentale de l'hypothèse précédente - le filtre ne se superpose pas à l'âge du site, mais à l'âge des liens vers le site. En d'autres termes, Google n'a aucune revendication sur le site, mais refuse de prendre en compte les références externes à celui-ci, si moins de X mois se sont écoulés depuis leur apparition. Puisque les liens externes sont l'un des principaux facteurs de classement, ignorer les liens externes équivaut à l'absence d'un site dans le moteur de recherche. Laquelle des deux hypothèses ci-dessus est plus difficile à dire, il est probable que les deux sont vraies;
- Le site peut être situé dans le bac à sable de 3 mois à un an ou plus. Il y a aussi une observation que les sites sortent du bac à sable en masse. Ie. La période de bac à sable n'est pas déterminée individuellement pour chaque site, mais pour de grands groupes de sites (les sites créés dans une période donnée appartiennent à un groupe). Le filtre est ensuite supprimé immédiatement pour l'ensemble du groupe, de sorte que les sites du même groupe resteront dans le sable pendant une durée différente.
Signes typiques que votre site est dans le bac à sable:
- Votre site est normalement indexé par Google, régulièrement visité par le robot de recherche;
- votre site a PageRank, le moteur de recherche connaît et affiche correctement les liens externes vers votre site;
- la recherche sur l'adresse du site (www.site.com) produit les résultats corrects, avec le titre correct, l'extrait (description de la ressource), etc .;
- votre site est normalement localisé par les phrases rares et uniques contenues dans le texte des pages;
- votre site n'est pas visible dans le premier millier de résultats pour d'autres requêtes, même pour celles pour lesquelles il a été créé à l'origine. Parfois il y a des exceptions et le site pour certaines demandes apparaît sur 500-600 positions, ce qui, bien sûr, ne change pas l'essence.
Il n'y a pratiquement pas de méthodes de dérivation de filtre. Il y a un certain nombre d'hypothèses sur la façon dont cela peut être fait, mais ce n'est rien de plus que des hypothèses, de plus, inacceptable pour un webmaster régulier. La méthode principale consiste à travailler sur le site et à attendre la fin du filtre.
Après le retrait du filtre, il y a une forte augmentation des classements de 400 à 500 positions ou plus.
6.2 LocalRank de Google
Le 25 février 2003, Google a breveté un nouvel algorithme de classement des pages, appelé LocalRank. L'idée est basée sur l'idée de classer les pages non par leur référence globale, mais en citant parmi un groupe de pages thématiques liées à la requête.
L'algorithme LocalRank n'est pas utilisé dans la pratique (au moins, comme il est décrit dans le brevet), cependant, le brevet contient un certain nombre d'idées intéressantes, qui devraient être familières à chaque optimiseur. La prise en compte du sujet des pages de renvoi est utilisée par presque tous les moteurs de recherche. Bien que cela se produise, apparemment, par plusieurs autres algorithmes, l'étude du brevet permettra de comprendre les idées générales, comment cela peut être réalisé.
En lisant ce chapitre, considérez qu'il contient des informations théoriques et non un guide pratique d'action.
L'idée principale de l'algorithme LocalRank est exprimée par les trois points suivants:
1. En utilisant un certain algorithme, sélectionnez un certain nombre de documents pertinents pour la requête de recherche (notez ce numéro N). Ces documents sont d'abord triés en fonction de certains critères (cela peut être le PageRank, ou l'évaluation de la pertinence ou un autre critère ou en les regroupant). Indiquer l'expression numérique de ce critère comme OldScore.
2. Chacune des pages N subit une nouvelle procédure de classement, ce qui fait que chaque page reçoit un nouveau classement. Indiquez-le par LocalScore.
3. À cette étape, les valeurs OldScore et LocalScore sont multipliées, ce qui entraîne une nouvelle valeur de NewScore, selon laquelle le classement final des pages se produit.
La clé de cet algorithme est une nouvelle procédure de classement, à la suite de laquelle un nouveau classement LocalScore est attribué à chaque page. Laissez-nous décrire cette procédure plus en détail.
0. En utilisant un certain algorithme de classement, N pages sont sélectionnées qui correspondent à la requête de recherche. Le nouvel algorithme de classement ne fonctionnera qu'avec ces N pages. Chaque page de ce groupe a un classement OldScore.
1. Lorsque vous calculez LocalScore pour une page donnée, toutes les pages de N ayant des liens externes vers cette page sont sélectionnées. On note l'ensemble de ces pages M. En même temps, l'ensemble M ne contient pas de pages du même hôte (l'hôte, le filtrage se produira à l'adresse IP), ainsi que les pages qui sont des miroirs de celui-ci.
2. L'ensemble M se divise en sous-ensembles Li. Dans ces sous-ensembles, il y a des pages qui sont unies par les signes suivants:
- appartenant à un (ou similaire) hôtes. Ainsi, dans un groupe, il y aura des pages où les trois premiers octets de l'adresse IP sont les mêmes. Autrement dit, les pages dont l'adresse IP appartient à la gamme
xxx.xxx.xxx.0
xxx.xxx.xxx.255
sera réputé appartenir au même groupe;
- les pages ayant un contenu identique ou similaire (miroirs, miroirs);
- les pages d'un site (domaine).
3. Chaque page dans chaque ensemble Li a un certain grade (OldScore). De chaque ensemble est sélectionné une page avec le plus grand OldScore, le reste sont exclus de la considération. Ainsi, nous obtenons un ensemble de pages K qui pointent vers cette page.
4. Страницы в множестве K сортируются согласно параметру OldScore, затем в множестве K остаются только k первых страниц (k – некоторое заданное число), остальные страницы исключаются из рассмотрения.
5. На данном шаге рассчитывается LocalScore. По оставшимся k страницам происходит суммирование их значений OldScore. Это можно выразить следующей формулой:
Здесь m – некоторый заданный параметр, который может варьироваться от 1 до 3 (к сожалению, информация, содержащаяся в патенте на описываемый алгоритм, не дает подробного описания данного параметра).
После того, как расчет LocalScore для каждой страницы из множества N закончен, происходит расчет значений NewScore и пересортировка страниц согласно новому критерию. Для рассчета NewScore используется следующая формула:
NewScore(i)= (a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)
i – страница, для которой рассчитывается новое значение ранга.
a и b – некоторые числа (патент не дает более подробной информации об этих параметрах).
MaxLS – максимальное из рассчитанных значений LocalScore
MaxOS – максимальное из значений OldScore
Теперь постараемся отвлечься от математики и повторим все вышесказанное простым языком.
На первом этапе происходит отбор некоторого количества страниц соответствующих запросу. Это делается по алгоритмам, не учитывающим тематику ссылок (например, по релевантности и общей ссылочной популярности).
После того, как группа страниц определена, будет подсчитана локальная ссылочная популярность каждой из страниц. Все страницы так или иначе связаны с темой поискового запроса и, следовательно, имеют отчасти схожу тематику. Проанализировав ссылки друг на друга в отобранной группе страниц (игнорируя все остальные страницы в Интернете), получим локальную (тематическую) ссылочную популярность.
После проделанного шага у нас есть значения OldScore (рейтинг страницы на основе релевантности, общей ссылочной популярности и других факторов) и LocalScore (рейтинг страницы среди тематически связанных страниц). Итоговый рейтинг и ранжирование страниц проводится на основе сочетания этих двух факторов.
6.3 Caractéristiques des différents moteurs de recherche
Все, сказанные выше идеи по текстовой оптимизации и увеличению ссылочной популярности применимы ко всем поисковым системам в равной степени. Более подробное описание Google объясняется большим наличием информации об этой поисковой системе в свободном доступе, однако идеи, высказанные в отношении Google, в большой степени применимы и к другим поисковым системам.
Вообще, я не являюсь сторонником поиска «секретного знания» о том, как детально работают алгоритмы различных поисковых систем. Все они в той или иной мере подчиняются общим правилам и грамотная работа над сайтом (без учета каких-либо особенностей) приводит к хорошим позициям почти во всех поисковых системах.
Тем не менее, приведем некоторые особенности различных поисковых систем:
Google – очень быстрая индексация, очень большое значение придается внешним ссылкам. База Google используется очень большим числом других поисковых систем и порталов.
MSN – больший, нежели у других поисковых систем, акцент на информационное содержимое сайта.
Yandex – крупнейшая российская поисковая система. Обрабатывает (по разным данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют эффект, но в меньшей степени, чем у других поисковых систем). Индексация проходит медленнее, чем у Google, однако так же в приемлемые сроки. Понижает в рейтинге или исключает из индекса сайты, занимающиеся нетематическим ссылкообменом (содержащих каталоги нетематических ссылок, созданных лишь с целью повышения рейтинга сайта), а также сайты, участвующие в системах автоматического обмена ссылками. В периоды обновлений базы, которые длятся несколько дней, выдача Яндекса постоянно меняется, в такие периоды следует отказаться от каких-либо работ по сайту и дождаться стабильных результатов работы поисковой системы.
Rambler – наиболее загадочная поисковая система. Занимает второе (по другим данные третье после Google) место по популярности среди российских пользователей. По имеющимся наблюдениям, понижает в рейтинге сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних ссылок). Ценит наличие поисковых терминов в простом тексте страницы (без выделения различными стилистическими тегами).
Mail.ru – набирающая популярность поисковая система. Использует результаты поисковой системы Google после некоторой дополнительной обработки. Оптимизация под Mail.ru сводится к оптимизации под Google.
6.4 Conseils, hypothèses, observations
В данной главе представлена информация, появившаяся в результате анализа различных статей, общения оптимизаторов, практических наблюдений и т.п. Информация эта не является точной и достоверной – это всего лишь предположения и идеи, однако идеи интересные. Данные, представленные в этом разделе, воспринимайте не как точное руководство, а как информацию к размышлению.
- исходящие ссылки. Ссылайтесь на авторитетные в вашей области ресурсы, используя нужные ключевые слова. Поисковые системы ценят ссылки на другие ресурсы той же тематики;
- исходящие ссылки. Не ссылайтесь на FFA сайты и прочие сайты, исключенные из индекса поисковой системы. Это может привести к понижению рейтинга вашего собственного сайта;
- исходящие ссылки. Страница не должна содержать более 50-100 исходящих ссылок. Это не приводит к понижению страницы в рейтинге, но ссылки сверх этого числа не будут учтены поисковой системой;
- исходящие site wide ссылки, то есть ссылки, стоящие на каждой странице сайта. Считается, что поисковые системы негативно относятся к таким ссылкам и не учитывают их при ранжировании. Существует также другое мнение, что это относится только к большим сайтам с тысячами страниц;
- идеальная плотность ключевых слов. Очень часто приходится слышать подобный вопрос. Ответ заключается в том, что идеальной плотности ключевых слов не существует, вернее она различная для каждого запроса, то есть рассчитывается поисковой системой динамически, в зависимости от поискового термина. Наш совет – проанализировать первые сайты из выдачи поисковой системы, что позволит примерно оценить ситуацию;
- возраст сайта. Поисковые системы отдают предпочтение старым сайтам, как более стабильным;
- обновление сайта. Поисковые системы отдают предпочтение развивающимся сайтам, то есть тем, на которых периодически добавляется новая информация, новые страницы;
- доменная зона (касается западных поисковиков). Предпочтение отдается сайтам, расположенным в зонах .edu, .mil, .gov и т.п. Такие домены могут зарегистрировать только соответствующие организации, поэтому доверия таким сайтам больше;
- поисковые системы отслеживают, какой процент посетителей возвращается к поиску, после посещения того или иного сайта из вылачи. Большой процент возвратов означает нетематическое содержимое, и такая страница понижается в поиске;
- поисковые системы отслеживают, насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка выбирается редко, значит, страница не представляет интереса и такая страница понижается в рейтинге;
- используйте синонимы и родственные формы ключевых слов, это будет оценено поисковыми системами;
- слишком быстрый рост числа внешних ссылок воспринимается поисковыми системами как искусственная раскрутка и ведет к понижению рейтинга. Очень спорное утверждение, прежде всего потому, что такой способ может использоваться для понижения рейтинга конкурентов;
- Google не учитывает внешние ссылки, если они находятся на одном (или сходных) хостах, то есть страницах, IP адрес которых принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение происходит скорее всего от того, что Google высказывал данную идею в своих патентах. Однако сотрудники Google заявляют, что никаких ограничений по IP адресу на внешние ссылки не налагается, и нет никаких оснований не доверять им;
- поисковые системы проверяют информацию о владельце домена. Соответственно ссылки с сайтов, принадлежащих одному владельцу имеют меньший вес, чем обычные ссылки. Информация представлена в патенте;
- срок, на который зарегистрирован домен. Чем больше срок, тем большее предпочтение отдается сайту;
6.5 Создание правильного контента
Контент (информационное содержимое сайта) играет важнейшую роль в раскрутке сайта. Тому есть множество причин, о которых мы расскажем в этой главе, а также дадим советы, как правильно наполнить сайт информацией.
- уникальность контента. Поисковики ценят новую информацию, нигде ранее не публиковавшуюся. Поэтому при создании сайта опирайтесь на собственные тексты. Сайт, построенный на основе чужих материалов, имеет гораздо меньшие шансы на выход в топ поисковых систем. Как правило, первоисточник всегда находится выше в результатах поиска;
- при создании сайта не забывайте, что он изначально создается для посетителей, а не для поисковых систем. Привести посетителя на сайт – это только первый и не самый трудный шаг. Удержать посетителя на сайте и превратить его в покупателя – вот действительно сложная задача. Добиться этого можно только грамотным информационным наполнением сайта, интересным для человека;
- старайтесь регулярно обновлять информацию на сайте, добавлять новые страницы. Поисковики ценят развивающиеся сайты. Кроме того, больше текста – больше посетителей на сайт. Пишите статьи на тему вашего сайта, публикуйте отзывы посетителей, создайте форум для обсуждения вашего проекта (последнее – только если посещаемость сайта позволит создать активный форум). Интересный контент – залог привлечения заинтересованных посетителей;
- сайт, созданный для людей, а не поисковых машин, имеет большие шансы на попадание в важные каталоги, такие как DMOZ, Яндекс и другие;
- интересный тематический сайт имеет гораздо больше шансов на получение ссылок, отзывов, обзоров и т.д. других тематических сайтов. Такие обзоры сами по себе могут дать неплохой приток посетителей, кроме того, внешние ссылки с тематических ресурсов будут по достоинству оценены поисковыми системами.
В заключение еще один совет. Как говорится, сапоги должен делать сапожник, а писать тексты должен журналист или технический писатель. Если вы сумеете создать увлекательные материалы для вашего сайта – это очень хорошо. Однако у большинства из нас нет особых способностей к написанию привлекательных текстов. Тогда лучше доверить эту часть работы профессионалам. Это более дорогой вариант, но в долгосрочной перспективе он себя оправдает.
6.6 Choisir un domaine et un hébergement
В настоящее время создать свою страницу в Интернет может любой и для этого не нужно никаких затрат. Существуют компании, предоставляющие бесплатный хостинг, которые разместят вашу страницу в обмен на право показывать на ней свою рекламу. Многие Интернет-провайдеры также дадут вам место на своем сервере, если вы являетесь их клиентом. Однако все эти варианты имеют очень существенные недостатки, поэтому, при создании коммерческого проекта, вы должны отнестись к этим вопросам с большей ответственностью.
Прежде всего стоит купить свой собственный домен. Это дает вам следующие преимущества:
- проект, не имеющий собственного домена, воспринимается как сайт-однодневка. Действительно, почему мы должны доверять данному ресурсу, если его владельцы не готовы потратить даже символическую сумму для создания минимального имиджа. Размещение бесплатных материалов на таких ресурсах возможно, но попытка создания коммерческого проекта без собственного домена почти всегда обречена на неудачу;
- собственный домен дает вам свободу в выборе хостинга. Если текущая компания перестала вас устраивать, то вы в любой момент можете перенести свой сайт на другую, более удобную или быструю площадку.
При выборе домена помните о следующих моментах:
- старайтесь, чтобы имя домена было запоминающимся и его произношение и написание было бы однозначным;
- для раскрутки международных англоязычных проектов более всего подходят домены с расширением .com Можно также использовать домены из зон .net, .org, .biz и т.п., однако этот вариант менее предпочтителен;
- для раскрутки национальных проектов всегда следует брать домен в соответствующей национальной зоне (.ru – для русскоязычных проектов, .de – для немецких и т.д.);
- в случае двуязычных (и более) сайтов следует выделить свой домен под каждый из языков. Национальные поисковые системы в большей степени оценят такой подход, чем наличие на основном сайте подразделов на различных языках.
Стоимость домена составляет (в зависимости от регистратора и зоны) 10-20$ в год.
При выборе хостинга следует опираться на следующие факторы:
- скорость доступа;
- время доступности серверов (uptime);
- стоимость трафика за гигабайт и количество предоплаченного трафика;
- желательно, чтобы площадка располагалась в том же географическом регионе, что и большинство ваших посетителей;
Стоимость хостинга для небольших проектов колеблется в районе 5-10$ в месяц.
При выборе домена и хостинга избегайте «бесплатных» предложений. Часто можно видеть, что хостинг-компании предлагают бесплатные домены своим клиентам. Как правило, домены в этом случае регистрируются не на вас, а на компанию, то есть фактическим владельцем домена является ваш хостинг-провайдер. В результате вы не сможете сменить хостинг для своего проекта, либо будете вынуждены выкупать свой собственный, раскрученный домен. Также в большинстве случаев следует придерживаться правила не регистрировать свои домены через хостинг-компанию, так как это может затруднить возможный перенос сайта на другой хостинг (даже несмотря на то, что вы являетесь полноценным владельцем своего домена).
6.7 Changement d'adresse du site
Иногда по ряду причин может потребоваться смена адреса проекта. Некоторые ресурсы, начинавшиеся на бесплатном хостинге и адресе, развиваются до полноценных коммерческих проектов и требуют переезда на собственный домен. В других случаях находится более удачное название для проекта. При любых подобных вариантах встает вопрос правильного переноса сайта на новый адрес.
Наш совет в этом плане таков – создавайте на новом адресе новый сайт с новым, уникальным контентом. На старом сайте поставьте на новый ресурс видные ссылки, чтобы посетители могли перейти на ваш новый сайт, однако не убирайте совсем старый сайт и его содержимое.
При таком подходе вы сможете получать поисковых посетителей как на новый, так и на старый ресурс. При этом у вас появляется возможность охватить дополнительные темы и ключевые слова, что было бы сложно сделать в рамках одного ресурса.
Перенос проекта на новый адрес задача сложная и не очень приятная (так как в любом случае раскрутку нового адреса придется начинать практически с нуля), однако, если этот перенос необходим, то следует извлечь максимум пользы из него. Retour en haut >>>
7. Semonitor – пакет программ для раскрутки и оптимизации сайта
В предыдущих главах мы рассказали о том, как правильно создать свой сайт и какими методами его можно раскрутить. Последняя глава посвящена программным инструментам, которые позволят автоматизировать значительную часть работы над сайтом и добиться более высоких результатов. Речь пойдет о пакете программ Semonitor, который вы можете скачать с нашего сайта (www.semonitor.ru).
7.1 Модуль Определение позиций
Проверка позиций сайта в поисковых системах является практически каждодневной задачей каждого оптимизатора. Позиции можно проверять и вручную, однако, если у вас несколько десятков ключевых слов и 5-7 поисковых систем, которые нужно мониторить, то этот процесс будет очень утомительным.
Модуль Определение позиций проделает всю работу автоматически. Вы сможете получить информацию о рейтингах вашего сайта по всем ключевым словам в различных поисковых системах, увидеть динамику и историю позиций (рост/падение вашего сайта по заданным ключевым словам), увидеть ту же информацию в наглядной графической форме.
7.2 Module de liens externes
Программа сама опросит все доступные поисковые системы и составит наиболее полный и не содержащий дубликатов список внешних ссылок на ваш ресурс. Для каждой ссылки вы увидите такие важные параметры, как PageRank ссылающейся страницы и ссылочный текст (в предыдущих главах мы подробно рассказали о ценности этих параметров).
Помимо общего списка внешних ссылок вы сможете отслеживать их динамику – то есть видеть вновь появившиеся и устаревшие ссылки.
7.3 Модуль Индексация сайта
Покажет все страницы, проиндексированные той или иной поисковой системой. Необходимый инструмент при создании нового ресурса. Для каждой из проиндексированных страниц будет показано значение PageRank.
7.4 Module d'analyse de journal
Вся информация о ваших посетителях (с каких сайтов они попали на ваш ресурс, какие ключевые слова использовали, в какой стране они находятся и многое другое) содержится в лог-файлах сервера. Модуль лог-анализатор представит всю эту информацию в удобных и наглядных отчетах.
7.5 Module Rank Page Analyseur
Определяет огромное количество конкурентной информации о заданном списке сайтов. Автоматически определяет для каждого сайта из списка такие параметры, как Google PageRank, Yandex ТИЦ, число внешних ссылок, присутствие сайта в основных каталогах DMOZ, Yandex и Yahoo каталоге. Идеальный инструмент для анализа уровня конкуренции по тому или иному поисковому запросу.
7.6 Module de sélection de mot-clé
Подбирает релевантные ключевые слова для вашего сайта, сообщает данные об их популярности (число запросов за месяц), оценивает уровень конкуренции по той или иной фразе.
7.7 Module d'analyse HTML
Анализирует html-код страницы, подсчитывает вес и плотность ключевых слов, создает отчет о правильности текстовой оптимизации сайта. Используется на этапе создания собственного сайта, а также для анализа сайтов конкурентов. Позволяет анализировать как локальные html-страницы, так и он-лайн проекты. Поддерживает особенности русского языка, поэтому может быть использован для успешной работы, как с английскими, так и с русскими сайтами.
7.7 Programmes d'inscription au site AddSite et Add2Board
Программы AddSite (регистрация в каталогах) и Add2Board (доски объявлений) позволят поднять ссылочную популярность вашего проекта. Подробнее об этих программах можно узнать на сайте наших партнеров www.addsite.ru В начало >>>
8. Полезные ресурсы
В сети существует масса ресурсов по продвижению сайтов. Приведем здесь основные, наиболее ценные на наш взгляд:
www.searchengines.ru – крупнейший в рунете сайт по оптимизации
forum.searchengines.ru – место, где общаются оптимизаторы, как профессионалы так и новички
http://www.optimization.ru/subscribe/list.html - архив рассылок компании Ашманов и партнеры, базовый курс поисковой оптимизации. Самая лучшая рассылка на тему seo, здесь вы найдете самые последние новости, статьи и т.д.
http://www.optimization.ru – сайт посвященный ежегодной конференции Поисковая оптимизация и продвижение сайтов в Интернете. Возможность приобрести доклады предыдущих конференций, содержащие очень ценную информацию.
http://seminar.searchengines.ru/ - сборник материалов по теме seo. Сборник платный, но цена невысокая, очень хорошая подборка материалов.

Au lieu de la conclusion - la promotion du site étape par étape
Dans ce chapitre, je parlerai de la façon dont je fais la promotion de mes propres sites. C'est quelque chose comme une petite instruction étape par étape, dans laquelle il répète brièvement ce qui a été décrit dans les sections précédentes. Dans mon travail, j'utilise le programme Semonitor, donc il sera pris comme exemple.
1. Pour commencer à travailler sur le site, vous devez avoir quelques connaissances de base, en quantité suffisante, ils sont représentés dans ce cours. Je souligne que vous n'avez pas besoin d'être un gourou dans l'optimisation et que cette connaissance de base est acquise assez rapidement. Après cela, nous commençons à travailler,
expérimenter, afficher des sites en haut, etc. Ici, nous avons besoin d'outils logiciels.
2. Составляем примерный список ключевых слов и проверяем уровень конкуренции по ним. Nous évaluons nos capacités et arrêtons le choix de mots assez populaires, mais moyennement compétitifs. La sélection des mots-clés se fait à l'aide d'un module approprié, un contrôle approximatif de la concurrence en elle. Sur le plus intéressant pour nous les demandes
nous effectuons une analyse détaillée de l'émission des moteurs de recherche dans le module Page Rank
analyseur et prendre des décisions finales sur les mots-clés.
3. Nous commençons à écrire des textes pour le site. Certains des textes que j'écris moi-même, certains des plus importants que je donne à l'écriture aux journalistes. C'est mon opinion - le contenu d'abord. S'il y a un bon
contenu d'information, il sera plus facile de recevoir des liens externes et des visiteurs. Au même moment, nous commençons à utiliser le module d'analyse HTML, nous créons la densité nécessaire de mots-clés. Каждую страницу оптимизируем под свое словосочетание.
4. Enregistrement d'un site dans des catalogues. Pour ce faire, utilisez le programme AddSite (www.addsite.ru)
5. Après les premières étapes, attendez et vérifiez l'indexation pour vous assurer que le site est normalement perçu par différents moteurs de recherche.
6. На следующем шаге уже можно начинать проверку позиций сайта по нужным ключевым словам. Les positions ne seront probablement pas très bonnes au début, mais cela fournira des informations pour la réflexion.
7. Nous continuons à travailler sur l'augmentation de la popularité de lien, le processus est suivi en utilisant le module Liens externes.
8. La fréquentation du site est analysée à l'aide du journal de l'analyseur et nous travaillons à l'augmenter.