[3.0.x] Les problèmes du SEO et les solutions pour phpBB3 Facile

[3.0.x] Les problèmes du SEO et les solutions pour phpBB3


Les problèmes du SEO et les solutions pour phpBB3
Par : Highway of Life

Beaucoup de gens pensent que le SEO est essentiellement l'utilisation ou la mise en œuvre d’une URL lisible par l'homme. Toutefois, ce n’est pas l’essentiel du SEO, c’est même plutôt une petite partie de ce qu’est le SEO, ce qui est généralement mal compris. Beaucoup de gens croient que les URLs lisibles par l'homme sont la seule façon que les moteurs de recherche ont pour indexer correctement un site, ou que c’est la meilleure méthode qu’ont les robots pour l’indexation d’un site. Ou même, les gens croient que les URLs dynamiques peuvent en quelque sorte faire du tort au classement d’un site ou à sa représentation au sein des moteurs de recherches. Mais ce n’est pas le cas. Les URLs lisibles par l’homme profiteront principalement aux moteurs de recherche comme des mots-clés ajoutés dans la page, ce qui renforce seulement les mots-clés de la page et du titre du sujet, ce que les moteurs de recherche utilisent déjà pour l’indexation.
Les moteurs de recherche peuvent tout aussi simplement indexer des URLs dynamiques de la même façon que pour les URLs statiques et lisibles par l’homme. Le bénéfice est minime.

Le SEO est mort, vive le SEO !
D'autres personnes pensent que le web a tellement progressé au cours des années et avancé dans les technologies de recherche, que les moteurs de recherche n'exigent plus aucune optimisation pour indexer proprement votre site. Ou que vous ne pouvez pas améliorer les classements et résultats du moteur de recherche, en exécutant simplement des optimisations sur votre site.

Ce billet est destiné à traiter les deux côtés de l’argumentaire en donnant aux gens une meilleure compréhension de ce qu’est le SEO et de sa place au sein de phpBB3. Il comprend également l’identification des problèmes au sein de phpBB3 lui-même en ce qui concerne la performance des moteurs de recherche et les solutions pour répondre à ces problèmes.

Qu’est-ce que le SEO ?
Le SEO (Search Engine Optimisation, soit l’optimisation pour les moteurs de recherche) est défini comme toute action ou ajustement, aussi connu comme étant l’optimisation que vous effectuez sur votre site en vue d’améliorer le volume et la qualité du trafic sur votre site ou votre forum en utilisant des résultats de recherche pour des mots-clés ciblés, ce qui peut inclure une ou plusieurs méthodes possibles, que se soit par la mise en œuvre d’URLs lisibles par l’homme et le ciblage de mots-clés, la publicité, l’ajout d’une page à ne pas indexer, ou d'un répertoire dans votre fichier robots.txt.

Comment phpBB3 gère-t-il le SEO ?
phpBB3, maintenant sorti de sa boîte, possède de bonnes capacités d’optimisation pour les moteurs de recherche (SEO). Il gère de manière appropriée les sessions de connexion des robots et il cache complètement le contenu inutile tel que des formulaires, les liens vers les profils ou des liens vers lesquels les robots ne devraient pas avoir accès, comme les liens morts, entre autres. Certaines de ces astuces sont simplement destinées à améliorer les performances des robots d'indexation du site, en n’affichant pas le contenu inutile, ce qui peut réduire les requêtes HTTP et la bande passante, grâce à l’absence d’éléments inutiles tels que les formulaires. Mais ce ne sont là que toute l’étendue de ces astuces. Il y a tellement d’autres choses que nous pouvons faire pour optimiser phpBB3 en vue d’une meilleure performance sur les moteurs de recherches. Ce sont de nombreuses méthodes dont les gens, je suppose, ne sont pas encore au courant.

Quel est le problème principal du SEO au sein de phpBB3 ?
Dans phpBB3, le problème principal avec le SEO est la duplication du contenu. Non, ce n’est pas le genre de contenu dupliqué qui pourrait vous pénaliser ou vous faire bannir de Google (c’est un sujet qui mérite un billet à lui seul), mais c’est le type de contenu double qui éparpille les résultats de recherches et qui utilise plus de bande-passante, car les robots indexent et ré-indexent le même contenu comme des pages indépendantes dans son index. Alors, les résultats de recherche pour cette simple page s’affichent sous la forme de plusieurs résultats pour exactement la même page, ce qui empêche une recherche efficace et dégrade l’efficacité de ces résultats.

Comment cela peut-il être amélioré ? Il faut tout d’abord que le problème soit complètement compris. Lorsqu’un robot explore votre forum depuis la page d’index, il regarde tous les liens : il y a des liens pour les catégories, les forums, les sous-forums, et aussi pour le dernier message d’un forum en particulier. En entrant dans un forum, il voit une liste de liens vers des sujets, jusqu'à quatre pages pour un même sujet, et de nouveau le dernier message dans ce sujet. Dès l'entrée sur le sujet, il va voir une toute autre page par le biais de l'option d'impression.

L’idée est que nous voulons que le robot indexe le sujet dans les pages et, pour ce faire, le robot doit voir la même URL, dynamique ou statique, des pages sur ce sujet. S’il voit différentes URLs (telles que celles contenues dans la variable p-post-), il considère cette page comme une toute nouvelle page, et il l’indexe en tant que telle. Mais l’URL du dernier message sur l’index, ainsi que la visualisation de la catégorie, tout comme le dernier message au sein d’un sujet spécifique montrent au robot qu’il y a beaucoup plus de pages au forum qu’il y en a réellement. Ce qui cause une indexation multiple du même contenu.

Deuxièmement, comme les utilisateurs peuvent pointer directement vers un autre message dans un sujet, cette URL peut contenir des paramètres autres que l’id du forum et du sujet, et la variable de départ, ce qui fait en sorte que le robot ne peut que les reconnaître. Il peut voir de multiples paramètres incluant : la clé de tri, le sens du tri, l’ordre, l’id de la session, l’id du message, l'aperçu avant impression et le surlignement.

Chaque nouvelle variable ajoutée, différente de la dernière indexation du sujet et de la page, se traduira par une page complètement nouvelle et donc par un autre passage d’indexation de la part du robot. En outre, cela dilue les mots-clés pour les résultats de recherche ou le contenant de cette page, et consomme de nouveau de la bande-passante pour du même contenu.

La solution du contenu double dans phpBB3
Maintenant que nous comprenons le problème, quelle est la solution ?
Il y a deux méthodes qui peuvent être utilisées pour améliorer l’optimisation du problème de duplication de contenu dans phpBB3.
Tout d’abord, en supprimant (cachant) les liens pointant vers les derniers messages dans les sujets et les forums. Ensuite, en filtrant uniquement pour les robots tous les paramètres, excepté le topic_id et le début des variables – et peut-être utiliser le forum_id, mais cela doit être cohérent, d’une manière ou d’une autre. Souvenez-vous que chaque variable ajoutée signifie une nouvelle page pour les moteurs de recherche, y compris Google. Ce type de changement veut fondamentalement dire que cela redirige la page, du point de vue du robot, si les paramètres ne sont pas ceux qui sont strictement permis, ce type de changement étant quelque chose qui peut augmenter le nombre de requêtes HTTP s’il est surexploité, mais peut être nécessaire pour améliorer l’optimisation. En raison de la diminution d’indexations répétées, cela peut entraîner une diminution des requêtes HTTP, Ce qui devient équivalent au final. Mais ces changements doivent seulement être effectués par les robots, considérant que cela pourrait porter préjudice à l’utilisateur que de naviguer sur votre forum s’ils expérimentent ces astuces.

Ces changements seront beaucoup plus bénéfiques pour les moteurs de recherche qu’un quelconque changement d’URL pour le rendre lisible par l’homme. L’ajout de ces URLs compréhensibles peut avoir un impact négatif sur cette question si les robots sont toujours autorisés à indexer les URLs dynamiques, rajoutant des nouvelles pages à ce que les robots voient déjà.
Pix'
Roi des posts
Roi des posts
 
Rédigé le: 07 Sep 2008 à 22:11
Articles: 3
Noter cet article: 123456 Votants: Aucun
Mots-clés: problèmes, SEO, solutions, phpBB3, 30x

Retourner vers Utilisation de phpBB


cron