L’optimisation d’un site ne se fait pas en criant «mot-clé»

Pour mieux être repéré dans l’océan binaire du Web, un site Internet peut bénéficier d’un perfectionnement de sa structure et de ses contenus envers les moteurs de recherche. Un stratège nous explique que cette optimisation fait l’objet d’une diversité d’actions. Une organisation cliente doit toutefois faire ses devoirs et se méfier des belles promesses.

L’exploitation d’un site Internet constitue un outil important dans une stratégie de marketing organisationnel. Alors que le moteur de recherche a supplanté le répertoire et l’annuaire à titre d’outil privilégié par les internautes, l’optimisation d’un site augmente sa pertinence et hausse son classement dans les listes de résultats, pour augmenter les probabilités d’interaction ou de commerce avec d’éventuels clients.

Cette optimisation revêt une importance accrue, vu que cet outil est fréquemment utilisé par les consommateurs et que le rapport qualifié-prix est élevé. Selon le Guide stratégique et pratique du référencement de la Chaire de commerce électronique RBC Groupe financier de HEC Montréal, le coût d’acquisition d’un client par l’entremise des moteurs de recherche varie de 7 à 10 $, comparativement à l’envoi postal (60-80 $), au courriel (40-80 $) et à l’annuaire (15-25 $).

De l’intérêt aux actions

Simon Lamarche, un des associés de la firme québécoise Adviso qui est spécialisée en optimisation des sites pour le référencement, affirme qu’une telle optimisation est une tâche à multiples volets. Il constate l’intérêt croissant des entreprises québécoises envers l’optimisation des sites Web en fonction de mots-clés, pour des raisons de coûts. Toutefois, il souligne que cette optimisation n’est pas une affaire d’une seule opération.

« Les gens qui investissent beaucoup en pay-per-click (paiement au clic) se rendent compte que c’est très dispendieux, se demandent s’il y a une autre approche et se tournent vers le référencement naturel, mais c’est encore méconnu, affirme M. Lamarche. Plusieurs grandes entreprises n’iront pas voir des firmes spécialisées, mais vont plutôt se fier à leurs agences [de publicité ou de communication] qui parfois ne comprennent pas ce qu’il en est. »

« Beaucoup de gens paient des personnes pour qu’elles le fassent d’un coup, mais le référencement est quelque chose qu’il faut voir à long terme. Il suffit que Google fasse un changement et hop! c’est le compétiteur qui passe au-dessus. C’est un travail quotidien, parce que c’est la seule façon d’avoir de bons résultats », précise-t-il.

Chercher les mots

Invité à décrire le processus, M. Lamarche explique que la démarche débute par la définition des mots-clés que les internautes sont susceptibles d’utiliser pour arriver éventuellement à la vitrine Web d’une organisation.

« Si l’on optimise un site pour un mot clé que les internautes n’utilisent pas, on va être les premiers à un endroit où personne ne se retrouve. C’est comme avoir un magasin dans un centre d’achat vide », compare-t-il.

M. Lamarche indique que des outils en ligne permettent de savoir si un terme est employé par les internautes lors des recherches. Certains fournissent des données précises, comme le nombre d’internautes qui utilisent un mot-clé, et d’autres une information partielle, comme un graphique comparatif pour deux mots.

« On peut aussi miser sur des combinaisons de mots, car selon des données de Google, plus de 50 % des recherches sont uniques, soit des accumulations de mots », souligne-t-il

Contenant « motophile »

La structure d’un site doit également favoriser la libre circulation des robots des moteurs de recherche.

M. Lamarche explique que certaines approches Web, comme l’utilisation de la technologie Flash, « où le robot n’y verra qu’un gros fichier vidéo » et le recours aux cadres entravent l’exploration des sites. Il ajoute qu’un site ne doit pas être morne pour autant, alors que des technologies peuvent rendre un site attrayant sans en altérer la capacité de positionnement dans les moteurs.

M. Lamarche constate que bien des sites ont des éléments en blanc ou conservent les inscriptions initiales comme « Page titre » dans le bandeau de la fenêtre d’accueil… « Plusieurs petits éléments se changent en 30 secondes. En ne le faisant pas, des entreprises perdent des chances de joindre des gens sur l’Internet. Le titre d’une page est la balise la plus importante dans un moteur de recherche. Si on n’a pas un bon titre, les chances sont beaucoup plus faibles qu’avec un titre de bonne qualité », souligne-t-il.

Contenus pertinents

Les contenus du site Web n’échappent pas à l’optimisation, puisqu’ils constituent l’élément le plus apprécié par les robots. La quantité tout comme la qualité de ces contenus définiront si une page est bonne ou non aux « yeux » des robots.

« Plein d’entreprises de commerce électronique vendent des produits, mais n’inscrivent pas de détails. Si le moteur de recherche ne voit que quatre mots et une photo, il ne considérera pas cette page comme étant extrêmement pertinente pour ce mot-clé », indique-t-il.

À son avis, il faut 200 mots au minimum pour qu’un moteur pense que la page est intéressante. Le contenu doit utiliser un mot-clé, mais aussi ses variantes au singulier et au pluriel, une inversion s’il s’agit d’une combinaison de mots, des termes connexes, etc. Les photos et les hyperliens des pages doivent être dotés de noms descriptifs au lieu de numéros ou de codes.

Les blogues, d’ailleurs, sont déjà créés à l’aide d’outils conçus pour l’indexation dans les moteurs de recherche, par l’inclusion de mots clés, de titres dynamiques, de balises d’emphase et des liens intrasites ou externes.

Simon Lamarche souligne également le caractère non négligeable de l’inclusion de la localisation géographique dans les contenus, pour les gens qui cherchent en fonction d’une région, d’une ville ou d’un arrondissement, tout comme de l’optimisation des contenus anglophones d’un site bilingue.

« La compétition est beaucoup plus intense au niveau anglophone que francophone, met en garde M. Lamarche. Si une entreprise demande à être “positionnée” seulement en français, cela coûtera moins cher parce que ce sera moins difficile que pour un mot-clé en anglais. Sur Google, ordinateur rapporte 58 millions de résultats, alors que computer rapporte 780 millions de résultats. »

Faire les liens

Enfin, M. Lamarche souligne l’importance de la présence, sur des sites externes, de liens menant au site Web d’une organisation. Cet élément constitue un facteur important dans l’équation complexe qu’utilisent les moteurs de recherche pour déterminer le rang d’une page dans les résultats.

Il faut définir une liste de sites, dont les thématiques sont similaires au site d’une organisation et qui seraient intéressés à l’ajout d’un hyperlien. Il peut s’agir de partenaires, de distributeurs, d’annuaires de produits, de blogues, de forums de discussion, etc. pour lesquels il faut privilégier l’hétérogénéité.

« S’il y a cent liens entrants qui proviennent d’annuaires ou de blogues, les moteurs vont trouver la situation “spéciale”, qu’elle ressemble à une campagne orchestrée, et les chances d’être bien positionné sont plus faibles. Il faut avoir plusieurs types de liens dans un ratio intéressant », recommande M. Lamarche.


Jouer selon les règles du jeu

Il existe diverses tactiques pour faire grimper un site Web sur la liste des résultats d’un moteur de recherche. Si plusieurs sont loyales et réalisées selon les règles établies par ces moteurs, d’autres visent à gonfler artificiellement la valeur d’un site.

Ainsi, les blocs de dizaines de mots-clés inscrits au bas d’une page dans la même couleur que l’arrière-plan, ou les sites trompeurs qui génèrent automatiquement des pages au gré des mots-clés, constituent des pratiques répréhensibles.

Selon Simon Lamarche, les organisations réputées devraient se tenir loin des firmes qui appliquent de telles méthodes, pour éviter une exclusion des bases de données aux conséquences coûteuses.

« Beaucoup le font encore, mais le danger est tellement important de perdre son positionnement qu’une entreprise qui se respecte ne peut se le permettre. Si on utilise des approches qui sont croches, il existe plusieurs façons d’aviser un moteur de recherche qu’on tente de les fausser. L’entreprise peut alors être sortie d’un index de moteur de recherche pendant six mois, ce qui fait diminuer le chiffre d’affaires… », indique-t-il.

Aux organisations à la recherche d’une firme d’optimisation de site Web, M. Lamarche recommande d’exiger un plan d’action et une approche de référencement par écrit. « Si on mentionne qu’on utilisera des portails de liens ou d’autres approches [inappropriées], il sera facile de savoir qu’elles sont proscrites par des moteurs de recherche », indique-t-il.

Le fournisseur, après analyse de la situation, devrait soumettre au client des mots-clés à promouvoir, des modifications à apporter au site et une stratégie pour établir des liens entrants, avec des exemples de sites qu’il compte approcher. Le client pourra vérifier si ces sites sont reconnus.

M. Lamarche recommande surtout la méfiance envers les firmes trop optimistes. « Dès qu’un fournisseur offre des garanties, on ne peut y avoir confiance. Il y a tellement d’éléments qui peuvent changer au niveau de la compétition, du moteur de recherche ou du site lui-même qu’on ne peut assurer que le site sera premier pour un mot-clé… », note-t-il.

Jean-François Ferland
Jean-François Ferland
Jean-François Ferland a occupé les fonctions de journaliste, d'adjoint au rédacteur en chef et de rédacteur en chef au magazine Direction informatique.

Articles connexes

Adoption du projet de loi no 38 sur la cybersécurité et la transformation numérique de l’administration publique

Le projet de loi no 38, connu sous le nom de Loi modifiant la Loi sur la gouvernance et la gestion des ressources informationnelles des organismes publics et des entreprises du gouvernement et d'autres dispositions législatives, a été adopté plus tôt cette semaine par l'Assemblée nationale.

Investissements majeurs de 500 M$US de Microsoft au Québec

Au cours des deux prochaines années, Microsoft investira 500 millions de dollars américains dans l'expansion de son infrastructure infonuagique et d'intelligence artificielle à grande échelle au Québec.

Balado Hashtag Tendances, 23 novembre 2023 — Crise chez OpenAI, des puces Microsoft et investissements majeurs au Québec pour Microsoft

Cette semaine : Grave crise à la tête d’OpenAI, Microsoft conçoit ses propres processeurs et investissements de 500 M$ de Microsoft au Québec.

Consultation publique sur la cybersécurité

Le ministère de la Cybersécurité et du Numérique lance cette semaine une consultation publique sur la cybersécurité. Celle-ci permettra au gouvernement du Québec de solliciter un grand nombre d'intervenants ainsi que la population générale sur les enjeux et les besoins en cybersécurité.

Plus de six PME québécoises sur dix touchées par la cybercriminalité au cours de la dernière année

Un nouveau sondage mené par KPMG au Canada le mois dernier révèle que plus de six PME sur dix au Québec ont été attaquées par des cybercriminels au cours de la dernière année, et près des trois quarts d'entre elles affirment que leurs anciens systèmes d'information et de technologie opérationnelle les rendent vulnérables aux attaques.

Emplois en vedette

Les offres d'emplois proviennent directement des employeurs actifs. Les détails de certaines offres peuvent être soit en français, en anglais ou bilinguqes.