Cuando el mismo texto se encuentra en varias páginas en el mismo sitio web o dos urls diferentes penalizará tu SEO onpage.
Eliminando contenido duplicado de los resultados de búsqueda y de ordenación
Los resultados de búsqueda y los resultados ordenados de la clasificación de los productos ya están “Desactivados” de forma predeterminada en el archivo robots.txt de Prestashop. Este fichero les dice a los motores de búsqueda que no rastreen esas páginas. De todas maneras estas páginas pueden acabar viéndose en los resultados de búsqueda. Por esta razón el método que te recomiendo es agregar un noindex en la página html. Con el noindex te aseguras de que los motores de búsqueda no están autorizados para mostrar la página en sus resultados. Para hacer esto tendrás que modificar el fichero header.tpl:
{if $request_uri|strstr:"orderby" || $request_uri|strstr:"orderway" || $request_uri|strstr:"n="} {$nobots = true} {/if} <meta name="robots" content="{if isset($nobots)}no{/if}index,{if isset($nofollow) && $nofollow}no{/if}follow" /> |
Eliminando contenido duplicado de los páginas secundarias de las categorías
Después del paso anterior vamos a eliminar los resultados duplicados de las páginas de las categorías, para esto vamos a hacer que las categorías muestren la descripción solamente en la primera página.
Por defecto Prestashop mostrará la descripción de las categorías en todas las páginas de la categoría, mostrando así contenido duplicado en las categorías.
{if isset($p) AND $p eq 1} .... {$category->description} ... {/if} |
Con estos dos sencillos pasos eliminas bastante contenido duplicado que muchas veces tumba tus resultados en la página de resultados de búsqueda de Google (SERP).