Поисковая оптимизация и PrestaShop

Занимаетесь ли вы поисковой оптимизацией сайта?


  • Всего проголосовало
    77
Друзья, кто-нибудь сталкивался с такой проблемой?

В поисковой выдаче на некоторых запросах присутствуют "хвосты" в ссылках. Не знаю откуда они взялись и что это вообще такое. Сссылка со скрина ниже ведет на главную страницу магазина.
В кеше гугла она имеет вид — имясайта.ru/?_escaped_fragment_=wild-orchid/zoom/mainPage/imageb3q
Посмотреть вложение 81519

Эти хвосты я вижу также в кабинете Bing Webmaster в закладке Index Explorer.
Посмотреть вложение 81520

К товарам эти фразы никак не относятся, никаких "milky-way" и "philosophy" в магазине никогда не было и такие слова нигде не используются. XML карта сайта генерируется чистая, там этого мусора нет. В файле robots.txt тоже ничего лишнего. За вирусами я присматриваю и проверяю регулярно.
Просмотрел все индексируемые страницы через site:имясайта.ru — в выдаче 99% нормальных линков на страницы, и несколько вот таких с "хвостами".
Что это за неведомая фигня?

если так уж мозолит глаза - можешь попробовать прописать редирект в .htaccess
Код:
RewriteRule ^(.*)#.+$ $1 [NE,L,R=301]
при следующем обновлении выдачи хвосты должны исчезнуть
 
Друзья, кто-нибудь сталкивался с такой проблемой?

В поисковой выдаче на некоторых запросах присутствуют "хвосты" в ссылках. Не знаю откуда они взялись и что это вообще такое. Сссылка со скрина ниже ведет на главную страницу магазина.
В кеше гугла она имеет вид — имясайта.ru/?_escaped_fragment_=wild-orchid/zoom/mainPage/imageb3q
Посмотреть вложение 81519

Эти хвосты я вижу также в кабинете Bing Webmaster в закладке Index Explorer.
Посмотреть вложение 81520

К товарам эти фразы никак не относятся, никаких "milky-way" и "philosophy" в магазине никогда не было и такие слова нигде не используются. XML карта сайта генерируется чистая, там этого мусора нет. В файле robots.txt тоже ничего лишнего. За вирусами я присматриваю и проверяю регулярно.
Просмотрел все индексируемые страницы через site:имясайта.ru — в выдаче 99% нормальных линков на страницы, и несколько вот таких с "хвостами".
Что это за неведомая фигня?
1.попробуйте в тестовом режиме отключать поочередно доп. модули и проверять урлы - возможно кто-то подшутил и скрипчик всунул.
2. попробуйте перебросить на другой сервак - если ничего не измениться, то проблема в скрипте, ну а если измениться - вопрос к хостингу или впс.
Вот, можете по Для просмотра ссылки Войди или Зарегистрируйся бесплатно потестить...
 
Решил опробовать хак для шаблона Для просмотра ссылки Войди или Зарегистрируйся
Код:
<script type="application/ld+json">
{
"@context" : "http://schema.org",
"@type" : "Organization",
"name" : "",
"url" : "",
"logo" : {
"@type":"ImageObject",
"url":""
}
}
</script>
<script type="application/ld+json">
{
"@context":"http://schema.org",
"@type":"WebPage",
"isPartOf": {
"@type":"WebSite",
"url": "",
"name": ""
},
"name": "",
"url": "home/123-navitel-a505.html"
}
</script>
Надо заменить переменную {$base_dir} на {$smarty.const.__PS_BASE_URI__} и др.чтобы работало на 1.7
 
Последнее редактирование:
если так уж мозолит глаза - можешь попробовать прописать редирект в .htaccess
Код:
RewriteRule ^(.*)#.+$ $1 [NE,L,R=301]
при следующем обновлении выдачи хвосты должны исчезнуть

попробовал вашу конструкцию
RewriteRule ^(.*)#.+$ $1 [NE,L,R=301]

при ссылке вида
Для просмотра ссылки Войди или Зарегистрируйся
открывается главная страница как и ранее, но в адресной строке браузера все равно есть этот "мусор", т.е. редиректа не происходит.

может я что-то упустил?
другие RewriteRule из htaccess работают нормально.
 
попробовал вашу конструкцию
RewriteRule ^(.*)#.+$ $1 [NE,L,R=301]

при ссылке вида
Для просмотра ссылки Войди или Зарегистрируйся
открывается главная страница как и ранее, но в адресной строке браузера все равно есть этот "мусор", т.е. редиректа не происходит.

может я что-то упустил?
другие RewriteRule из htaccess работают нормально.

символы после решётки редиректами не обрабатывается

кроме визуально-эстетически-перфекционистских - решётка для хорошей индексации сайта сложностей не создаёт
 
символы после решётки редиректами не обрабатывается

кроме визуально-эстетически-перфекционистских - решётка для хорошей индексации сайта сложностей не создаёт

и в самом деле, тупанул. делал раньше обратную операцию - редирект с простого урл на урл#анкор. совсем забыл, что наоборот никак - браузер тупо не шлет на сервер решетку и всё, что после неё.
в таком случае только яваскриптом редирект можно прописать - поисковые боты его выполняют.
 
Подскажите, в google search console появляются параметры урлов типа %3Fp%3D4 и %253Fp%253D4. Из-за них гугл видит кучу дублей на сайте.
В разделе консоли в Параметры URL указал, что параметр не влияет на содержание страницы. Так как урл типа best-sales?%3Fp%3D4 это то же самое, что и сайт/best-sales. Может стоит указать, чтобы гугул бот не сканировал Никакие URL с этим параметром? Но в таком случае не вылетит ли из индекса страница best-sales?(

Откуда эта кракозябра в урлах берётся я тоже не знаю(
 
Друзья, если вы используете не шаблон по умолчанию, и у вас установлен модуль Social Sharing из оригинального пакета престашоп, желательно проверить теги Open Graph.

Например:
- в теме Warehouse теги опенграфа присутствуют в "header.tpl"
- в модуле теги прописаны в файле "socialsharing_header.tpl" по адресу "/modules/socialsharing/views/templates/hook"
в итоге на странице продукта получается каша из дублирующихся тегов.

Проще всего проверить здесь — Для просмотра ссылки Войди или Зарегистрируйся
 
Подскажите, в google search console появляются параметры урлов типа %3Fp%3D4 и %253Fp%253D4. Из-за них гугл видит кучу дублей на сайте.
В разделе консоли в Параметры URL указал, что параметр не влияет на содержание страницы. Так как урл типа best-sales?%3Fp%3D4 это то же самое, что и сайт/best-sales. Может стоит указать, чтобы гугул бот не сканировал Никакие URL с этим параметром? Но в таком случае не вылетит ли из индекса страница best-sales?(

Откуда эта кракозябра в урлах берётся я тоже не знаю(
это url-кодированные запросы для страниц пагинации вида "?p=4". похоже, что какой-то модуль (скорее всего, самописный) на твоем сайте не совсем грамотно использует урл-кодирование - применяет функцию urlencode (или аналогичную) не к каждому параметру в адресной строке, а ко всей строке целиком. попробуй указать в robots.txt
Код:
Disallow: /*%3Fp%3D*
Disallow: /*%253Fp%253D*
удаление этих страниц из индекса поисковиков не повлияет на основную страницу.
также, поскольку эти страницы оказались в индексе - скорее всего, у тебя не настроены аттрибуты rel=canonical (иначе подобного не произошло бы). возможно, неверно составлен и robots.txt: зайди в настройки -> seo и url, внизу пункт "генератор файлов robots", нажми "генерировать robots.txt", затем пропиши в этот файлик директивы, указанные мной выше.
 
Назад
Сверху