Помощь Скрыть от индексации пагинацию

ishkval

Профессор
Регистрация
2 Окт 2013
Сообщения
119
Реакции
41
Здравствуйте, на страницы категории (пагинации) нужно сделать после тега head такой вывод:

а) На первой странице пагинации (по адресу корня разделе /) :
HTML:
<meta name="robots" content="index, follow"/>
<link rel="canonical" href="http://адрес раздела или подраздела"/>
<rel="next" href="http://страница №2"/>
(указатель на то, что есть постраничка и куда идти дальше)
б) На второй странице пагинации:
HTML:
<meta name="robots" content="noindex, follow"/> (не индексируем контент, но полностью индексируем ссылки)
<link rel="canonical" href="http://адрес страницы №2"/>
<rel="next" href="http://страница №3"/>
<rel="prev" href="http://адрес корня раздела или подраздела"/>
в) На третьей и последующих страницах пагинации (N) :
HTML:
<meta name="robots" content="noindex, follow"/>
<link rel="canonical" href="http://адрес страницы N"/>
<rel="next" href="http://страница N+1"/>
<rel="prev" href="http://страница N-1"/>
г) Последняя страница пагинации:
HTML:
<meta name="robots" content="noindex, follow"/>
<link rel="canonical" href="http://адрес последней страницы"/>
<rel="prev" href="http://предыдущая страница пагинации"/>
-----
Страницы пагинации имеют вид:
Главная: Для просмотра ссылки Войди или Зарегистрируйся
И вторая ссылка главной: Для просмотра ссылки Войди или Зарегистрируйся (чтобы указывала на Для просмотра ссылки Войди или Зарегистрируйся)
---
Вторая страница: Для просмотра ссылки Войди или Зарегистрируйся
Третья страница: Для просмотра ссылки Войди или Зарегистрируйся
и т.д.
--
Спасибо за внимание!
 
Последнее редактирование:
Пропишите в robots.txt - эту строку для каждого робота, которому написана инструкция:

Disallow: /*?page=*

По идее это должно решить задачу.
 
Пропишите в robots.txt - эту строку для каждого робота, которому написана инструкция:

Disallow: /*?page=*

По идее это должно решить задачу.
Олег, спасибо, но нужно не через роботс сделать а именно через страницу решение.
 
Олег, спасибо, но нужно не через роботс сделать а именно через страницу решение.
А в чём разница? Просто ковырять движок и получить тот же результат, а впоследствии ещё столкнуться с проблемами при обновлении движка! Оно Вам надо?
 
А в чём разница? Просто ковырять движок и получить тот же результат, а впоследствии ещё столкнуться с проблемами при обновлении движка! Оно Вам надо?
Да надо, есть на то свои причины. Нужна индексация ссылок без контента, просто скажу - СЕО.
 
Нужна индексация ссылок без контента, просто скажу - СЕО.
Тогда, да. Лучше конечно написать свой модуль или переписать один из существующих SEO-моделей (vqmod) под Ваши потребности. Вносить напрямую изменения в движок я бы рекомендовал.
 
Назад
Сверху