Регистрация
Вход через соцсети
Восстановление пароля

Дубли страниц

Новый топик
05.08.2010, 19:32
Ответить | Цитировать
Гость
Гость

Обнаружил для себя неприятную вещь. Netcat создает дубли страниц, пример:
www.site.ru/shop/catalog/?cur_cc=187&curPos=10
и
http://www.site.ru/shop/catalog/

как можно избавиться от них?

мой программист говорит:"есть только идея залезть в исходник browse_messages и переделать вывод самой первой страницы"
06.08.2010, 08:54
Ответить | Цитировать
malich
Андрей Малков

Зарегистрирован:
2005-08-09
Сообщений: 522

А вы с какой целью интересуетесь?
по мимо вашего варианта неткэт создает еще пару "видов дублей".
06.08.2010, 12:16
Ответить | Цитировать
Гость
Гость

интересуюсь с целью эти дубли удалить, т.к. за такие вещи поисковики бьют сильна!
06.08.2010, 13:40
Ответить | Цитировать
malich
Андрей Малков

Зарегистрирован:
2005-08-09
Сообщений: 522

понятно.
подобные темы обсуждались уже не раз.
NetCat создает целый ряд дублей:
- http://site.ru/razdel/razdel та же самая информация доступна по пути http://site.ru/razdel/razdel/ключевое_слово_компонента_в_разделе

- http://site.ru/razdel/razdel/message_XX.html та же самая информация доступна по пути http://site.ru/razdel/razdel/ключевое_слово_записи.html

и т.д.

Но откуда поисковики узнают про эти дубли если у вас на сайте правильно указаны все ссылки? Ведь поисковики индексируют сайт проходясь по ссылкам которые они находят в html коде страниц сайта, конечно если у вас на одной странице ссылка будет одна, а на другой на туже самую страницу другая это приведет к созданию дублей.

Поэтому я тут проблемы не вижу, настраивайте robots.txt, .httacces если в вашем конкретном проекте функционал настроен таким образом, что это приводит к проблемме с поисковиками.
198 196 2010-08-06 13:40:09 10629
Описание проекта