|
|
05.08.2010, 19:32
|
|
Гость
Гость
|
Обнаружил для себя неприятную вещь. Netcat создает дубли страниц, пример:
www.site.ru/shop/catalog/?cur_cc=187&curPos=10
и
http://www.site.ru/shop/catalog/
как можно избавиться от них?
мой программист говорит:"есть только идея залезть в исходник browse_messages и переделать вывод самой первой страницы"
|
|
|
06.08.2010, 08:54
|
|
malich
Андрей Малков
Зарегистрирован: 2005-08-09
Сообщений: 522
|
А вы с какой целью интересуетесь?
по мимо вашего варианта неткэт создает еще пару "видов дублей".
|
|
|
06.08.2010, 12:16
|
|
Гость
Гость
|
интересуюсь с целью эти дубли удалить, т.к. за такие вещи поисковики бьют сильна!
|
|
|
06.08.2010, 13:40
|
|
malich
Андрей Малков
Зарегистрирован: 2005-08-09
Сообщений: 522
|
понятно.
подобные темы обсуждались уже не раз.
NetCat создает целый ряд дублей:
- http://site.ru/razdel/razdel та же самая информация доступна по пути http://site.ru/razdel/razdel/ключевое_слово_компонента_в_разделе
- http://site.ru/razdel/razdel/message_XX.html та же самая информация доступна по пути http://site.ru/razdel/razdel/ключевое_слово_записи.html
и т.д.
Но откуда поисковики узнают про эти дубли если у вас на сайте правильно указаны все ссылки? Ведь поисковики индексируют сайт проходясь по ссылкам которые они находят в html коде страниц сайта, конечно если у вас на одной странице ссылка будет одна, а на другой на туже самую страницу другая это приведет к созданию дублей.
Поэтому я тут проблемы не вижу, настраивайте robots.txt, .httacces если в вашем конкретном проекте функционал настроен таким образом, что это приводит к проблемме с поисковиками.
|