16.02.2012, 15:11 | #11 | |
Эксперт
Регистрация: 17.02.2008
Адрес: Донецк, ДНР
Сообщений: 8,880
Вес репутации: 503
|
Цитата:
Еще один вопрос. Как я понимаю, robots.txt лишь дает команду исключить подобные страницы. Возможно ли (может через .htaccess) запретить хостингу выдавать их? |
|
16.02.2012, 15:29 | #12 |
Эксперт
Регистрация: 25.07.2010
Сообщений: 1,389
Вес репутации: 266
|
Нашел для частного случая:
Options +FollowSymLinks RewriteEngine on RewriteCond %{QUERY_STRING} X RewriteRule ^(.*)$ /Y? [R=301,L] где X параметр после знака вопроса, а Y страница, на которую будет происходить перенаправление. Попробовал сделать универсальный, не вышло.. |
16.02.2012, 16:25 | #14 |
Администратор
Регистрация: 05.02.2007
Сообщений: 18,405
Вес репутации: 715
|
SergejF, http://www.htaccess.net.ru/doc/htaccess/order.php
там в конце это страницы - про запрет и намек что про регулярки расскажут. Самое правильно на эти страницы отдать 404. а тег - полезен однака.. следует не полениться.
__________________
Читаем ФАК |
16.02.2012, 17:15 | #15 |
Эксперт
Регистрация: 17.02.2008
Адрес: Донецк, ДНР
Сообщений: 8,880
Вес репутации: 503
|
Спасибо. Теплее. По материалу составил такое выражение:
<FilesMatch "\.(htm\?)$"> Order Deny,Allow Deny from all </FilesMatch> Однако после знака вопроса может идти любое количество любых символов. Но вот регулярку для их обозначения не нашел.:-( |
16.02.2012, 17:23 | #16 | |
не эксперт
Регистрация: 14.06.2008
Адрес: msk
Сообщений: 2,180
Вес репутации: 294
|
Цитата:
Options +FollowSymLinks RewriteEngine on RewriteCond %{HTTP_HOST} ^site.ru RewriteRule (.*) http://www.site.ru/$1 [R=301,L] RewriteCond %{THE_REQUEST} ^[A-Z]{3,9}\ /index\.htm\ HTTP/ RewriteRule ^index\.htm$ http://www.site.ru/ [R=301,L] можно нахер сессии -> отключить session.use_trans_sid по причине вмешательства PHPSESSID в линк при старте сессии php_flag session.use_only_cookies On php_flag session.use_trans_sid Off |
|
17.02.2012, 11:39 | #18 |
Мастер
Регистрация: 13.05.2010
Адрес: Nsk
Сообщений: 776
Вес репутации: 185
|
Последний раз редактировалось Igor V; 17.02.2012 в 11:42. Причина: Добавлено сообщение |
18.02.2012, 12:17 | #19 |
Администратор
Регистрация: 05.02.2007
Сообщений: 18,405
Вес репутации: 715
|
может. Ну так проверять по мере изучения регулярки
wget -S --spider http://XXXXXX.htm?bla-bla Должен ответить 404. Если 200 - не вышло ничего. это если страница - нужна. А задача ТС - избавиться от них и не допустить их в индексе.
__________________
Читаем ФАК |
|
|
Похожие темы | ||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Яндекс: про дубликаты изображений | Красавчег | Общие вопросы оптимизации | 4 | 23.01.2011 10:26 |
Дубликаты уже существующих URL | KuzZzya | Ошибки при работе с системой | 0 | 01.02.2010 10:27 |
Как запретить сайт | Santehnik | Курилка | 2 | 23.08.2009 15:19 |
Дубликаты страниц у хитрых Вебмастеров | lamicard | Пожелания пользователей системы | 3 | 17.02.2008 21:55 |
Сайты дубликаты | Kaskad | Вопросы по работе системы | 4 | 12.10.2007 12:46 |
Часовой пояс GMT +3, время: 03:27.