- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Вот переработанный универсальный запрос:
Код:
RewriteCond %{THE_REQUEST} \?
RewriteRule (.*) /$1? [L,R=301]
Тестировал и так, и этак - вроде бы без ошибок теперь отрабатывает.
Так попробуй:
:)
XPraptor, так в этом случае будет 404 ответ (страница "r" не существует) - это тоже приемлемо. Дублей-то нет. ;)
Тему кто-нибудь спалит уже, или тыкнет носом где читать.
Для общего развития так сказать, не вреда ради. Заранее спасибо.
iqmaker, её тут уже 100 раз спалили. Достаточно почитать и станет понятно.
Отрицательное влияние появления массы г-ссылок на жертву со стороны недоброжелателей в принципе не доказано и прямых подтверждений данного процесса нет. Как уже неоднократно обсуждалось – они в худшем случае просто не учтутся.
Наличие на сайте дублей – ни есть гуд – это факт, однако не повод к дикой панике. Лучше конечно принять необходимые меры по их устранению.
К примеру: есть сайт точка ру, ему более 3х лет, интернет магазин, sef не был установлен на протяжении всего времени его существования и соответственно url выглядели типа - /index.php?option=com_content&view=category&layout=blog&id=4&Itemid=6&limitstart=10
На сайте было до 10 дублей страниц, в ЯВМ в поиске более 12000 страниц.
4 месяца назад сайт с домена был удален, а на его место залит дубль существующего проиндексированного сайта той же тематики, соответственно url стали выглядеть так - /1002-bosch-nkf-645p14.html, т.е. исключены дубли.
В тот же момент (4 месяца назад) были полностью сняты ссылки на данный сайт и был выполнен перенос сайта на др. хостинг.
При том после переноса не было выполнено корректировок некоторых внутренних ссылок, и они стали выглядеть так - /6-vstraivaemaya-tehnika/266-duhovye-shkafy.html?phpMyAdmin=%2Cmfx%2CcQWEW%2Cvx0rrh8dw3ihdT80
Более того, сайт наполнен информацией о товарах из интернета без какого либо изменения (чистая копия карточек товара) и совершенно не имеет уникальных, да вообще каких либо статей.
Посещаемость, как собственно и позиции сайта остались неизменны, даже чуть подросли.
Вопрос??? Где логика ПС???
По теме ТС – данным способом сайт не свалить, полностью согласен с Cell
Подскажите, как закрыть дубли, если это интернет магазин построенный на GET запросах? Или хотя бы пример. Это вообще возможно?
iqmaker, её тут уже 100 раз спалили. Достаточно почитать и станет понятно.
Я прочитал, но так однозначно и не понял. А хочется именно однозначности, какой способ слива конкурента используется в данном конкретном случае. Из вариантов прозвучавших это :
1. Покупка говноссылок
2. Коррупция
3. Хрумер ( почти то же самое что и 1 )
4. Указание поисковикам ссылок на страницы дубли
5. Покупка adult ссылок с соответствующим анкором, с помощью чего сайт загоняется под фильтр для взрослых
В общем было как-то так, или я что-то пропустил перечитывать не хочется. Более вероятным мне видится 5-ый вариант, а что там было на самом деле автор умалчивает, и однозначности я так и не услышал :))
Сайт woman.ru принадлежит Нике Белоцерковской.
Вот ссылка на ее мужа – http://lobbying.ru/content/persons/id_903_linkid_2.html краткая справка о его состоянии и подтверждение того, что он купил woman.ru в 2007 году.
Блог Ники Белоцерковской - belonika.livejournal.com
XPraptor, так в этом случае будет 404 ответ (страница "r" не существует) - это тоже приемлемо. Дублей-то нет. ;)
Забираю слова обратно: 301 на 404 - тоже очень плохо.
А вот такой вариантик оттестируйте ;) :
---------- Добавлено 20.06.2012 в 21:06 ----------
Подскажите, как закрыть дубли, если это интернет магазин построенный на GET запросах? Или хотя бы пример. Это вообще возможно?
Эх, если бы было всё так просто...
Подскажите, как закрыть дубли, если это интернет магазин построенный на GET запросах? Или хотя бы пример. Это вообще возможно?
типа страница одна но на нее разные ссылки с идентификаторами?
index.php?id1&id2
index.php?id1&id2&id3
например
прописать на пхп если в параметрах гет есть id3 вставлять тег ноиндекс