Должно быть точным вхождением, а не в любом морфологическом изменении.
не обязательно, главное, что бы тематики совпадали ну и анкор с точным вхождением под который продвигается.
8 сек. загрузка! Не есть хорошо. ТС, я думал роботс настраивается параллельно, а то как получается - сайт не готов но дубли есть, сайт не готов, но роботс делать не надо?
Это фото уже наполнило свою нишу в интернете :)
mr_banochka, тексты текстами, а ключи потом самому вставлять или при запросе поиска водить, что бы отрерайченый текст был с ключами? Тогда если для робота вводить этот параметр, может потеряться логика самого текста, так как найденный текст может быть похож под этот ключ, но не соответствовать ему. Все равно придется его перечитывать и исправлять, а в многих случаях (из набора слов) просто делать пересказ.
Скрины миллионных доходов в студию! А то аппетиты разыгрались, слюни текут от одних разговоров. :)
Из песни слов не выкинуть, так же и не добавить! Разбавив четверостишием вы уникальность не поднимите, только все из поганите. И вообще, покажи пример, давай будем петь новые песни вместе.
Не понятно, это вот что за цифры? Какие то прям небесные цены.
выдает вот такое:
1-14
User-agent: Yandex
Disallow: /cgi-bin
...
Host: www.мойсайт. ru
47-47
Sitemap: http://мойсайт. ru/sitemap.xml
вот и все.
В принципе на устранение дублей дается время. Если их не заметить, то конечно будут санкции. Если сайт хороший и у него уник контент то можно пробовать выводить.
И вообще, с какой это стати должны отменять этот фильтр?