Chelsea

Chelsea
Рейтинг
99
Регистрация
30.01.2013
Интересы
SEO

Еще надо добавить в роботс:

Disallow: /page/*

Disallow: */page/*

Сегодня нашел инфу что гугл практически не обращает внимание на файл robots.txt и закидывает в так называемый "второстепенный" индекс все страницы. То есть роботс проблемы дублей не решает..

Что бы окончательно решить вопрос говорят надо еще в head страниц дополнительно вставлять конструкцию <meta name="robots" content="noindex, nofollow">

Volnorez:
А может и так
Disallow: */tags/

а какая разница?

Нашел, похоже дубли возникают из-за тегов, но я же закрыл индексирование их в роботс..

или надо еще так:

Disallow: /tag/* ?

Вообщем спасибо за советы! теперь хоть знаю в какую сторону смотреть

IgorGolyga:
robots.txt есть? если есть то убедитесь, что он правильно составлен

Файл роботс составил вот такой:

User-agent: *

Disallow: /cgi-bin

Disallow: /wp-admin

Disallow: /wp-includes

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /trackback

Disallow: */trackback

Disallow: */*/trackback

Disallow: /feed/

Disallow: */*/feed/*/

Disallow: */feed

Disallow: /*?*

Disallow: /?s=

Disallow: /tag

Disallow: /category

Disallow: /archives/tag/

Disallow: /2013/*

User-agent: Yandex

Disallow: /cgi-bin

Disallow: /wp-admin

Disallow: /wp-includes

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /trackback

Disallow: */trackback

Disallow: */*/trackback

Disallow: /feed/

Disallow: */*/feed/*/

Disallow: */feed

Disallow: /*?*

Disallow: /?s=

Disallow: /tag

Disallow: /category

Disallow: /archives/tag/

Disallow: /2013/*

Host: www.site.com

---------- Добавлено 31.07.2013 в 16:41 ----------

hellfish:
Посмотрите командой site:мойсайт.ру что он там индексирует и от результата примите необходимые действия.

Посмотрел как вы написали, вот что вышло:

"Мы скрыли некоторые результаты, которые очень похожи на уже представленные выше (46).

Показать скрытые результаты." - То есть 46 из 77 страниц гугл показывает, остальные имеют в сниппете вот такой текст:

"Описание веб-страницы недоступно из-за ограничений в файле robots.txt."

SEOKinG:
какие ссылки были на сайте?
что делали, что появились новые чпу?
какая структура новых чпу сейчас?

вообще редирект должен быть автоматический со старых на новые...

Привет! Я поменял в админке Вордпреса (Параметры -Постоянные ссылки) формат отображения урл записи. Раньше было "Месяц и название"(/%year%/%monthnum%/%postname%/), теперь - "Произвольно" (%category%%postname%).

Таким образом все записи с старым форматом начали выдавать при открытии с поиска 404 ошибку.

Что делать не знаю, раньше был такой плагин - Deans Permalinks Migration, но он уже не рабочий. Надо альтернативу..

Здравствуйте! Помогите с небольшой проблемой - на сайте были изменены постоянные ссылки в результате чего все посты с старым форматом пермалинков стали отображаться в поиске с ошибкой.. Что делать? )

metricas:

P.S. Все нужно пробывать, от сайта зависит, от % индексации, от быстроты выполнения заказов - факторов много.

Со всего что знаю по Gogetlink так это то что главное эт выбрать правильную тематику и постоянно поднимать Тиц Pr сайта +трафик

Прибыль считал так: 1 ссылка- 80 р. минимум в день (Тиц 20 пр2) *20 дней = 50$

То есть планирую(ну или надеюсь:)) минимально 50$ в мес. Дальше доход по идее должен зависеть от количества заявок..

А какой прогноз от работы в sape? Сайт примерно такой:

Страниц в индексе: 3000

Страниц для размещения ссылок: не больше 1800 (60% от общей сумы в индексе - читал что не надо весь сайт под ссылки отдавать..)

Тиц:10

Схема продажи ссылок: 1-1-1 ..это ж консервативно и уменьшает вероятность АГС?

Всего: 207