fagot_seo

fagot_seo
Рейтинг
65
Регистрация
06.05.2011
Должность
Python + SEO
Интересы
aikido
The best thing god has created is a new day
DeL Esprit:
"звери" приходят после индексации. то что они на старте в индексе - ничего не значит.

Ну вот вам живой пример, понаблюдать за процессами. Сайты примерно 3 недели в выдаче.

Во первых давно используем adwords. Во вторых открою вам тайну и сломаю все ваши стереотипы не связи между adwords и organika. Не ищите связи там где ее нет!

По этому поводу на хабре есть статейка, не факт что контекст влияет, но факт что учитывается. http://habrahabr.ru/post/170801/

По поводу затолкать запросы в ТОП 1, есть одна тема, но только в личку.

48ty7ergterg:
Здравствуйте, подскажите, что делать в такой ситуации:

обнаружил 2 сайта (с помощью вебмастер тулс) с полностью спарсеным контентом (слово в слово) с нашего блога включая ссылки на внутренние страницы сайта и разделы.

Ссылки проиндексировались гуглом (около 200), правда они ноуфоллоу.

Вопрос: повлияет ли как-нибудь это негативно на сайт (в частности ворованный контент, хотя Гугл по идее должен сам его идентифицировать)?

И как лучше поступить?

Удалить ссылки через вебмастер, пожаловаться в гугл, хостинг?

Заранее благодарен.

Можете попробовать написать вебмастерам сайтов, которые дублируют ваш контент с просьбой ставить человеческие ссылки и указания первоисточника информации. Типа такого:

"Информация взята с сайта <Имя Бренда>"

Тогда можете даже + получить, как по посещаемости так и в доверии Гугла.

СолдафончеГ:
Сайту 13 месяцев, ссылок штук 100 естественных вида КупиБатутОнлайн.com . Фильтров нет никаких, хотя пару месяцев назад назад был фильтр повторяющегося контента на сайте (теги и категории не совсем правильно отображались) отменили по первому запросу.

Такое может быть по причине пессимизации главной страницы или просто доменного имени.

Чтобы выйти из ситуации покупайте вечные ссылки, которые размещаются одновременно с появлением страницы, на трастовых сайтах с ПР >= 4 + Анкорами делайте название домена без зоны, название домена с зоной, http//домен с зоной. Таких ссылок нужно штук 10-20, но обязательно с трастовых сайтов.

Это ссылки вида

Статья подготовлена редакцией сайта КупиБатутОнлайн

Также распространяйте информацию о своем бренде (домене) в соцсетях: (Твиттер, Фэйсбук, и обязательно Гугл +)

Тогда Гугл будет распознавать вас как бренд и повысит по запросу равному доменному имени. Со временем возможно даже отобразит дополнительные ссылки в выдаче.

Еще обязательный пункт: Перепишите контент перед закупкой ссылок. И только после того как он будет проиндексирован тогда приступайте к закупкам. Гугл любит новый контент + когда ссылки появляются на новый контент - это выглядит естественно.

Параллельно проставляйте безанкорные ссылки и на внутренние страницы сайта.

Лунный Кот:
VeCher, а симпатичные помощницы-хохлушки прилагаются? :)

Будь аккуратнее со словами, товарищь... Мы своих девушек ценим и любим, и в обиду не дадим!

Всем спасибо. Похоже, большинство мнений совпадает с моим - если все страницы оптимизированы и готовы, то открывать их можно все. Так и сделаю.

Может у кого-то есть еще опыт, которым может поделиться?

olympteka:
Мне, кажется, он в любом случае отправил бы большинство однотипных страниц в сопли, оставив какую-то часть в основном. Я смотрел по нескольким сайтам справочным - что у них в соплях что в основном, и моё предположение подтвердилось. Но это в моей тематике.

Спасибо, и правда стоит посмотреть на результаты сайтов-справочников в нашей тематике

Willie:
Насколько я знаю, фильтр за резкий рост числа страниц вроде бы не действует. Хотя никакими официальными данными об его отмене (впрочем, как и о введении) не располагаю.

В любом случае Гугол не просканирует 40 тысяч страниц нового сайта одновременно. Поэтому имеет смысл поступить так:
- открыть штук 100...200 страниц и посмотреть на их судьбу (это займет минимум недели три для нового домена);
- если они массово отправляются в "сопли", то нет смысла искушать судьбу и открывать остальные - лучше их переработать с учетом обнаруженных ошибок;
- потом сделать "контрольный вброс" новых страниц и также отследить их судьбу;
- если все нормально, то можно открывать уже тысячами.

Обоснование: проще не попадать в "сопли", чем вытаскивать страницы оттуда. Поскольку Гугол переиндексирует "сопливые" страницы гораздо медленнее, чем нормальные.

В том то и прикол, что Гугл нашел и просканировал ЗАКРЫТЫЕ в robots.txt страницы, и отправил их в сопли с пометкой "закрыто в роботс"

serjoo:
А вы хотели напарсить и все чтобы в индексе было? :)

Парсинг парсингу рознь...

serjoo:
зачем похожие делать?

Это не суть, людям удобно будет.

Подскажите лучше как открыть к индексации сразу все или частями?

Нет, контент там для людей. Просто особенность его такая, как ни крути, похож на соседние страницы...

Всего: 178