Если вы ведете 1н сайт и занимаетесь им 1н день в неделю, то тогда тема АПов не для вас. А переживают в этой теме те люди которые за последние 3-7 дней занимались активной работой по продвижению 2х и более сайтов ну или те кто сидит и молится ничего не делая "О ведикий яндекс повысь мои позиции чтобы я мог позволить себе купить новый мобильник"
Связь есть, только непонятно на сколько сильная - когда у меня на большинстве датацентрах стоит 4ка - я на первой странице, а иногда (как раз 20 го 4 ка пропала) я улетаю на 3ю и 4ю
А вот сегодня 4ку вернули и я занял свои позиции.
Все ясно, просто были подозрения, что наличие (к примеру) за абзацем, в котором есть фраза зеленые валенки, фразы валенки Питерского завода, окажет положительный эфект, в не зависимости от настроек поиска (в пределах предложения/абзаца)
Наврятли, т.к. этот гугловский траф в 2 раза активнее кликал на бегуна =)
Описываю подробнее:
Трафом с гугла никогда не интересовался, т.к. его небыло, но 18 числа увидел что он появился и довольно не плохой, проверил по запросам, которым переходили - они были распределены:
были с первых мест до...
топ 20 - порядка 200 НЧ
топ 30 - порядка 300 НЧ
а теперь ни одного в топ 30 все улетели за >50
(проверял - некотрые докатились до - 100, некотрые вообще исчезли из результатов)
===============добавил====================
перепроверил статистику - оказалось траф с гугла всетаки был - по 100 человек в день, позиции были в 2 раза хуже чем стали 18го. и несколько раз лучше чем после 20го
===================
Еще была особенность бот гугловский с 1го января по 15е сделал запросов к сайту порядка 300000, хотя за весь декабрь было 50000.
Влияет ли такой способ на повышение в серпе сайта А по ключевым словам, а тоесть по тем словам которые входят в первые 400 символов этой новости.
Сначит банить всех кто много страниц кушает :( но все равно все вытащат :((
Ну и ладно - тогда воспользуюсь
написанием грозной угрозы об обязательном размещение ссылок.
Это все не актуально - если кто хочет выкачать материал он напишет скрипт и он просто будет страницы брать и разбирать их хоть по букавке, сейчас читаю о блокироке пользователей если они исчерпывают лимит страниц в еденицу времени - 5 страниц в 5 секунд - как только превысил бан.
========================добавил====================
Вот более экзотический метод - проверяем сколько за последнюю минуту с 1го ИП было запрошено страниц без рефера site.ru если >30 то баним ИП на сутки, если такое повторяется несколько раз баним навсегда, может кто реализует?
Прочитал топик и огорчился :(
Сейчас заканчиваю верстку материала (порядка 50000 страниц) не хотелось бы что бы столько контента поперли и конкуренцию в выдаче навели.
Правильно ли я мыслю - как оградить от воровства (в моем случае) - поставить ограничение с одного IP только 100 документов в сутки (ботов поисковых прописать в исключения) , или нет? и вообще где можно про это почитать? может кто то уже решение придумал?
(смущает что это создаст проблемы для пользователей с одним IP)
Почему это???
PS.
Если это введется, то хоть обращайте внимание на кол-во проиндексированных страниц поисковиками (пример у меня проект на нем 100000 страниц, 90% проиндексированы яшей, 50% гуглей - всех не кидайте под одну гребенку)