http://s50.radikal.ru/i129/1007/1c/0139818cc020.jpg
Правильно модератор сказал: использовались приёмы, рассчитанные не на чтение людьми, а на поисковых роботов
Гугл аналитик не катит....нам же яндекс надо))))
onikys добавил 30.07.2010 в 01:52
Это печально:(
если еще 4-5 человека скажут тоже,тогда тему можно закрывать
А какая разница,на одном акке или на разных?
Вы на них заходите через прокси? Если да то через бесплатные или через высоко-анонимные?
Ну 12 сайтов это мало.
Например 50-100 сайтов.На одном акке.
Есть СДЛ и есть ГС.
Хочется предугадать дату нового апдейта)
получается что яндекс определяет сайт по движку?
Если был dle то ко мне б, не ходил блогбот?
P.s. последнее обновление было 25.08?
Доказать что это его контент будет сложно,если в нем нет никаких упоминаний автора или сайта.
Если есть и не мучает совесть,можно "убрать следы":)
В общем забей:)
Я закрыл директорию,но проблема в том что бот robots.txt не читает.Он его читал один раз когда тока появился сайт,а час уже туда не заходит.
как понять какой бот?
Вот это они вас сливают))
Я просто заметил,что один сайт с 200 раз упоминаниями проиндексировался быстрее чем тот что с 750, по качеству сайты одинаковые