onikys

onikys
Рейтинг
58
Регистрация
04.07.2010

http://s50.radikal.ru/i129/1007/1c/0139818cc020.jpg

Правильно модератор сказал: использовались приёмы, рассчитанные не на чтение людьми, а на поисковых
роботов

beginerx:
имхо в гугл аналитик лучше пойти - инфы как минимум не меньше и не банит так беспощадно-глупо как яндекс.
и хоть раздел про яндекс- все равно гугл круче и трaфик с него у меня в разы больше! :-)

Гугл аналитик не катит....нам же яндекс надо))))

onikys добавил 30.07.2010 в 01:52

Seoinfinity:
После АГС погромов, предпочитаю на один акк не вешать.
Была небольшая сеточка попавшая под АГС, единственное, что явно объединяло, сидели на одном акке.
Предполагаю с большой долей вероятности, что именно это ее и спалило.

Это печально:(

если еще 4-5 человека скажут тоже,тогда тему можно закрывать

Seomut:
Тоже возникал этот вопрос, но для себя все таки решил добавлять сайты в разные акки, хз, береженого бог бережет :)

А какая разница,на одном акке или на разных?

Вы на них заходите через прокси? Если да то через бесплатные или через высоко-анонимные?

Ну 12 сайтов это мало.

Например 50-100 сайтов.На одном акке.

Есть СДЛ и есть ГС.

Хочется предугадать дату нового апдейта)

получается что яндекс определяет сайт по движку?

Если был dle то ко мне б, не ходил блогбот?

P.s. последнее обновление было 25.08?

Доказать что это его контент будет сложно,если в нем нет никаких упоминаний автора или сайта.

Если есть и не мучает совесть,можно "убрать следы":)

В общем забей:)

Я закрыл директорию,но проблема в том что бот robots.txt не читает.Он его читал один раз когда тока появился сайт,а час уже туда не заходит.

как понять какой бот?

Вот это они вас сливают))

Я просто заметил,что один сайт с 200 раз упоминаниями проиндексировался быстрее чем тот что с 750, по качеству сайты одинаковые

Всего: 212