Kass

Рейтинг
116
Регистрация
09.02.2006
Должность
SEO english

заказывал, все сделано в оговоренное время. Обратился еще раз.

да толку сщас от это аддурилки как от козла молока.

D бот придет и тишина....

хе хе , статьи статьи :) Сколько бабла на них слили?

Ссылки под агсом дали на 7 доменах +10, расходы копье. Нормалек :)

Nijaz:

бэков на сайт минимум
нашел его в каталогах!
делаем вывод:
1. снимаем ссылки
2. включаем говнотекст с переспамом
3. прогоняем по каталогам
здравствуй 2007 год!

Конечно, по запросу с конкуренцией в 660к можно судить о работе алгоритма :))

что за мода хоронить сапу при это ссылаясь на гугль, типа он ссылки не любит :))

Люди в супер конкурентным тематикам типа фармы в буржуйнете только ссылками и выводят , а мы все ждем что ссылочное умрет. Да не умрет оно, потому как если рассчитывать на внутреннюю оптимизацию и возраст(траст) домена весь топ будет забит динозаврами 99 года выпуска и дорами на этих доменах.

Ссылки рулят, а это эксперименты все простыни не простыни, у кого больше ссылок тот и на коне имхо.

Просто в России наверное сложнее закрыть домен, чем человека. Так что не факт что дело будет жить на другом домене долго. Особенно если сщас по зомбоящику покажут в новостях мол вот боремся, закрыли , проблему устранили.

madwat:

И много потоков можно сделать, нужны только разные ip и акаунты в гугле.

ээээ, сайт можно прописать на один аккаунт, и соостветственно о какой многопоточноти может идти речь ?

Ippi:

Так что хотя бы ради науки пропишите в htaccess части ваших страниц Redirect gone или Rewrite по маске (убедитесь чем-нибудь, что стало возвращаться 410). Блокировку в robots.txt, само собой, надо будет убрать.

Вот спасибо, грамотный совет

Ippi:
Не совсем понятно написано, некие страницы одновременно закрыты и в robots.txt, и содержат noindex?

ага, именно так.

Давайте вместе попробуем пробить: мне порядка 10 тысяч страниц надо из Гугла поудалять, а сам он будет прочухиваться месяца три.

скинь в личку контакт придумаем что нить.

Да как бы ничего там сложного нет, написать робота который залогиненый в вебмастер тулз будет форму забивать на кнопку жать. Проблема в другом :) составить теперь лист URLов для удаления в 300к. Хотелось же как то оптимизировать процесс.

Всего: 676