В результатах поиска на своих зараженных сайтах - понижения позиций не видел, но трафик уходил в 0 из-за предупреждения пользователей. Логично предположить, что такой сайт гугл не может не рассматривать как неправильный. Как и тот сайт, который поставлен в очередь на проверку. Хотя подтверждений этого не замечал.
Судя по всему - это разные роботы. Для того, чтобы зашли быстрее - в GWT есть специальная кнопка "помиловать" :). Изменения вступают в силу быстро. 1-2 дня.
Готово.
Если секрет - не буду его называть, но мне кажется, я там уже имел опыт заказов :).
Я уже пробовал обманывать себя, заказывая КАЧЕСТВЕННЫЕ статьи у многих исполнителей. Результат меня не радует. Пока я остаюсь при мнении, что, например, хорошие статьи по стоматологии может написать либо практикующий стоматолог, либо журналист, взаимодействующий в процессе написания со стоматологами. Такие статьи стоят дорого. Вопрос в том, как такие, уже готовые, статьи по 3-5$ за тысячу знаков переписать таким образом, чтобы их приняли в систему.
В общем, я понял ваш ответ. Попробую сделать без обмана, начистоту :)
Вопрос по пункту:
Написали 10 уникальных статей. Писать больше - нет возможности, а достойных площадок - целых 20 штук. Как минимальными усилиями из этих 10 статей сделать 20 так, чтобы все они прошли модерацию в системе? :) Желательно ответить на конкретном примере.
Так вообще не получится получить беки вашего сайта. Ибо показывает linkanchor.ru сейчас ТОЛЬКО беки, в анкорах которых есть запрос, который вы задали.
Ну как вы не можете понять... Не могут же разработчики не учитывать мнения "обратной связи" на их мыло. Форум не учитывать - могут, а мыло - не могут. 😡
Ещё две недели. Потом - снова "очень скоро" 😂
2 недели, 36 страниц обсуждений...
А все чего-то ждут, на что-то надеятся... :)
Пожелания:
1. Добавить в список площадок определенной категории что-то типа кнопки "вывести все (кол-во 'всех')".
2. Добавить возможность экспорта списка в xls для дальнейшего анализа.
3. Добавить что-то типа избранного с иерархической структурой. Т.е. в каком-то смысле - дубликат каталога, но локальный, рекламодателя.
4. Хорошо было бы получить возможность самостоятельно составлять список параметров площадок, которые я хочу видеть в каталоге и на основе которых буду принимать решение, где покупать размещение. В этом списке должны быть все параметры площадок, а не только URL/тИЦ/PR/DMOZ/YaCa/банк/цена/категория
Глюк:
- в каталоге площадок при клике на "Сортировать по: 'названию'" - исчезает список площадок.
human добавил 02.07.2008 в 12:05
Ещё одно пожелание:
- дать возможность веб-мастеру указывать максимальное кол-во ссылок в статье. Всё-таки 3 - это много для некоторых площадок, а рекламодатели обычно ставят максимум :(.
По сообщениям SEO информ.агентств:
"Странный" апдейт оказался тестом Магадана 2.0
Во как.
DenIT, радуйтесь. Это значит ваш сайт не ставился в очередь на вирус-тесты.
Бывает, говорит и такое:
Тут все проверили свои сайты?
http://www.google.com/safebrowsing/diagnostic?site=http://site.ru/
У 3 моих пациентов с симптомами, аналогичными вышеозвученным, - проблема была в "badware".
Вполне себе вариант...
Каждую ночь ТС - получает актуальные данные по покупке ссылок для 4800 сайтов из SAPE и MainLink (ну типа договорился как-то). Проверяет их на индексацию и формирует базу бэклинков.
Вот только сомневаюсь, что на google.com стоят ссылки в SAPE и MainLink :)
cruzoe, а по поводу расхождения - 5320 и 600 - смотрите сайты, у которых меньше 1000 бэков по Я.Вебмастеру.