human

human
Рейтинг
78
Регистрация
05.02.2004
Должность
главный
_aleksey_:
не совсем понял.. если выдает:
Of the 1 pages we tested on the site over the past 90 days, 0 page(s) resulted in malicious software being downloaded and installed without user consent. The last time Google visited this site was on 07/04/2008, and suspicious content was never found on this site within the past 90 days.
Это о чем говорит? на сколько я понимаю если такое пишет то все ок, ведь так? или я ошибаюсь?
Leon:
Вот-Вот. У меня та же дата "последняя", а в аккаунте стоит последняя дата захода робота 27/06/2008. Так какова же дата захода робота и сколько ждать обновления информации по троянам? Я из-за этого весь форум с сайта удалил.

В результатах поиска на своих зараженных сайтах - понижения позиций не видел, но трафик уходил в 0 из-за предупреждения пользователей. Логично предположить, что такой сайт гугл не может не рассматривать как неправильный. Как и тот сайт, который поставлен в очередь на проверку. Хотя подтверждений этого не замечал.

Судя по всему - это разные роботы. Для того, чтобы зашли быстрее - в GWT есть специальная кнопка "помиловать" :). Изменения вступают в силу быстро. 1-2 дня.

MiRaj:
human, спасибо за рекомендации, нужно обсудить. Вы могли бы продублировать на support@miralinks.ru чтобы уточнить некоторые моменты?

Готово.

MiRaj:
В ближайшее время мы предложим возможность заказать написание статьи у одного из наших партнеров. У какого? пока секрет :)

Если секрет - не буду его называть, но мне кажется, я там уже имел опыт заказов :).

MiRaj:
Как вариант - вы можете попробовать обмануть себя, систему, модераторов и вебмастеров, попытавшись очень сильно переписать статьи. Но не факт, что у вас получится :)

Я уже пробовал обманывать себя, заказывая КАЧЕСТВЕННЫЕ статьи у многих исполнителей. Результат меня не радует. Пока я остаюсь при мнении, что, например, хорошие статьи по стоматологии может написать либо практикующий стоматолог, либо журналист, взаимодействующий в процессе написания со стоматологами. Такие статьи стоят дорого. Вопрос в том, как такие, уже готовые, статьи по 3-5$ за тысячу знаков переписать таким образом, чтобы их приняли в систему.

В общем, я понял ваш ответ. Попробую сделать без обмана, начистоту :)

Вопрос по пункту:

a. принимаются только уникальные, качественные тематические статьи. Мы принимаем меры по отслеживанию неуникальных, переписанных («рерайтингом») статей и статей, не предназначенных для чтения пользователями.

Написали 10 уникальных статей. Писать больше - нет возможности, а достойных площадок - целых 20 штук. Как минимальными усилиями из этих 10 статей сделать 20 так, чтобы все они прошли модерацию в системе? :) Желательно ответить на конкретном примере.

nickolas:
задайте такой запрос при котором только ваш сайт будет в результатах. например по четкому совпадению титла. и получите беки по идее по конкретному сайту.

Так вообще не получится получить беки вашего сайта. Ибо показывает linkanchor.ru сейчас ТОЛЬКО беки, в анкорах которых есть запрос, который вы задали.

Olegator555:
Какие к черту письма, какая стоимость продвижения, тут уже в топике все просят сделать по url, что и изначально предполагалось, чтобы проверить реальность работы.

Ну как вы не можете понять... Не могут же разработчики не учитывать мнения "обратной связи" на их мыло. Форум не учитывать - могут, а мыло - не могут. 😡

Olegator555:
Очень скоро это сколько?

Ещё две недели. Потом - снова "очень скоро" 😂

Jamming:
Надеюсь что все это временные глюки и в дальнейшем система действительно станет интсрументом анализа, а не отьема денег.

2 недели, 36 страниц обсуждений...

А все чего-то ждут, на что-то надеятся... :)

Пожелания:

1. Добавить в список площадок определенной категории что-то типа кнопки "вывести все (кол-во 'всех')".

2. Добавить возможность экспорта списка в xls для дальнейшего анализа.

3. Добавить что-то типа избранного с иерархической структурой. Т.е. в каком-то смысле - дубликат каталога, но локальный, рекламодателя.

4. Хорошо было бы получить возможность самостоятельно составлять список параметров площадок, которые я хочу видеть в каталоге и на основе которых буду принимать решение, где покупать размещение. В этом списке должны быть все параметры площадок, а не только URL/тИЦ/PR/DMOZ/YaCa/банк/цена/категория

Глюк:

- в каталоге площадок при клике на "Сортировать по: 'названию'" - исчезает список площадок.

human добавил 02.07.2008 в 12:05

Ещё одно пожелание:

- дать возможность веб-мастеру указывать максимальное кол-во ссылок в статье. Всё-таки 3 - это много для некоторых площадок, а рекламодатели обычно ставят максимум :(.

По сообщениям SEO информ.агентств:

"Странный" апдейт оказался тестом Магадана 2.0

Во как.

DenIT, радуйтесь. Это значит ваш сайт не ставился в очередь на вирус-тесты.

Бывает, говорит и такое:

Of the 3 pages we tested on the site over the past 90 days, 0 page(s) resulted in malicious software being downloaded and installed without user consent. The last time Google visited this site was on 06/22/2008, and suspicious content was never found on this site within the past 90 days.

Тут все проверили свои сайты?

http://www.google.com/safebrowsing/diagnostic?site=http://site.ru/

У 3 моих пациентов с симптомами, аналогичными вышеозвученным, - проблема была в "badware".

cruzoe:
Вот то, что вижу я:
линканкор: ссылок 600;
я.вебмастер: 5320;
То есть не очень как-то соответствует. Зато это Очень сильно коррелирует (процентов на 95) с тем, что у меня по этим проектам в сапе и в мейнлинке...

Вполне себе вариант...

Каждую ночь ТС - получает актуальные данные по покупке ссылок для 4800 сайтов из SAPE и MainLink (ну типа договорился как-то). Проверяет их на индексацию и формирует базу бэклинков.

Вот только сомневаюсь, что на google.com стоят ссылки в SAPE и MainLink :)

cruzoe, а по поводу расхождения - 5320 и 600 - смотрите сайты, у которых меньше 1000 бэков по Я.Вебмастеру.

Всего: 846