Угу. Правда всего 800 ссылок.
И вроде шарится иногда по самому сайту бот индексирующий. Но уже кучу времени в индексе всего одна страница. Сайт висит на дэдике. Дэдик последнее время работает стабильно :)
Ну не факт. Это просто переиграет ситуацию. Я вот к примеру не спамлю по блогам. И тем неменее, умадряюсь выходить по гамблингу. Гугл уберет блоггеров с выдачи - их место займут те, кто спамит другие ресурсы. Просто ситуация поменяется. Были одни - станут другие.
Не думаю, что это сильно почистит выдачу.
Ну а что мешало сделать внешние ссылки через JS? Тогда убиваются сразу все зайцы: и гугл и яха и мсн. Зачем использовать инструмент, который работает только в одном поисковике? Совершенно не понятно.
Я вообще слабо понимаю, как это может отразиться на количестве спама по гостевым.
У меня складывается ощущение, что мало кто будет смотреть на код страницы, а так же на robots.txt и прочие вещи.
Тем более, что пока эта ссылка работает только для гугла. Остается еще яха с мсн.
Так что если спамить софтом (а у меня стойкое впечатление, что основной урон приносят софтовики), то вообще нет никакой разницы. Ну в гугле с этой гостевой/блога толка не будет. Ну так с яхи сливок снимем. Все-таки деньги.
Это может быть несколько упорядочит выдачу и сделает труднее работу спамера. Но это решается простым донабором базы.
Я хостил на www.hostforweb.com на вирутале сайт на PHP + MySQL с 20K хостов.
Перед этим спросил админа - он сказал низзя, но втихоря все-равно залил. И работало пол-года без проблем. Потом перенес на дэдик все-равно. На всякий случай. :)
Тогда не волнуйтесь.
Можно. У меня спамит машина, так что за ночь проставляется примерно 1200 - 1500 ссылок. Наверное, это слишком резкий скачок :)
Мне в письме с Яндекса ответили что сайт забанен за спам гостевых. Именно в такой формулировке.
Первый сайт вообще состоял из одной странцы, где было текста на два абзаца. Если конкретно - то текущие курс доллара-евро и т.п. информация.
Второй сайт был оптимизирован, но аккуратно. Т.е. пара title + H1 + H2 + текст страницы. Никаких скрытых слоев, дорвеев, клоакинга, белым по белому и т.п. штук. Текст ручками писанный. Плотность в пределах 1-3%. Короче, с оптимизацией там все чисто - это точно.
Ну... Это они зря сделали.
Лично меня два раза банил яндекс за "перебор с сылками".
Причем, когда я обратился в addurl, мне об этом и сообщили.
Так что не все коту масленица :)
Ну не факт. У меня как-то был сайтик на Валуе на тарифном плане "А" (это который за 9 баксов) с посещаемостью в 15-20 тыс. хостов. На PHP + MySQL. Сервер это грузило прилично. Они терпели пару месяцев, потом закрыли акк. с комментариями "ну это уже слишком".
Переехал на другой виртуал (проект был в стадии тестирования и еще не ясно было - будет с него денег нормально или нет) - тот жил нормально. MySQL иногда слетал - но это не часто.