[off top]...
Вот есть ассоциация Прямых Продаж, есть ассоциация стоматологов, теперь - ассоциация поисковых систем.
А что мешает оптимизаторам ассоциацию создать? И лоббировать интересы оптимизаторов и владельцев сайтов, в Думу выдвинуться?
Если подойти с этой точки зрения, то интересы оптимизаторов и интересы поисковиков очень сильно сблизяться, и всем сразу станет ясно - где черное а где белое...
У тебя сказано:
по истечении 30 дней, за пользование услугами SEO Recorder будет взыматься символическая плата 1 WMZ
Вряд ли забанят, но доступ с твоего сервера к серверу яндекса закроют наверняка, т.к. нарушаешь условия Яндекс.XML, т.е. просто не сможешь графики строить - будут тебе 403 код выдавать или еще чего-нить
хттп://help.yandex.ru/xml/price.xml?id=930363
Яндекс позволяет бесплатно делать до 1000 XML-запросов в сутки для личного некоммерческого использования. Для задания большего количества запросов в сутки или коммерческого применения предусмотрено платное использование.
Прийдется с Яндексом делиться плодами своего труда :) - от 25 до 300 р за каждую 1000 запросов
Спасибо! Все понял, обвел в рамочку и повесил на стенку.
XBons, я имел ввиду внешние ссылки, а вы, наверное исходящие? ;) - но тоже спасибо!
Я правильно понял - на позицию сайта по каким-либо запросам такие внешние ссылки никак не повлияют, а вот продать ссылку с моего сайта будет легче?
файл robots.txt не повышает позиций сайта в поиске. Он нужен лишь для того, чтобы разрешить или запретить индексацию отдельных частей или сайта в целом для определенных (или всех) поисковых машин.
Подробнее можете прочитать например здесь: хттп://www.rambler.ru/doc/robots.shtml
Создать его можно в любом текстовом редакторе, например в Блокноте. Затем назвать robots.txt и залить в корневую директорию сайта
а мета тег с параметрами index,follow означает разрешить роботу индексировать страницу и переходить далее по ссылкам. Подробности - там же
Все, замочил паразита :)
в 13:55 - бот последний раз зашел, 5 разочков башкой об 403 ответ постучался и канул
Если сильно достает, можно в .htaccess прописать
Deny From 85.21.193.107
(это ip их паука crawl-ru-85-21-193-107.webaltabot.com)
Лично я так сделал, т.к. считаю что дважды в день полностью обходить мой сайт - хамство, или другими словами - паразитная нагрузка на сервер.
А до роботс.тхт ему похоже действительно побоку - зашел, прочитал - и пошел дальше с новой силой.
Если им надо потренироваться- пусть делают свои сайты и на них тренируются.
А еще есть смысл, когда например латинское название допускает два-три русских написания (микрософт, майкрософт, мелкософт, к примеру ;) )
Вчера (15 апреля) Вебальта указывала проиндексировано - 0 документов. Зато 2 недели робот ходит на сайт каждый день и жрет документы пока не лопнет - у меня всего 8 Мб информации на сайте, а он по логам умудрился уже 34 Мб слопать. Получается что он ходит по кругу??? У меня есть предположение, что он иногда создает проблемы для других пользователей в моменты "приема пищи" ...
Да,согласен, но я акцент хотел сделать не на слове морда, а на слове всегда:
При смене главного хоста морда (и сайт) всегда вылетает
Так ли это? - есть ли примеры смены главного хоста и чтобы ничего не выпадало?