ORIC

Рейтинг
68
Регистрация
18.07.2005

[off top]...

Вот есть ассоциация Прямых Продаж, есть ассоциация стоматологов, теперь - ассоциация поисковых систем.

А что мешает оптимизаторам ассоциацию создать? И лоббировать интересы оптимизаторов и владельцев сайтов, в Думу выдвинуться?

Если подойти с этой точки зрения, то интересы оптимизаторов и интересы поисковиков очень сильно сблизяться, и всем сразу станет ясно - где черное а где белое...

У тебя сказано:

по истечении 30 дней, за пользование услугами SEO Recorder будет взыматься символическая плата 1 WMZ

Вряд ли забанят, но доступ с твоего сервера к серверу яндекса закроют наверняка, т.к. нарушаешь условия Яндекс.XML, т.е. просто не сможешь графики строить - будут тебе 403 код выдавать или еще чего-нить

хттп://help.yandex.ru/xml/price.xml?id=930363

Яндекс позволяет бесплатно делать до 1000 XML-запросов в сутки для личного некоммерческого использования. Для задания большего количества запросов в сутки или коммерческого применения предусмотрено платное использование.

Прийдется с Яндексом делиться плодами своего труда :) - от 25 до 300 р за каждую 1000 запросов

saidnavy:
Ссылка через редирект ничего кроме посетителя не даст.
Ссылка прямая без анкора (ключевое слово) даст тИЦ и PR
Ссылка прямая с анкором (ключевое слово) даст и тИЦ и PR и на ссылочное по данному запросу повлияет.

Спасибо! Все понял, обвел в рамочку и повесил на стенку.

XBons:
Мне казалось мы говорим о внешних ссылкаx, тогда каким образом тут внешние ссылки дают посетителей, тИЦ, PR?

XBons, я имел ввиду внешние ссылки, а вы, наверное исходящие? ;) - но тоже спасибо!

Я правильно понял - на позицию сайта по каким-либо запросам такие внешние ссылки никак не повлияют, а вот продать ссылку с моего сайта будет легче?

файл robots.txt не повышает позиций сайта в поиске. Он нужен лишь для того, чтобы разрешить или запретить индексацию отдельных частей или сайта в целом для определенных (или всех) поисковых машин.

Подробнее можете прочитать например здесь: хттп://www.rambler.ru/doc/robots.shtml

Создать его можно в любом текстовом редакторе, например в Блокноте. Затем назвать robots.txt и залить в корневую директорию сайта

а мета тег с параметрами index,follow означает разрешить роботу индексировать страницу и переходить далее по ссылкам. Подробности - там же

Все, замочил паразита :)

в 13:55 - бот последний раз зашел, 5 разочков башкой об 403 ответ постучался и канул

Если сильно достает, можно в .htaccess прописать

Deny From 85.21.193.107

(это ip их паука crawl-ru-85-21-193-107.webaltabot.com)

Лично я так сделал, т.к. считаю что дважды в день полностью обходить мой сайт - хамство, или другими словами - паразитная нагрузка на сервер.

А до роботс.тхт ему похоже действительно побоку - зашел, прочитал - и пошел дальше с новой силой.

Если им надо потренироваться- пусть делают свои сайты и на них тренируются.

А еще есть смысл, когда например латинское название допускает два-три русских написания (микрософт, майкрософт, мелкософт, к примеру ;) )

Вчера (15 апреля) Вебальта указывала проиндексировано - 0 документов. Зато 2 недели робот ходит на сайт каждый день и жрет документы пока не лопнет - у меня всего 8 Мб информации на сайте, а он по логам умудрился уже 34 Мб слопать. Получается что он ходит по кругу??? У меня есть предположение, что он иногда создает проблемы для других пользователей в моменты "приема пищи" ...

Да,согласен, но я акцент хотел сделать не на слове морда, а на слове всегда:

При смене главного хоста морда (и сайт) всегда вылетает

Так ли это? - есть ли примеры смены главного хоста и чтобы ничего не выпадало?

Всего: 115