Realtim

Рейтинг
114
Регистрация
25.07.2009
exp131:
Сейчас для ограничения зоны сканирования используйте исключения ("Настройки" -> "Опции").

у меня роботсом закрыто более 1000 страниц - это все дубли. Добавлять вручную это все очень нудно, да и найти каждый адрес нужно (в роботс необязательно ведь каждый урл прописывать отдельно).

exp131:
Да, алгоритм парсинга robots.txt имеет ряд недороботок, и понимат только инструкции disallow: без символов * и $. Его почти полная переделка намечена на вторую версию программы.

скажите как скоро она появится. Хотелось бы чтобы программа понимала роботс так же как это делают поисковики, в частности яндекс и гугл. Хотелось бы чтобы прога понимала не только disallow, но еще и Allow и символы * и $ А также последовательность - сначала Allow, а потом disallow или наоборот. И чтобы можно было выбрать юзер-агента - для кого проверяем это все для яндекса или для другого каго-то. На некоторых сайтах нужно писать разные правила индексации для разных поисковиков.

задавал вопрос Sterh-у, он сказал что прогой уже не занимается и лучше писать в топике. Что тут ей занимается некий exp131

Вот мой вопрос

достаточно давно уже пользуюсь вашей прогой для определения весов стр.

такой вопрос: когда при запуске ставишь испльзувать роботс, то какой юзер-агент использует программа? вот у меня отдельно в роботс правила для яндекса и для всех остальных поисковиков.и теперь посмотел на анализ своего сайта этого - видно что роботс не учтен - много страниц, которые запрещены к индексации.

на какие директивы в роботс вообще реагирует программа?
Allow:
Disallow:
символы * и $ так, как они учитываются яндексом.

-на всё это программа нормально реагирую и понимает это все?

проблема явно в чем-то есть...
Вопрос: Вопрос по прогнозу переходов. Вы прогнозируете все переходы, или только из Яндекса?
Ответ: Мы прогнозируем Все переходы. Можем показывать откуда сколько по yandex, google, rambler, mail, другие (если это необходимо).

получается что если я продвигаю только под яндекс, то у меня количество переходова будет ниже прогноза, а в некоторых случаях/тематиках намного ниже может получится. Ясно, что это только прогноз, а не точная цифра, но все же.

Вопрос: А каким образом Вы считаете CTR ?
Ответ: CTR считаем для всех тем по одной схеме (я понимаю, что это некорректно). Собрали открытые акки статистики в LI (много тысяч), снимали ститистику переходов + позицию в поиске по словам. Вычислили средний CTR для каждой позиции, усреднили для ТОП5, его и показываем.

почему для топ 5 только? опять ведь погрешность получится...

вопрос по прогнозу трафика на сайт. этот прогноз делается если бы запрос попал в топ 10 яндекса, или плюс еще и в топ других пс? и учитывается ли при расчете СTR выдачи?

Минск, Беларусь

Так что ппц проверке индексации страниц, готовьтесь

тогда много чему ппц настанет, тем же агрегаторам ссылок. как-то не верится в такой шаг яндекса...

природа лучше конечно! какая пиццерия, да еще в центре! на улице лето уже.

не читао топик весь и вообще недавно узнал про это, в больнице лежал пару недель.

Скажите, а если у меня на сайте есть несколько версий языков. Они все на основном домене. Будет ли мой сайтискаться в буржуйской версии яндекса по англоязычным запросам?

Dubovoj:
Скажем для меня вне конкуренции генератор у рук. Нравится еще и что он берет текст с самого моего сайта.

и при этом разворовывает уникальный текст с сайта. Если этот текст идет в околоссылочное, а не в саму ссылку то что тут хорошего!

viКing:
там вообще то речь идет пока только о белорусском хостинге, данные на кого зарегистрирован домен BY у них и так есть

ааа, так нужно регистрировать только те сайты, что на бел. хостинге? Ну так хостингов же полно, не обязательно в Белорусии размещать свой сайт. Хотя скоро и это могут обязать.

А если сайт на by-домене, но висит на забугорном хостинге? Тогда не нужно ничего делать?

Всего: 509