О.Б.К.

О.Б.К.
Рейтинг
47
Регистрация
09.09.2009

заметил такой момент, не могу собрать позиции по сайту(интернет-магазину) после того, как импортировал сниппеты с ЯМ. У меня идея, что только из-за новых сниппетов KC перестал снимать позиции и точки входа...

kolchakA:
Какой именно функционал вас интересует?

1. Выгрузка товаров, привязанных в карточкам

2. Установка бидов для всех товаров

3. Выкуп топ1 на карточке модели для определенного списка товаров.

Если указываю фильтр для ключей, то учитывается ли регистр символов, или же можно все условия задавать нижним регистром?

Столкнулся с проблемой:

Чекал проект на рел.страницы+позиции, на 3500+ запросе, софт пишет:

"возникла ошибка при работе с Yandex.XML: Внутренняя ошибка. support@xml.yandex.ru

22.06.2011 13:43:33: Yandex.XML: return null (stopFlag = true)

22.06.2011 13:43:33: при съеме позиций Yandex через XML была получена нулевая ссылка. Процесс остановлен

22.06.2011 13:43:33: парсинг позиций по Яндексу закончен"

Загружаю другой проект, все работает, позиции снимаются. У меня одна идея - блок по url проекта..., такое возможно? было у кого?

Из пожеланий - сделайте пжл возможность включить звуковой эффект, при определенных условиях:

1. Процесс чекинга закончен

2. остановлен

и т.п. условия. Сейчас не совсем удобно, т.к. софт висит в трее, пока не проверишь, не узнаешь, какая стадия работы...

Извиняюсь за офтоп, но, думаю Вы знаете как снять ограничение на количество XML, если у меня есть сайт в РСЯ...

Ссылка, которую дает яндекс ведет на страницу с "Мои площадки"...

Что делать далее не понятно.

Вопрос решен. Спасибо!

Софт пишет, что при работе с xml.yandex используется 1 поток...почему?

Если есть приватные прокси, зареганные в xml.yandex с подтвержденными тел номерами?

Уже написал ТЗ на разработку подобного, но с 1/10 функционала, накнулся на sitecontrol, поставил. То что нужно!

burunduk:
вообще-то роботс - это рекомендательный формат по определению, пс достаточно часто его игнорируют ;)

так что прятать что-то через роботс не стоит :)

Если ПС в факе пишут рекомендации по роботс для закрытия не нужных страниц, то случаях игнора все решается по запросу в саппорт

Мб есть какие идеи, как спрятать ссылочное?) Если можно в личку)

burunduk:
серьёзно не понимаю

вы думаете нет других способов просканировать сайт?

Приватные решения думаю есть... большинство паблик софта работает с yahoo, solomono, seomoz и всякими псевдопоисковиками. (Владельцам сеток посвящается))

Solomono:
скиньте, пожалуйста, в личку (или на support@solomono.ru) домен(ы), который нужно удалить-исключить из индекса и отчетов. затем только нужно будет подтвердить факт владения доменами.

обработка robots.txt пока не сделана, есть недоработка, и вину тут нельзя не признать. со следующего цикла будет включена обработка robots.txt, более того - след. цикл парсинга без этого не начнется.

Хочу обратить ваше внимание, что будут исключены только данные по исходящим ссылкам доменов, зеркалам, IP, т.е. те данные, которые были взяты непосредственно с ваших доменов.

Я дождусь поддержки robots.txt Вашим сервисом...

burunduk:
О.Б.К., а чего вы так боитесь? :)

Вы прекрасно понимаете к чему я клоню) верно? Вопрос к ТС остался.

Всего: 99