Написал в личку! когда ждать ответа?
Привет всем форумчанам!
Помогите советом:
Мне надо Продвинуть 100 внутренних страниц. В Xap все просто, залил текстовый файл и привет. Сапа привязывается к урлу - в результате у меня 100 мини-компаний получается, и я должен 100 раз включать автофильтр и все такое...
Кто как работает в подобной ситуации?
кто0нибудь из профиков может дать толковый совет?
спасибо за ответы. но админка сделана так, что мне гораздо проще напихать в тайтлы тег <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW"> - но вроде говорят, что поисковики не очень к нему относятся, когда он на многих страницах натыкан...
кто может про это взвешенно объяснить?
> А если есть возможность убрать ПРОГРАММНО дубли через CMS, то лучше сделать через CMS
Это как? я не понял. чтобы вообще не было дублей? Увы дублей избежать нельзя. Контент сортируется по многим параметрам, и на разных страницах.
> в файле роботс пропишите запрет тех страниц/разделов
я знаю как закрыть папку, но как закрыть тысячи разных страниц с урлами вида mypage.php?variant=1 и при этом оставить страницу mypage.php в индексе?
>то в метатегах в хеде также можно прописать строчку для все роботов, типа : <META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Если я проставлю во всех страницах которые дублируются содержимым такие теги в хеде - это на 100% гарантирует НЕИНДЕКСАЦИЮ таких страниц? Допустим если кто-то поставит внешнюю ссылку? Все равно будет все ок?
А мне вот стремновато отдавать свои пароли к ксапе неизвестно кому. Какие гарантии? Ребята накопят пару тыщ аккаунтов. Сольют все бабули и прости прощай.
> По 2 - можно оставить только проверку индексации в настройках анализа
но тогда все равно запускается новый анализ - и мне надо переключаться между двумя разными анализами? имхо ето неэргономично нифига.
> выставление пауз между запросами нет.
в сеомониторе есть нормальный режим выставления пауз между запросами - отлично работает. Здесь такого нет, как я понял. Про правку yazzle.ini - это документированная фича - почему тогда этого нет в настройках? К тому же по умолчанию там стоит интервал 10000-12000 - вы уверены что это 10-12 секунд между запросами? Я вот вовсе нет.
Купил программу и сразу два серьезных вопроса:
1. Как проверить индекс?
Индекс в ЯШе не проверить чтоли? капча то явно не решение - что мне 400 капч вводить? Неужели нельзя сделать таймауты или еще чтонибудь?
2. Почему нельзя запустить отдельно проверку индекса, без повторной проверки всех прочих вещей - очень неудобно.
Добрый день!
1. Значит насчет www можно не беспокоиться? Программа проверяет и так и так?
2. Скажите какой алгоритм лучше всего использовать:
а). Я делаю так - сперва проверяю на индекс. Если страницы в яше нет - удаляю. В каких случаях не надо удалять если даже страницы в яше нету?
б). Все страницы что есть я индексе я проверяю на текст ссылки. А это вообще что такое? В каких случаях оставить ссылку даже если проверка не прошла?
Т.е дайте пожалуйста четкий совет в какой последовательности что делать? Ил может сразу проверять на текст ссылки - если результат отрицательный - удалять нафиг?
Дорогой Lex - твоя программа чудо!
прогнал все ссылки из ксапы на предмет наличия в яндексе - в результате половину удалил - очень доволен. Но вот вопрос - что делать с оставшимися? можно ли с помощью твоей проги проверить оставшиеся страницы (которые есть я яндексе) на проиндексированность ссылок на мои сайты? как это сделать? и можно ли так же список ID чтобы выгрузился для удаления?
еще вопрос - как вручную проверить ссылку на наличие в яше? насколько вообще программа не может ошибиться? скажем бывает ли случае когд прога пишет - нет в яндексе - а страница есть там?