Ну так добавьте сайт в WMT.
Сгенерируйте обязательно sitemap сайта, кучу онлайн сервисов это делают бесплатно.
Скормите карту в WMT гуглу.
Если определенные страницы надо скормить очень быстро, то жмешь "Посмотреть как Googlebot" вводишь нужные урл и отправляешь в индекс, только не по каталогу, а просто URL.
Да, верно.
И желательно быстрее это сделайте, иначе
http://newmember.g4sky.ru/
недоброжелатели могут с вашим сайтом такое сделать, что будете три месяца ждать пока гугл поверит в истинное предназначение вашего интернет-магазина.
Ну Вы тоже дали ребята, загрузили пацана))
Все верно у всех все нормально, и как выше сказали, что за пару часов одностраничники и многостраничники влетают в индекс очень прекрасно.
Но чтобы не терять все время, которое мы потратили на ваш топик, Вы можете просто описать процедуру добавления сайта в индекс, возможно Вы не делаете важных вещей, что тупикует время на попадание в индекс.
У меня в антигейт всю жизнь стоит максимальная ставка, тут больше проблема может быть в загрузке системы. В таком случае нужно просто ставить тайм-аут и ждать, а не выдавать мне прочерк, нафига он мне?
Само собой, что выходные. Но завтра вроде-как праздники кончаются.
Каким образом ты можешь получить 200-300 нет? Ты сразу поганые ссылки или как?
При покупке ссылок нормальный оптимизатор проверяет как минимум ссылку на индексацию в гугле. Если я начинаю проверять доноров на индексацию в G то как можно получить 200-300 нет? Ты сразу купил 200-300 ссылок не проиндексированных в гугле и решил их проверить? Конечно программа не будет ошибаться там, где точно ссылка не проиндексирована.
Это говорит о том, что ты неверно проверяешь, тоже самое, что купил 500 ссылок вчера и сегодня их проверять на индексацию моей ссылки в гугле, конечно программа покажет мне 500 нет и ошибок там не будет, кэп.
200-300 нет нормальный оптимизатор получить не может, т.к. если он покупал ссылки нормально с ориентацией на гугл, то вылет 200-300 доноров из индекса гугла это нереально или просто кривые руки.
В общем-то у меня из 514 программа определила 24 нет и это нормально. Из них ошибочных нет и это хорошо, но хорошо потому что я до этого уже отфильтровывал сам вручную. Как говорил обычно от 20 до 50 процентов ошибочных.
В общем-то возьмете это на контроль данную ситуацию? хотелось бы быть еще в курсе и статусе данной проблемы и этапе её решения ---------- Добавлено 07.01.2013 в 20:59 ---------- И с индексацией ссылок. Ваша программа выдает на ссылку "НЕТ". Жму на "НЕТ" и открывает серп с таким запросом:
Но с чего Вы взяли, что это лучший способ проверять индексацию ссылки?
Если я вручную меняю запрос на:
То гугл сразу выдает в выдаче, что находит мою ссылку на странице.
В итоге ссылка действительно проиндексирована, а ваша программа просто рубит ссылку до корневого каталога и по всему сайту ищет совпадение, что очень часто выдает "НЕТ", когда надо выдавать "ДА".
В итоге я опять поснимаю десятки проиндексированных рабочих ссылок.
Далеко и ходить не надо было, люди уже сами подписываются под моими словами.
А значит проблема есть, нахрена мне тратить время и отсылать вам какие-то логи, когда БАГ один и у ВСЕХ.
Поставьте на проверку 500 доноров. Проверка на индексацию в G и индексацию ссылки в G.
По окончанию начните нажимать там где "НЕТ". И Вы так прекрасно будете удивлены.
Тем не менее, я скачал программу которую дали мне в вашей ТП, установил и с неё сейчас сканирую доноров и результаты логов отправлю назад письмом.
Ну конечно. Сейчас вот для вашей тех. поддержки сканирую 514 url по одному проекту.
И вот проблема номер три, которую я выше вкратце описал. Что мне нужно еще 10 раз допроверять проект, пока ваша "хорошая" программа проверит все 514 урл, и так каждый раз.
В итоге смысл с программы, на которую я трачу столько времени, когда заведомо по описанию не должен? Нажал проверку - ушел, вернулся смотрю результат и фильтрую. А так же нет, надо 200 раз допроверить сначала.
Недопроверенные ссылки вашей программой не обозначаются как "Да" или "Нет", а как Вы выше сказали, обозначаются "-" прочерком.
Но и тут же Вы себе противоречите, никакого бана от гугла у меня в помине и нет. Потому что если я выделяю эти ссылки с прочерком и нажимаю опять "проверить доноров", то они довольно в обычном режиме нормально допроверяются, но потом опять остается некое количество с прочерком, и процедуру надо повторять.
После первой проверки 514 ссылок, программа не просканировала 65 ссылок на предмет индексации в G.
Банов от гугла нет, анти капча подключена, все нормально, программа явно с багами.
Подтверждаю, только сегодня появилось за декабрь.
Проблема общая, и как я понял от ребят, была всегда. Так зачем же:
мне всё это делать если это может сделать ваш сотрудник?
Даю все 100%, что у него будет все тоже самое что у меня и у других людей.
По мимо индексации своих ссылок на донорах, программа еще плохо проверяет просто ИНДЕКСАЦИЮ ДОНОРА. Так же неправильно выдает около 30-50% результатов где написано "НЕТ", на самом деле полное "ДА".
Так же программа с первого раза не проверяет все ссылки, что я выбрал. Проверяет лишь часть, и нужно еще будет раза 3-5 допроверять заново, чтобы всех доноров обошла программа.
Говорите что мне делать? То что указал ваш сотрудник в ТП?
Если Вы исправите эти ошибки я публично готов принести свои извинения и благодарность за свои высказывания, в решении данной проблемы. А пока, это для меня, выкинутые деньги. Я покупаю программу, чтобы автоматизировать некоторые процессы, так в итоге оказывается, что плагин winka куда получше будет.
Еще раз суть проблемы:
После проверки индексации доноров в Google
И после проверки индексации своих ссылок на донорах в Google
Программа выдает результаты "Да" и "Нет". Кстати сейчас еще проверю на там где "ДА". Но, если начинать мануально нажимать на все "НЕТ" где выдала программа, оказывается, что там очень много проиндексированных доноров или ссылок. В итоге программа выдает неверные результаты и Вы просто напросто снимите рабочие, старые трастовые ссылки, что очень пагубно влияет на продвижение.
В общем, проверив, к примеру, 3000 доноров, Вам все равно вручную придется прокликивать и проверять, а не ошиблась ли программа. Точнее ошиблась она 100%, но вот где это уже надо будет работать Вам рукой еще пол часа.
Да программа ни о чем. Каждому оптимизатору после проверки индексации в гугле еще нужно вручную проверять ссылки, так как программа часто проверяет неправильно.
Писал в поддержку, так мне надо скачать версию с дебагером как я понял, еще составлять отчеты и высылать им на проверку. Ребята мне вот больше делать нечего? Программу покупал как раз чтобы время сэкономить, в итоге просто выкинутые деньги.
Проверьте блин 200 ссылок на индексацию в гугле(именно индексацию своих ссылок на донорах) и увидите, что программа выдает ложные результаты. Спрашивал у 5 оптимизаторов использующих cs sape master, - тоже самое.
В общем жаль нету манибек, обидно отдавать деньги в кошелек шарлатанов.
Такой вот вопрос. В основном паршу только adwords на ключевые слова.
Постоянно добавляет очень много слов с частотностью меньше 10.
Конечно это убирается по фильтру за 5 секунд, но когда много вкладок очень не много, по 10 секунд складываются в итоге в минуты и часы.
В настройках не нашел функцию по типу "не добавлять в список слова с частотностью < 10"
Не могу найти, где?
Вы про это?
Как бы не совсем удобно, если у меня 20 сайтов по 1к страниц? а там лимит в 500 вообще. Да и это глупо как-то, точнее в моем случае это не подходит, это наверно нужно больше для тех, кто хочет сравнить несколько страниц по доходности, а мне же интересно из общего стада понять, что людям больше нравится для кликов :)