New Member

New Member
Рейтинг
211
Регистрация
21.12.2008
Бабайка:
Да сам процесс весьма прост. никаких роботс никогда не прописывал, в вмт не добавлял, просто размещаю сайт, контент и жду индексации. В большинстве случаев для более быстрой индексации прогоняю часть сайта по соцзакладкам.

Но с недавнего времени почему то перестало работать. В частности html пинаю в последнее время беспощадно, вижу индексацию упоминаний страниц сайта буквально в течении нескольких часов.. а вот первая страница появляется спустя 3-4 недели.

Совершенно непонятно

Ну так добавьте сайт в WMT.

Сгенерируйте обязательно sitemap сайта, кучу онлайн сервисов это делают бесплатно.

Скормите карту в WMT гуглу.

Если определенные страницы надо скормить очень быстро, то жмешь "Посмотреть как Googlebot" вводишь нужные урл и отправляешь в индекс, только не по каталогу, а просто URL.

XPraptor:
Посмотрите на хостинге в а-записях - у вас видимо звездный алиас добавлен. Уберите его, чтобы весь бред поддоменный не вел на ваш домен.

Да, верно.

И желательно быстрее это сделайте, иначе

http://newmember.g4sky.ru/

недоброжелатели могут с вашим сайтом такое сделать, что будете три месяца ждать пока гугл поверит в истинное предназначение вашего интернет-магазина.

Ну Вы тоже дали ребята, загрузили пацана))

Бабайка:
Ну ясно, предположений может быть много: начиная от "контента" и заканчивая размещением robots.txt, добавлением в wmt и прочими фичами.

У всех все в порядке. Вопросов больше не имею.

Все верно у всех все нормально, и как выше сказали, что за пару часов одностраничники и многостраничники влетают в индекс очень прекрасно.

Но чтобы не терять все время, которое мы потратили на ваш топик, Вы можете просто описать процедуру добавления сайта в индекс, возможно Вы не делаете важных вещей, что тупикует время на попадание в индекс.

nickspring:
я полагаю, что нет 100% гарантии что при малой ставке антигейт ответит в отведенное время с правильной капчей.

У меня в антигейт всю жизнь стоит максимальная ставка, тут больше проблема может быть в загрузке системы. В таком случае нужно просто ставить тайм-аут и ждать, а не выдавать мне прочерк, нафига он мне?

nickspring:
Будем искать баг после праздников (у программистов сейчас выходные, к сожалению).

Само собой, что выходные. Но завтра вроде-как праздники кончаются.

nickspring:
Из 200-300 "Нет" - 2-3 штуки ошибочные.

Каким образом ты можешь получить 200-300 нет? Ты сразу поганые ссылки или как?

При покупке ссылок нормальный оптимизатор проверяет как минимум ссылку на индексацию в гугле. Если я начинаю проверять доноров на индексацию в G то как можно получить 200-300 нет? Ты сразу купил 200-300 ссылок не проиндексированных в гугле и решил их проверить? Конечно программа не будет ошибаться там, где точно ссылка не проиндексирована.

Это говорит о том, что ты неверно проверяешь, тоже самое, что купил 500 ссылок вчера и сегодня их проверять на индексацию моей ссылки в гугле, конечно программа покажет мне 500 нет и ошибок там не будет, кэп.

200-300 нет нормальный оптимизатор получить не может, т.к. если он покупал ссылки нормально с ориентацией на гугл, то вылет 200-300 доноров из индекса гугла это нереально или просто кривые руки.

В общем-то у меня из 514 программа определила 24 нет и это нормально. Из них ошибочных нет и это хорошо, но хорошо потому что я до этого уже отфильтровывал сам вручную. Как говорил обычно от 20 до 50 процентов ошибочных.

В общем-то возьмете это на контроль данную ситуацию? хотелось бы быть еще в курсе и статусе данной проблемы и этапе её решения

---------- Добавлено 07.01.2013 в 20:59 ----------

И с индексацией ссылок. Ваша программа выдает на ссылку "НЕТ". Жму на "НЕТ" и открывает серп с таким запросом:

"ключевое слово" site:example.ru

Но с чего Вы взяли, что это лучший способ проверять индексацию ссылки?

Если я вручную меняю запрос на:

info:example.ru/my-url-page "ключевое слово"

То гугл сразу выдает в выдаче, что находит мою ссылку на странице.

В итоге ссылка действительно проиндексирована, а ваша программа просто рубит ссылку до корневого каталога и по всему сайту ищет совпадение, что очень часто выдает "НЕТ", когда надо выдавать "ДА".

В итоге я опять поснимаю десятки проиндексированных рабочих ссылок.

Далеко и ходить не надо было, люди уже сами подписываются под моими словами.

А значит проблема есть, нахрена мне тратить время и отсылать вам какие-то логи, когда БАГ один и у ВСЕХ.

Поставьте на проверку 500 доноров. Проверка на индексацию в G и индексацию ссылки в G.

По окончанию начните нажимать там где "НЕТ". И Вы так прекрасно будете удивлены.

Тем не менее, я скачал программу которую дали мне в вашей ТП, установил и с неё сейчас сканирую доноров и результаты логов отправлю назад письмом.

nickspring:
Так если с одного ипа напрямую парсит гугл тысячами,*то, конечно же, задача не решаема. Но в этом случае гугл подбанивает ип на сутки и должен быть в поле прочерк,*но не ошибочные "Да" или "Нет".

Ну конечно. Сейчас вот для вашей тех. поддержки сканирую 514 url по одному проекту.

И вот проблема номер три, которую я выше вкратце описал. Что мне нужно еще 10 раз допроверять проект, пока ваша "хорошая" программа проверит все 514 урл, и так каждый раз.

В итоге смысл с программы, на которую я трачу столько времени, когда заведомо по описанию не должен? Нажал проверку - ушел, вернулся смотрю результат и фильтрую. А так же нет, надо 200 раз допроверить сначала.

Недопроверенные ссылки вашей программой не обозначаются как "Да" или "Нет", а как Вы выше сказали, обозначаются "-" прочерком.

Но и тут же Вы себе противоречите, никакого бана от гугла у меня в помине и нет. Потому что если я выделяю эти ссылки с прочерком и нажимаю опять "проверить доноров", то они довольно в обычном режиме нормально допроверяются, но потом опять остается некое количество с прочерком, и процедуру надо повторять.

После первой проверки 514 ссылок, программа не просканировала 65 ссылок на предмет индексации в G.

Банов от гугла нет, анти капча подключена, все нормально, программа явно с багами.

gufffik:
Сегодня они пересчитали доходы позже чем обычно, у меня вот только недавно за декабрь появилось

Подтверждаю, только сегодня появилось за декабрь.

nickspring:
Нормально так, если есть баг, то сразу шарлатаны. Если баг в 1-й возможности, то сразу все возможности ни о чем. Давайте будем по корректней в выражениях. Выслушивать дерьмо в свой адрес мало кому приятно. Проверим вашу индексацию, ок.

Проблема общая, и как я понял от ребят, была всегда. Так зачем же:

Скачайте программу по ссылке http://sapemaster.ru/files/special/sapemaster.setup.exe и переустановите. Данная сборка программы будет сохранять результаты ответа от Google, если показывается что страница не в индексе. Ответы будут сохраняться в папке C:\Users\[ВАШ_ПОЛЬЗОВАТЕЛЬ]\AppData\Roaming\ControlStyle\CS Sape Master\GoogleSerp - попробуйте сделать проверку на индексацию, потом сделайте архив указанной папки и пришлите по почте. Кроме того, укажите пожалуйста на расхождение результатов.

мне всё это делать если это может сделать ваш сотрудник?

Даю все 100%, что у него будет все тоже самое что у меня и у других людей.

По мимо индексации своих ссылок на донорах, программа еще плохо проверяет просто ИНДЕКСАЦИЮ ДОНОРА. Так же неправильно выдает около 30-50% результатов где написано "НЕТ", на самом деле полное "ДА".

Так же программа с первого раза не проверяет все ссылки, что я выбрал. Проверяет лишь часть, и нужно еще будет раза 3-5 допроверять заново, чтобы всех доноров обошла программа.

Говорите что мне делать? То что указал ваш сотрудник в ТП?

Если Вы исправите эти ошибки я публично готов принести свои извинения и благодарность за свои высказывания, в решении данной проблемы. А пока, это для меня, выкинутые деньги. Я покупаю программу, чтобы автоматизировать некоторые процессы, так в итоге оказывается, что плагин winka куда получше будет.

Еще раз суть проблемы:

После проверки индексации доноров в Google

И после проверки индексации своих ссылок на донорах в Google

Программа выдает результаты "Да" и "Нет". Кстати сейчас еще проверю на там где "ДА". Но, если начинать мануально нажимать на все "НЕТ" где выдала программа, оказывается, что там очень много проиндексированных доноров или ссылок. В итоге программа выдает неверные результаты и Вы просто напросто снимите рабочие, старые трастовые ссылки, что очень пагубно влияет на продвижение.

В общем, проверив, к примеру, 3000 доноров, Вам все равно вручную придется прокликивать и проверять, а не ошиблась ли программа. Точнее ошиблась она 100%, но вот где это уже надо будет работать Вам рукой еще пол часа.

Да программа ни о чем. Каждому оптимизатору после проверки индексации в гугле еще нужно вручную проверять ссылки, так как программа часто проверяет неправильно.

Писал в поддержку, так мне надо скачать версию с дебагером как я понял, еще составлять отчеты и высылать им на проверку. Ребята мне вот больше делать нечего? Программу покупал как раз чтобы время сэкономить, в итоге просто выкинутые деньги.

Проверьте блин 200 ссылок на индексацию в гугле(именно индексацию своих ссылок на донорах) и увидите, что программа выдает ложные результаты. Спрашивал у 5 оптимизаторов использующих cs sape master, - тоже самое.

В общем жаль нету манибек, обидно отдавать деньги в кошелек шарлатанов.

Такой вот вопрос. В основном паршу только adwords на ключевые слова.

Постоянно добавляет очень много слов с частотностью меньше 10.

Конечно это убирается по фильтру за 5 секунд, но когда много вкладок очень не много, по 10 секунд складываются в итоге в минуты и часы.

В настройках не нашел функцию по типу "не добавлять в список слова с частотностью < 10"

campert:
Нажмите по ссылке: Просмотреть эффективность в Google Analytics

Не могу найти, где?

87793:
Воспользуйтесь URL-каналами для этого.

Вы про это?

Как бы не совсем удобно, если у меня 20 сайтов по 1к страниц? а там лимит в 500 вообще. Да и это глупо как-то, точнее в моем случае это не подходит, это наверно нужно больше для тех, кто хочет сравнить несколько страниц по доходности, а мне же интересно из общего стада понять, что людям больше нравится для кликов :)

Всего: 1433