один вердикт - ГС
1. сайт
2. раздел
3. около 3 месяцев назад.
спасибо! 🙄
аналогично, заказчик захотел снять некие направления.
аккуратно снял около 80 ссылок, с 5 запросов, добавил ссылок в которые остались.
позиции только в +.
я думаю, что резкие движения на новых сайтах, это сразу риск пойти под фильтр. Когда сайту более года, в индексе все страницы, оптимизация, уникальные тексты, на страницах беков никаких слов "порно, секс, члены и тд", снимать ссылки можно десятками.
😂 один придумал, все повелись.
все побежали и я побежал 🙄 было бы скучно жить без гугловских проблем, правда?
после апа, на новых проектах, все запросы пошли в +
сдл сайты
а что мешает сделать цель через регулярное выражение и отслеживать совпадения в ссылке? 🙄---------- Добавлено 08.11.2012 в 19:12 ----------
гугл в помощь.
информации много, в гугле вбейте "метод _trackEvent()" 🙄
🙄 апнулось
на блогах 0 > 3
на каталогах 1 > 2
на сдл сайтах, которыми занимаются очень бережно - всё как было.
внутряки подняло не слабо.---------- Добавлено 08.11.2012 в 02:41 ----------
400, это которые ГС ?
😂в средние века за такое на кострах палили.
гугл порой берет текст из стронгов в шапке.
давно замечаю, на двух сайтах, гугл выбирает не тайтл забитый в страницу, а ключевик из текста и сует его в тайтл.
раньше работало "посмотреть страницу как гуглбот" и отправить в индекс. 🙄
не замечал таких проблем 🙄 серч парсер работает через осла, вернее его встроенный броузер.
гоша разрешает выключить персонализацию поиска. Все храниться в куках, и по сути работает.
🙄 ок.
не пойму только одно, снял галки локальное подключение, использую прокси лист. Но после парсинга не могу никаким броузером поискать по гуглу, пишет "but your computer or network may be sending automated queries....ла ла лала" :( че делать то?
+ вылетает порой ошибка, скрин вложил. опять же, окно висит и его не закрыть, только убивать процесс. не думаю, что проблема в пк, ибо видел подобные жалобы на другом форуме.