- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Обнаружил что из-за глюка движка сайта на каждную страницу сайта, в кеше яши и гоши лежит от 3-х ее копий. Я вычислили формулу имен этих злополучных страниц и запретил их в роботс.тхт, прверил инструментом для веб мастеров-доступ к ним закрыт, это железно.
в яше из индекса пропали дубли через неделю-две, а в гугле до сих пор они висят, несмотря на то что прошло уже 2 месяца с того момента, как я запретил их в роботс. самое интересное в панели для веб мстеров гоши написано: заблокировно роотсом 20страниц, но они да и десятка 4 и дальше висят в кеше.
Воспрос: оно уйдет когда-нибудь из кеша, или то что гугл отхватил-то его, и ничем его из кеша не выбьешь?
Конечно уйдет))) гугл скоро проиндексирует и "кривые сайты" уберет. Только когда решать ему)
По аналогичным ситуациям, сохранёнки в итоге пропадают, только урл с титлом остаётся. И это надолго, полгода минимум. Если надо быстро и полностью, то надо полностью запретить домен к индексации и удалить его через аккаунт. А потом добавить на индексацию заново.
По аналогичным ситуациям, сохранёнки в итоге пропадают, только урл с титлом остаётся. И это надолго, полгода минимум. Если надо быстро и полностью, то надо полностью запретить домен к индексации и удалить его через аккаунт. А потом добавить на индексацию заново.
Ну такой необходимости нету, просто неестетично да и для позиций сайта думаю, не совсем хорошо иметь дубли страниц.
Спасибо за ответы))))
Если надо быстро и полностью, то надо полностью запретить домен к индексации и удалить его через аккаунт. А потом добавить на индексацию заново.
Str256, подскажи плиз: а ты так уже делал? Я читал на форуме Гоши: кто-то говорит, что при этом сайт будет недоступен для индексации 90 дней, а кто-то говорит, что после удаления сайта через Инструменты для веб-мастеров - удаление url после того как заново заводишь сайт, там все страницы появляются снова как будто не удалялись.
У меня та же проблема - случайно в индекс попала куча дублей и изза этого все страницы кроме главной вылетели из выдачи. Хочу удалить весь индекс из Гоши, а потом заново проиндексить, поскольку терять то уже нечего, раз страниц нет в выдаче.
так в ручном режиме их удали из кэша гугла
Так про гуглировали бы эту тему или http://robotstxt.org.ru/rurobots/google
Так про гуглировали бы эту тему или http://robotstxt.org.ru/rurobots/google
Когда было надо пробовал это, толку не дало.
Str256, подскажи плиз: а ты так уже делал?
Удалял, сайт вылетел полностью через несколько часов. Обратно не добавлял, так как не надо было. Если других вариантов нет, надо так пробовать.
Хочу удалить весь индекс из Гоши, а потом заново проиндексить, поскольку терять то уже нечего, раз страниц нет в выдаче.
Попробуйте и отпишите здесь по результатам.
так в ручном режиме их удали из кэша гугла
удалил кучу страниц через url removal tools, но google почему то все равно показывает что у меня в индексе столькоже страниц сколько и было - 1300. Хотя из них полезных только 160. Толи теперь нужно ждать когда сайт выйдет из под фильтра. Но читал, что человек также удалил, потом ждал целый год так и не дождался ))
это всё бесполезно - пробовал кучу экспериментов с robots.txt - google его сначала вообще проигнорировал и добавил еще дублей в индекс, а потом начал потихоньку по 2-3 странички в день добавлять в заблокированные, но это уже не спасает - сайт походу попал под фильтр
Не знаю что еще пробовать. С robots всё перепробовал, url удалял - ничего не помогает. Ждать не вижу смысла - так можно и год прождать. В Яндексе же всё прекрасно - ненужные страницы сами удалились из индекса и мой сайт там в топе по многим запросам. С google какойто неразрешимый геморрой.
Есть конечно риск, что гугл после этого не даст индексироваться сайту на 90 дней. Может заранее гуглу написать запрос на пересмотр сайта? Или уже после процедуры удаления?
А можно ли как-то удалить из кеша все страницы, в урле которых находится определённый кейворд? Нельзя сказать, что это мне сильно мешает, но один из кейвордов у страниц, пребывание в выдаче которых не обязательно, очень привлекает парсеры спамилок, что делает лишнюю нагрузку на систему. Ссылки на эти страницы уже 2 месяца как удалены, а в выдаче до сих пор около тысячи таких страниц.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Sower, в Google url removal tools можно удалить каталог - например /abra/kadabra/ и тогда удалится всё, что после этого адреса, а вот по кейворду я тоже искал у них на форуме, но там пишут что мол массовое удаление страниц вида /sddsd/*blablalba* у них не предусмотрено - типо риск, что удалятся нужные страницы. В общем фигня какая-то ) С гуглом один геморрой ))