- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не думал что придется обратиться к местным гуру, но ВЫ моя последняя надежда. Итак:
Как вывести из кеша кучу неправильно проиндексированных страниц вида (?secondary&page=4&page=0&page=1&page=2)
Что я уже делал:
- 301 редирект на правильные страницы, т.е новых ошибок не должно создаваться.
- сначала запретил в роботс.тхт индексирование этих параметров но потом убрал так как посоветовали спецы из гуглсапорта
- установил теги
<meta http-equiv="Pragma" content="no-cache">
<meta name="robots" content="noindex,nofollow">
- попробовал удалять через инструмент удаление страниц в Инструментах.. но не уверен - правильно ли это. (в итоге это ничего не дает т.к. урл все равно в индексе почемуто)
- домен с ВВВ уже давно редиректит по 301, но в кеше все равно около 6к страниц.. (постепенно но очень медленно уменьшается)
URL сайта или страницы:(осторожно содержимое для взрослых вход от 21г.+) http://pornpaysites.net/
ПОМОГИТЕ КТО ЧЕМ МОЖЕТ!
sawaporn, смотрите последнии советы Удаление информации из результатов поиска Google
Та же проблема была, на новом проекте на джумле были миллионы дубликатов.
1) 301 редирект на канонические страницы
2) 404 ошибка на глупые дубликаты(всякий бред)
3) те дубликаты, которые нереально убрать из-за движка или очень тяжело, в коде проставляется <meta name="robots" content="noindex,nofollow">
4) в robots.txt все обозначенное прикрыл
Многое уже ушло, жду остальное, эффект на позициях заметен сразу в положительную сторону.
Есть идеи как ускорить процесс?
Потому как по 100-200 стр в день это будет около года.
У меня практически похожая ситуация, сайт в индексе пару месяцев, трафика совсем немного было, пока не решил удалить дубли страниц, удалил весь каталог с товарами, привел в порядок ссылки, и отправил новый сайтмап в веб мастер туулс. В результате сайт не индексируеться уже неделю, как будто отправили в бан. Сам не знаю что делать, просто жду и пишу контент.
У меня практически похожая ситуация, сайт в индексе пару месяцев, трафика совсем немного было, пока не решил удалить дубли страниц, удалил весь каталог с товарами, привел в порядок ссылки, и отправил новый сайтмап в веб мастер туулс. В результате сайт не индексируеться уже неделю, как будто отправили в бан. Сам не знаю что делать, просто жду и пишу контент.
Надеюсь, вы URL каталога с товарами новый сделали? А то удаленный URL не появится 90 дней после удаления (см. хэлп Гугла).
Если страницы не нужны:
1. Настраиваете 404 на все дубли.
2. Удаляете по шаблону в вебмастере гугла. Из Яндекса должно само вылететь.
Если страницы нужны и их нужно запретить к индексации:
1. Для Яндекса закрыть в роботсе.
2. Удаляете по шаблону в вебмастере гугла.
Надеюсь, вы URL каталога с товарами новый сделали? А то удаленный URL не появится 90 дней после удаления (см. хэлп Гугла).
В гугл отправил на удаление каталог /shop/ после чего поменял каталог на /catalog/ и отправил sitemap. Как думаете через сколько гугл начнет индексацию нового каталога? Или быть может он видит что контент одинаковый на удаленных страницах и на стр. которые в сайтмапе, и не хочет их брать в индекс?
В гугл отправил на удаление каталог /shop/ после чего поменял каталог на /catalog/ и отправил sitemap. Как думаете через сколько гугл начнет индексацию нового каталога? Или быть может он видит что контент одинаковый на удаленных страницах и на стр. которые в сайтмапе, и не хочет их брать в индекс?
Ох уж этот злой Гугл со своими Пандой и Пингвином))) Не воспринимайте его как мыслящий организм, это всего лишь робот с алгоритмами...
Много раз боролся с дублями страниц в выдаче, хороший вариант это замена урла и редирект с многих старых урлов с дублями на 1 новый. Кэш чистится не сразу и страницы еще повисят некоторое время в соплях. Но это не помешает вам вытянуть страницу в ТОПы )
Удаляете по шаблону в вебмастере гугла.
К сожалению, по шаблону там удалять нельзя. Только каталоги и отдельные страницы.
Google в своём упорстве странный весьма. Год назад был сайт на Joomla с очень некрасивыми URL. Переделал на Drupal, с ЧПУ. До сих пор в логах сервера запросы робота по старым URL.
sitemap имеется, скормленный в инструментах.