- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую. Наблюдаю мистику, прошу совета:
1. Добавляю страницы в индекс, через инструмент "Посмотреть как гуглбот".
2. Она моментально добавляется в индекс. Копирую ее URL - вставляю в поиск - находит страницу.
3. В выдаче мета тег дескрипшн - обновленный, но заголовок (title) старый.
4. в robots.txt закрыл от индексирования все url, в которых есть знак вопроса "?"
5. Ввожу команду в поиске - site:mysite.com
6. Находит 6 страниц результатов.
7. Жму на 4 - и 6 страниц пропадает, остается только 3, бросает меня на третью.
8. В поиске есть страницы со знаком вопроса, хотя я запретил. Но зато в их дескрипшене пишет "Описание веб-страницы недоступно из-за ограничений в файле robots.txt."
8. Клацаю на каждую страницу в выдаче - дубли и 404 ошибки - вручную закрываю их url в robots.txt
9. Прошу удалить их через гугл вебмастер. Гугл одобряет удаление, пишет статус "ожидание", следующий день - "удалено".
Но в индексе они все равно висят. Что я делаю не так?
Что я делаю не так?
Сильно заморачиваетесь. :)
Но в индексе они все равно висят
В основной или дополнительной выдаче?
Но в индексе они все равно висят. Что я делаю не так?
и будут висеть возможно. тут правильно подметили, что не заморачивайтесь настолько сильно. роботс - рекомендательный файл и ПС может игнорировать директивы из него. что конкретно за страницы удаляете? стоят ли на них линки? идет ли трафик?
и будут висеть возможно. тут правильно подметили, что не заморачивайтесь настолько сильно. роботс - рекомендательный файл и ПС может игнорировать директивы из него. что конкретно за страницы удаляете? стоят ли на них линки? идет ли трафик?
Например ссылка, которая меняет валюту: <a href="/?currency_id=1">доллары</a>
Гугл ее хавает, и создает в выдаче страницу с тайтлом "доллары". Я от индекса ее закрыл - а она все равно есть в основной выдаче. Линки на нее не стоят.
Я от индекса ее закрыл - а она все равно есть в основной выдаче.
Вы ее только от сканирования закрыли. Если она раньше была в индексе, то там и останется. Используйте метатег ноиндекс для удаления из индекса. Или "удаление урл".
если страниц немного удалите их в GWT через пункт в "индексе" - "удалить урл", но не факт, что гугл не "сьест" при повторной заходе на сайт их. Попробуйте, как описали выше проставить ноиндекс.
Что бы удалить стр из индекса сначала нужно убрать запрет ее сканированияя из роботс. А так она будет висеть вечно.
На запрет в роботсе ему пофиг, в индексе будет с "описание заблокировано в роботсе бла бла".
Вместо 404 можно отдавать "доступ запрещен, вариант тупой но работает.
Самый красивый вариант - дубли скрывать через мета рел каноникал.