- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
только вот ни слова, про не учёт данной страницы в доменных факторах
как отреагирует гоша если таких страниц будет очень много?
и на них будут вести порно анкоры? :)
выкинет страницы из индекса - тут вопрос только времени т.к. бот должен заново просканировать страницы и увидеть метатег, соответственно говорим о страницах в коде, которых нет критических ошибок - для примера если метатег дублируется бот его, скорее всего, не воспримет как директиву
Гораздо хуже их иметь в индексе, чем иметь вне индекса прописанным noindex.
Что же до порноанкоров, это совсем другой вопрос.
это один вопрос ;)
что делать если на вас ссылаются кучей мусорных ссылок на несуществующие страницы?
открывать их для индексации и прописывать мету noindex
или отдавать 404 и запрещать в роботсе общим правилом
это один вопрос ;)
что делать если на вас ссылаются кучей мусорных ссылок на несуществующие страницы?
открывать их для индексации и прописывать мету noindex
или отдавать 404 и запрещать в роботсе общим правилом
отдавать 404 и в роботсе не запрещать доступ к 404 странице, можно для надежности метатег в нее сунуть, иначе как-то так будет - https://www.google.ru/search?q=yandex+404.html
sok3535, вы не понимаете, проблема в том что у вас нет таких страниц, вообще нет и ни когда не было!
например: www.yandex.ru/forum/?=porno-redaktor
отдаёт 404
не запрещена в роботс
sok3535, вы не понимаете, проблема в том что у вас нет таких страниц, вообще нет и ни когда не было!
например: www.yandex.ru/forum/?=porno-redaktor
отдаёт 404
не запрещена в роботс
ну как не понимаю? на несуществующие стр стоят ссылки, эти несуществующие стр должны отдавать 404 ошибку, что бы их не было в индексе - как то так - или я действительно где то запутался?
эти несуществующие стр должны отдавать 404 ошибку
с точки зрения гугла нет
т.е. ответ должен быть 200 :)
А если через WMT удалить домен из индекса?
V_G, может проще домен разделигировать? :)
с точки зрения гугла нет
т.е. ответ должен быть 200 :)
эээ, как 200 то?
отсюда - https://support.google.com/webmasters/answer/93641?hl=ru
эээ, как 200 то?
тогда меты не увидит :)
вот и решайте задачку с двумя противоположными требованиями от пс
хочешь что бы выкинули ответ 200 и мета ноиндекс