- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Скрипт установил на сайт новый в результате появилось много новых страниц
Скорее всего не новых страниц, а вариантов адресации.
все они запрещены к индексации через теги, в результате в вебмастере в разделе История обхода вылезло множество новых страниц и статус "запрещено к индексации"
Теперь запретите эти адреса в robots.txt через Disallow
вопрос такой, это как то может сказаться в целом на позициях сайта и отношении или все нормально
В общем, не должно. Вебмастер просто информирует вас, что у вас в активе сайта появились новые url-ы, которые ведут запрещенные к индексации страницы. Чтобы робот не ходил по ним - запрещайте в Disallow.
Антоний Казанский - по поводу запрета в robots.txt через Disallow - адрес страницы имеет такой вид допустим site.ru/go? и набор цифр, то есть конкретного адреса у страницы нет типа site.ru/site.html как прописать тогда надо не подскажите?
как прописать тогда надо не подскажите?
Чтобы точно подсказать, нужно знать конкретные адреса.
Если не хотите писать здесь, напишите в личку. Помогу. Бесплатно.
Антоний Казанский - по поводу запрета в robots.txt через Disallow - адрес страницы имеет такой вид допустим site.ru/go? и набор цифр, то есть конкретного адреса у страницы нет типа site.ru/site.html как прописать тогда надо не подскажите?
Если тебе нужно запретить всё, что после вопросительного знака, пиши так:
Но если у тебя итак уже всё запрещено через теги, то можешь просто забить.
Если тебе нужно запретить всё, что после вопросительного знака, пиши так:
Здесь я бы не торопился с этим советом, потому что про рабочую адресацию мы пока ничего точно не знаем и такой инструкцией можно запретить рабочие страницы, использующие get параметры.
Надо видеть рабочий сайт.
Стандартный DLE движок, установил скрипт который ссылки переделывает в такой вид site.ru/go? и набор букв надо чтобы поисковик не ходил туда, я добавил вот так Disallow: /go* и в html meta выставил запрет для яндекса google - пробиваю в вебмастере в панеле анализа робот адрес с go? красный типа недоступен как и надо, остальные адреса сайта в стандартном DLE не имеют адреса go? поэтому думаю все нормально должно быть, как считаете
Я понял, просто резко выросло в личном кабинете типа новые страницы запрет, я подумал как бы хуже не стало по позициям, типа много ошибок выросло точнее предупреждений
плюс минус смотрю пошел, стал переживать вдруг из за этого всего, хотя склоняюсь к тому что 30 декабря как никак все отдыхают уже не до инета
Я понял, просто резко выросло в личном кабинете типа новые страницы запрет, я подумал как бы хуже не стало по позициям, типа много ошибок выросло точнее предупреждений
плюс минус смотрю пошел, стал переживать вдруг из за этого всего, хотя склоняюсь к тому что 30 декабря как никак все отдыхают уже не до инета
Стандартный DLE движок
На любом движке можно определить адресацию так, а можно иначе.
Если у вас на сайте используются get адреса, то запрет вида /*?* ставить нельзя (вы закроете рабочие страницы), если не используются и get адреса появились только после установки скрипта, тогда - да, можно.
Также для устранения нежелательных get адресов можно использовать инструкцию clean-param.
поэтому думаю все нормально должно быть, как считаете
Конкретно это события на ранжирование не повлияет.
По сути поисковик вам говорит - я нашёл новые адреса, которые запрещены к индексации. Ну, ok, спасибо, понятно.
Это информирование на случаи, если вдруг страницы нужны, то вас просто дополнительно информируют.
На позициях это не скажется.