- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну, почитайте документацию и вы увидите, что роботс - тоже самое, что ноиндекс в теле страницы.
Твою же душу, как всё запущено... Ну почитайте:
https://developers.google.com/search/docs/crawling-indexing/robots/intro
Файл robots.txt не предназначен для того, чтобы запрещать показ ваших материалов в результатах поиска Google. Если вы не хотите, чтобы какие-либо страницы с вашего сайта были представлены в Google, добавьте на них директиву noindex
Еще раз, роботс не запрещает получение страницы, не запрещает сканирование, не запрещает ее анализ. Он запрещает индексирование страницы
Ужосс... Почитайте ещё:
https://support.google.com/webmasters/answer/12818275?hl=ru
Файл robots.txt предназначен только для того, чтобы запретить сканирование тех или иных страниц. Если вам нужно предотвратить появление страницы или изображения в результатах поиска, используйте другие средства.
это значит, что эта страница не будет размещена в индексе.
Если вы не сталкивались, то это не значит, что такого не бывает
- Размещает в индексе. Размещает в поиске
- Несмотря на каноникал, и правило роботса, выкидывает страницу из индекса, обьявляя ее копией
- Потом, ой у вас правило каноникал, ой тут правило роботс, страницу из индекса выкидываем
И если у вас была хорошая страница в топе, то ее у вас там уже нет. И возможно не будет
Самое лучшее правило, не плодить дубли, в том числе и навязываемые извне.
Это естественно ибо только robots.tx, больше нечем
больше нечем
Ноуиндекс же. Разместить в хэдере при условии наличия гет-параметра - и всё, вопрос решён.
Ноуиндекс же. Разместить в хэдере при условии наличия гет-параметра - и всё, вопрос решён.
Кстати, именно дубли возникающие снаружи индексирует, не глядя на правила в роботс
Твою же душу, как всё запущено... Ну почитайте:
А теперь почитайте то, что про это пишет Яндекс:
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html
Robots.txt — это текстовый файл, который содержит параметры индексирования сайта для роботов поисковых систем.
Как правило, после установки запрета на индексирование каким-либо способом исключение страниц из поиска происходит в течение двух недель.
Для гугла это еще более жесткие условия, по которым он НЕ будет даже сканировать страницу, что не исключает то, что она при этом, само собой, и в индекс не попадет. Ибо без сканирования страница в индекс попасть ну никак не сможет. Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?
В гугле то, что вы скопипастили, касается именно части из Яндекса: "исключение страниц из поиска происходит в течение двух недель". Гугл не будет выкидывать из индекса, если вы прописали роботс после того, как он просканировал. Яндекс же - выкинет, если увидит обновленный роботс, по крайней мере должен. Но первоначально, если у вас стоит запрет на индексирование в роботс - то ни в гугле, ни в яндексе страница не попадет в индекс. В гугле она не будет даже просканирована, а я яндексе будет просканирована, но не проиндексирована.
Так что же, извините, ваши ссылки подтверждают? Именно то, что я и говорю - все прекрасно блокируется в роботс. Речь о том, как удалить из индекса - даже не заводилась, она вне контекста обсуждения. Прочтите сами то, что накопипастили и попробуйте вникнуть в то, что там написано.
правило будет на самой странице, надо добавить проверку
Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.
Ну файл хэдера же инклудится для всех страниц. И в нём прописываем условие: если есть параметр, то ноуиндекс.
Да я понял🙏
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?
Давайте топовую страницу, попробую на практике вам показать, как это элементарно Яндекс делает
Но, если вы прочитали пост выше: предупреждение Яндекс основную страницу выкинет из поиска и из индекса, как дубль.
Об этом вам черным по белому известит в вебмастере
Так что же, извините, ваши ссылки подтверждают? Именно то, что я и говорю
Всё, нафиг. Тот, кто умеет читать - прочитал. Я написал не только для Вас. А с Вами дальше дискутировать не собираюсь, ибо бесполезно, судя по всему.
Всё, нафиг. Тот, кто умеет читать - прочитал. Я написал не только для Вас. А с Вами дальше дискутировать не собираюсь, ибо бесполезно, судя по всему.
Ну, то есть ответа на вопрос вы дать не можете, верно?
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?
Ну, то есть ответа на вопрос вы дать не можете, верно?
Вы каким образом предполагаете попадание страницы в индекс, если у нее стоит запрет на сканирование?
Я дал ответ выше. Повторять не собираюсь. Читайте и осмысливайте, там всё ясно написано. Если ссылка размещена на стороннем ресурсе, то никто ваш роботс с вашими запретами даже читать не будет. Хоть пять раз болдом выделяйте, ничего от этого не изменится.
И да, в том, что я "накопипастил", как Вы изволили выразиться (хотя на самом деле я процитировал, а не "накопипастил"), гугл написал как раз противоположное тому, что написали Вы. Или Вам красным цветом выделить, чтобы понятнее было?