- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите нубу это где прописать надо?
.htaccess
Если на сайте нужны гет и не нужны только определенные, не лучший вариант. И почему 301, куда, зачем, как пс интерпритирует?
Какие проблемы исключить нужные? Например папка админ исключается
не нравится 301, пишите 404 какие проблемы?
Barnabas #:Была идентичная проблема, у вас видимо сайт на WP и они спамят через строку поиска site.com/?
Вам на хостинге надо собрать все страницы сгенерируемые этим поиском и удалить, и поставить код ответа сервера 404
Потом закрыть уязвимость, через месяц уйдет из индекса.
Ну да спамер будет сидеть дальше молча, если у вас все открыто для инлексации?
Отправлял, бесполезно, их вроде было больше, одни удаляются, другие тут же появляются. Каждый день причем новые.
Так естественно, спамер тоже кушать хочет😂
А у всех один ответ, отправьте на переиндексацию....а закрыть совсем лень не позволяет?
PS поиск работать не будет? Вы наивны, кому он нужен на вашем сайте?
Крайнем случае, используйте яндекс поиск
<meta name="robots" content="noindex, follow">
И что, Вордпресс настолько прямой, что там нельзя сделать поиск через POST запрос, а не GET?
Ну ладно, можно же проверить в скрипте реферрер обращения? Что-то вроде
И выкидывать нафиг (тут - на главную) если это не запрос с сайта или старый запрос. Заодно и страницы из индекса пропадут.
А еще, на PHP даже такой рукожоп как я может сделать список стоп-слов для поиска, добавить туда www. и проверять все запросы через цикл, массив и обычный strstr. И при совпадении слать всех лесом, полем и снова лесом.
У меня сайты не на вордпресс. Часть страниц была закрыта в роботсе и с тегом noindex. В консоле гугл ругнулся.
Я кстати про это писал выше, удалил из роботса запрет на индексирование и отправил на проверку.
Я кстати про это писал выше, удалил из роботса запрет на индексирование и отправил на проверку
И как? Все ок прошло?
И как? Все ок прошло?
Все нормально, только проверка шла очень долго. Как я и выше писал не нужно запрещать через роботс, Гуглу на него пофиг.
Добрый день всем!
На данный момент аналогичная проблема, Проиндексировано , несмотря на блокировку в файле robots.txt
Сайт полностью вышел из индекса. Проверка показала что никаких блокировок в robots.txt и в тегах на страницах сайта не стоит.
Писать на форум google не вижу смысла, так как там уже куча таки вопросов со стандартными ответами((
Кто с таким сталкивался?
На данный момент аналогичная проблема, Проиндексировано , несмотря на блокировку в файле robots.txt
Сайт полностью вышел из индекса. Проверка показала что никаких блокировок в robots.txt и в тегах на страницах сайта не стоит.
Какая-то путаница, нет? Проиндексировано или деиндексировано?
Если сайт выкинуло из индекса - ищите причины, почему. От самых явных (блокировка по каким-то причинам - к примеру, у вас сайт госконторы, и Гугл решил её наказать) до проблем со сканированием сайта. Бывают ситуации, когда по какой-то причине Гугл кэширует устаревший robots.txt и не хочет видеть актуальный, или склеивает домен с какой-нибудь технической копией и т.п.