- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте сессии были, но уже искоренились пару дней назад. Сегодня, именно сегодня, ни днем раньше, до этого вообще не было проиндексено, появилось около 1000 страниц в индексе где в адресе присутствует сессия. Боюсь бана Яндекса. Что делать? Как от них избавиться? На сайте их уже нет. Мог быть такой вариант, что страницы сожрал бот 2 дня назад, а только сейчас они появились в индексе?
Сайт: begamer-ru
но уже искоренились пару дней назад
Подождите. Если волнуетесь - еще раз проверьте все скрипты.
Что делать? Как от них избавиться? На сайте их уже нет. Мог быть такой вариант, что страницы сожрал бот 2 дня назад, а только сейчас они появились в индексе?
Вполне может быть. Надо ждать апдейта, тогда, думаю, все станет на свои места... если вы конечно полностью искоренили сессии))
Можно бороться с этим так - добавьте строчку
Disallow: /?
в ваш /robots.txt - теперь даже если новый неизвестный бот схватит не ту ссылку и опубликует ее где-то, ничего страшного не случится. Когда Я и Р не глючат, они подчищают индекс согласно robots.txt - мной проверено :)
Можно бороться с этим так - добавьте строчку
Disallow: /?
тогда, если сайт динамический (через GET передаются еще параметры) вообще потом ничего найти нельзя будет ;)
добавьте строчку
Disallow: /?
в ваш /robots.txt
Имхо, надо очень осторожно это делать. По крайней мере, разобраться для начала, что делает
Disallow: /?
И в качестве контрольного выстрела: удалите еще раз эти страницы.
Спасибо за ответы. Буду ждать.
Насколько я понимаю Disallow: /? запрещает индексирования страниц содержащие в адресе ?, но у меня они все такого вида:(
Програмист говорит, что полностью искоренил сессии, на что я очень надеюсь.
GiLiOTiN, можно урл в личку? посмотрю наличие сессий
Да, конечно, отправил в личку.
Насколько я понимаю Disallow: /? запрещает индексирования страниц содержащие в адресе ?, но у меня они все такого вида
Неверно. Запрещает индексирование страниц, адреса которых начинаются (но не содержат!) с /?
http://www.yandex.ru/info/webmaster2.html
http://www.citforum.ru/internet/search/rbtspec.shtml