Список урлов в базу данных, в таблице три поля - ID (primary key), url и date
Выбрали 10 урлов у которых date < time() - 60*60*24, спарсили, обновили у них date на текущее время. Парсер запускать по крону раз в 5-10 минут без остановки. Если парсить нечего - нагрузку он не создаст.
Сайт, о котором я говорил, принадлежит моему компаньону, и, соответственно, расположен у него в Search Console
Только что со своего аккаунта консоли нажал "Добавить ресурс", получил html-файл, закачал его по фтп на хостинг и получил доступ к запросу на повторную проверку.
Что мешает вам поступить аналогично? Ведь ФТП, я так понял, есть...
По моему опыту:
В начале октября нашли на сайте дор, успешно его удалили.
5го ноября (дор уже был удален) пришло запоздавшее письмо от гугла
К этому моменту ( 5 ноября ) пометка уже была снята без каких-либо действий с нашей стороны. Гугл отметил сайт как "безопасный".
Переходы с директа
Kitaer, этим баянам лет по 30. Нате вам одиннадцатый, в коллекцию
Чтобы спереди погладить, нужно сзади полизать.
Нет, представьте сколько ненужной информации попадает пользователю (скрытые пункты меню, которые ему не нужны). Лучше подгружать подкатегории асинхронно.
По количеству уровней/веток ограничений нет, имхо, но я бы делал все урлы короткие, то есть site.ru/category/ и site.ru/subcategory/, а не site.ru/category/subcategory/. Соответственно и site.ru/tovar/
В простате счастья точно нет
А тут можно залипнуть часа на два
Женщина:
— Обветрились губы. Воспользовалась скрабом для губ, сделала питательную маску, намазала бальзамом, сверху - увлажняющий блеск.
Мужчина:
— Обветрились губы. Отодрал кожу. Съел.
Маленький помощник