Здесь суть в том, что если пользователь посетит новую страницу на которой есть Метрика, то о её посещении Яндекс узнает благодаря данным Метрики.
Яндексу важно фактические посещение страницы и действия на странице (т.е. ПФ), для Гугла же это второстепенно.
Смысл фразы не в том, чтобы помочь, а в том, чтобы указать на слабость аналитических возможностей...
Не влияет.
То есть вот 1 декабря вы по запросам были на 24 месте, а уже 2 декабря стали на втором?
Вам самому это никаких мыслей не навевает?
Так в заголовке темы указано какие методики предлагаются. Автор открыто заявляет.
Сергей, страсть к винокурению разделить не могу, но идейку по ребрендингу подкину 😊
2) Сделать отдельные страницы под каждый крупный город. Написать уникальные SEO-тексты и уникальные мета-теги под каждый город. Загвоздка в том, что сможет ли копирайтер написать 10 текстов про Зип-пакеты?
Подскажите, как будет правильно сделать. Я в тупике.
Определённо вариант 2.
Спамить подряд топонимами на странице не нужно, куда больше рабочего простора на отдельных страницах, которые желательно сделать папками.
10 одинаковых текстов не должно быть проблема для хорошего копирайтера/рерайтера. Впрочем, по мне так и для SEO-шника тоже не должно быть проблемой.
CHATGPT (или разные сервисы по рерайтингу) тут в помощь.
Задача в целом непростая (если задача сделать качественный текст), но вполне по силам.
Кстати, если иконки универсальные их же можно воссоздать?
По-моему, в сети уже есть некоторый коллективный опыт в решении этой проблемы, посмотрите, можете быть просто создадите нужные файлы и положите на место?
В конкретно вашем случае - не причем, у вас проблема просто с тремя файлами, но если проблема массовая и в ссылочной навигации появляются 404 ошибки (причин может быть масса - удалили страницу, удалили целиком категорию и т.д.), то обрываются ссылочные связи и веса не передаются, а робот будет продолжать ходить по этим страницам, ожидая возобновление работы страницы.
Кроме этого пользователи могут ходить по ссылкам ведущим на 404 результат, о проблеме отказов я уже сказал выше.
В твоей буйной фантазии накапливаются тысячи 404-х ошибок.
Если нет реальной практики, открой хотя бы сторонние кейсы и посмотри как люди работают с массовыми 404 ошибками.
Если лень и снова есть желание поерундить, то хотя бы представь, что по ссылкам ещё могут ходить пользовали и пользователи вместо необходимой информации могут получать 404 ответы. Это отказы, а отказы напрямую влияют на поисковое ранжирование.
TC не мучайтесь сомнениями, найдите ту часть кода, где есть ссылки на эти файлы и удалите ссылки. Этого достаточно.
Правильно, пускай захламляется.
Поисковые роботы вместо индексации новых документов будут ходить по сохранившимся ссылкам, ведущим в 404 - нормально.
Если ссылки остаются, ничего ПС не забудет, будет продолжать долбиться.
Про поисковую квоту мы при этом не думаем, про распределение весов тоже - пусть себе накапливаются и в статистике глаз радуют!
Молодец 👍