- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
зачем вам это? подклейку со смыслом надо делать)
В этом и смысл, что дропнутый магазин узкоспециализированный, который практически полностью повторяет мою номенклатуру 2006 года, а мой сайт 2019 г. + дропнутый с хорошими параметрами был и на сколько мне известно не был под черным сео.
В начале была такая мысль с парсингом урла и заголовка дропа, но как это сделать? Сайт как писал выше не в индексе уже как лет 5, а в вебархиве около 80 страниц получилось восстановить.
80 страниц можно и вручную определить что куда направлять. Если сайт так долго не в индексе, то может и не стоит заморачиваться с тем, что куда сопоставить? Просто по списку пройтись и всё. Один дропнутый урл, на один ваш новый - не важно какой.
А по поводу того, как столько редиректов сделать. Ни в коем случае не надо это делать ни в апаче, ни в nginx.
Во первых, это не логично, во вторых, любой запрос на сайт будет определять подходит ли он к этим 10 тысячам условий или нет. От десятка посетителей в один момент это может быть не будет заметно, а вот от сотни уже может и сказаться на загруженности сервера.
80 страниц можно и вручную определить что куда направлять. Если сайт так долго не в индексе, то может и не стоит заморачиваться с тем, что куда сопоставить? Просто по списку пройтись и всё. Один дропнутый урл, на один ваш новый - не важно какой.
А по поводу того, как столько редиректов сделать. Ни в коем случае не надо это делать ни в апаче, ни в nginx.
Во первых, это не логично, во вторых, любой запрос на сайт будет определять подходит ли он к этим 10 тысячам условий или нет. От десятка посетителей в один момент это может быть не будет заметно, а вот от сотни уже может и сказаться на загруженности сервера.
80 страниц определено, а 9920 нет (но можно понять вручную опираясь на url к какой странице она будет перенаправлять). Мне кажется заморочиться стоит т.к эти страницы передадут какой-то траст и возраст поправьте меня если я не прав. Раньше такого не делал.
Почему не логично?
Сайт дроп находится на другом хостинге, отдельном и без разница на тормоза т.к кроме него ничего там больше нет. Вы думаете мой новый сайт от этого будет тормозить?
Сайт дроп находится на другом хостинге, отдельном и без разница на тормоза т.к кроме него ничего там больше нет. Вы думаете мой новый сайт от этого будет тормозить?
Ну если так, то норм.
80 страниц определено, а 9920 нет (но можно понять вручную опираясь на url к какой странице она будет перенаправлять). Мне кажется заморочиться стоит т.к эти страницы передадут какой-то траст и возраст поправьте меня если я не прав. Раньше такого не делал.
Сравнивайте через similar_text, то, что можно. Что нельзя, приводите к одному виду (регистр, язык, удалить лишние символы, цифры при необходимости). А там уже, где больше процент совпадения, с тем и сопоставляйте.
sdfsfsfwqe12323434.html (динамические адреса)
Это не динамические, а самые что ни на есть статические.
(а вообще как по мне - очинка выделки не стоит. Тем более это делать на уровне вебсервера - ахтунг)
Сайт как писал выше не в индексе уже как лет 5
И какой тогда смысл во всех этих редиректах?
Мне кажется заморочиться стоит т.к эти страницы передадут какой-то траст и возраст поправьте меня если я не прав. Раньше такого не делал.
Ты бы сперва выяснил этот вопрос. :)
И да, ты не прав.
А вообще тут всё очень чудно. Заморочился восстановлением трупа с вебархива, купил для него отдельный хостинг, развернул там труп, но при этом всё равно не будет его ни кому показывать, т.к. хочет постраничный редирект на другой сайт.
Чудны дела твои, сеошник :)
Тем более это делать на уровне вебсервера - ахтунг
Технически для map nginx это вообще не вызовет проблем. При отсутствии регулярок мы получим проиндексированное сопоставление ключ/значение и даже 100K+ таких пар будет отрабатывать без проблем. Конечно не помешает подтюнить map_hash_bucket_size / map_hash_max_size.
А вот СЕО полезность этих танцев действительно весьма сомнительна.
Технически для map nginx это вообще не вызовет проблем.
Не считая прописывания 10к правил вручную, ага? :) И удобство чтения конфигов.
При отсутствии регулярок
Еще не факт что они не понадобятся. И вопрос - какие.
Собственно мой посыл был в том, что если и делать такие вещи, то на уровне php или даже html, а не вебсервера.