- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени форумчане!
Сейчас у сайта имеются 46000 дублей search внутреннего поиска...
Если я их обрублю через роботс.тхт одним разом как ПС воспримут такое?
Нормально воспримут я так 80к страничек отключил разом, на след месяц индексация в раз 5 быстрей пошла
Отправлено с моего Redmi 3S через Tapatalk
У меня имеются 11 страниц сгенерированных поиском на которые ведут внешние ссылки сделаные пользователями сайта
/search.htm?word=hdg
/search.htm?word=102
/search.htm?word=%E2%EB%E0%E3%EE%EC%E5%F0
/search.htm?word=U8
/search.htm?word=310
/search.htm?word=305
/search.htm?word=MSO
/search.htm?word=1800
/search.htm?word=200
/search.htm?word=dso
/search.htm?word=0210
Как сделать, что бы сохранить их вес? Ведь я обрубил в роботсе /search.htm
---------- Добавлено 07.06.2017 в 16:43 ----------
ссылки на них идут с поискового портала ngs.ru
по 2 ссылки на каждую страницу search описанную выше
---------- Добавлено 07.06.2017 в 16:48 ----------
Как будет проходить индексация сайта, если отсутствует карта сайта?
Если я их обрублю через роботс.тхт одним разом как ПС воспримут такое?
Нормально, т.к нет другого варианта.
Как сделать, что бы сохранить их вес?
Они не имеют веса, т.к мусорные. Так бы можно было бы генерировать кучу дублей и прокачивать определенные страницы.
Hammer8, можно ещё вопрос?
Как быть с дублями - Яндекс директа?
/descr11024.htm?_openstat=ZGlyZWN0LnlhbmRleC5ydTsxOTQ4MjM5OTsyMzc1MzEwMDM2O3lhbmRleC5ydTpwcmVtaXVt
Дубль
Страница дублирует уже представленную в поиске страницу /descr11024.htm. Укажите роботу предпочтительный адрес с помощью 301 редиректа или атрибута rel="canonical".
Как быть с дублями - Яндекс директа?
А чем проблема? Можно 2 одинаковые страницы размещать, одна в Директе, вторая в органике.
А чем проблема? Можно 2 одинаковые страницы размещать, одна в Директе, вторая в органике.
Яндекс Вебмастер ругается )
---------- Добавлено 07.06.2017 в 17:37 ----------
иной раз в органической выдаче стоит страница из директа
иной раз в органической выдаче стоит страница из директа
Разные метки ставьте для отслеживания.
Hammer8, ещё вопрос последний в этом топике) Страницы пагинации для категорий интернет магазина
Если я на главную страницу поставлю каноникал а на последующие некст и преф, то как будет происходить индексация товаров на 2ой и далее страницах? Т.к. карты сайта у нас нету временно по технической причине.
Как сделать, что бы сохранить их вес?
link rel canonical
Укажите роботу предпочтительный адрес с помощью 301 редиректа или атрибута rel="canonical".
Ну так и укажите)) link rel canonical
Страницы пагинации для категорий интернет магазина
rel canonical на первую страницу
то как будет происходить индексация товаров на 2ой и далее страницах?
Какие открытые ссылки робот найдет на странице, туда и пойдет.