- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня писал статью про дублированный контент и вот пришла в голову такая мысль. Один из случаев дублированного контента - это когда одно и то же содержание доступно по разным URL. Многие блоги публикуют посты не под катом, целиком. Получается, что заглавная страница и страница с собственно постом дублируют друг друга. Все бы ничего если бы Google адекватно выбирал, какой URL показывать в результатах, но бывает и так, что обе страницы могут быть отфильтрованы и убраны из индекса, как описано в этом треде: http://www.webmasterworld.com/forum30/31430.htm
У кого какие мысли на этот счет?
Как раз сегодня проверял свой блог на blogspot. Только архив по месяцам чувствуют себя в индексе нормально, сами посты - "Дополнительный результат"...
Логика гугла впринципе понятна... но мне наверное было бы выгодней, чтоб страницы с отдельными постами не считались за дубли, лучше пусть архив зафильтрует… Как так сделать идей нету… "катить" посты не хочу…
ну так архив то можно выключить... только проблемы саплиментал это не решит...
msv, ждать и ставить ссылки. Со временем образуется.
ну так архив то можно выключить... только проблемы саплиментал это не решит...
Ну не факт. У меня была полная задница похожая... поработали над структурой ссылок, убрали принт версии, фиды локальные. Через пару апов многие страницы нормально проиндексились и вышли из сапплементала.