- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую.
Есть сайт, на котором проиндексировано >700 страниц. В основном индексе сейчас >70 страниц, остальное в соплях. Из этих страниц 80% - нечеткие дубли анонсов статей. Сознательно их не закрываю от индексации, т.к. на них есть трафик.
На каждой странице-дубле анонсы выводятся разные (рандомом), на каждой странице есть небольшое описание на 3 предложения. Описания в рамках всех дублей различаются на 2-3 слова (тех. информация по конкретной странице).
Эти дубли изначально попали в сопли. Сделал, как писал выше, рандом анонсов со ссылками на внутряки, чтобы в целом контент страницы отличался. По структуре кода страницы полностью идентичны.
В дубли попали некоторые внутряки со статейным контентом. Сделал рандомную перелинковку похожими статьями.
Все это помогло увеличить за 2-3 недели страницы в основном индексе с 30 до >70.
У меня такой вопрос к знающим людям - что еще можно предпринять, чтобы больше страниц и быстрее вышло из-под соплей? Знаю, что может помочь добавление контента на 1-1,5к зн. на каждую страницу, из-за чего каждая страница будет уникальна как в рамках сайта, так и всего индекса. Но этот вариант хотелось б рассматривать в последнюю очередь, т.к. страниц очень много и писать, кроме бредо-сеотекста тут нечего.
Еще уточню, что на всех внутряках были переписаны заголовки и титлы. После чего сайт был через гугл вебмастер подан на переиндексацию. Может ли это как-то поспособствовать выходу из сопливого индекса?
поставить социалки на страницы, если контент полезный - плюсанут, и появятся соц.ссылочки :)
Что касается не пассивных методов, то можно сделать блок ссылок на нужные страницы на главной, который будет по крону обновляться (не рандом).
P.S: twitter+youtube+vk+fb - вполне могут вытащить страницы из соплей.
поставить социалки на страницы, если контент полезный - плюсанут, и появятся соц.ссылочки :)
Какие именно социалки посоветуете? На ум приходит G+ и твиттер.
Что касается не пассивных методов, то можно сделать блок ссылок на нужные страницы на главной, который будет по крону обновляться (не рандом).
Спасибо, хорошая идея. Рандом при каждом посещении роботом страницы - треш, конечно... Только поставлю на страницы-дубли, они щас вообще никак между собой не перелинкованы. Некоторые в основном индексе, с них, надеюсь, и будет гуголь зохавывать остальное, что в соплях.
А с какой периодичностью ставить обновление по крону? Я так понимаю, зависит от средней периодичности обхода гуглоботом страниц. Есть какая-то зависимость частоты обновления ссылочного блока от частоты посещения страниц роботом?
P.S: twitter+youtube+vk+fb - вполне могут вытащить страницы из соплей.
Твиттер, G+, FB вроде как индексируется гуглем. За VK не знаю... Ютуб - вряд ли получится поставить, ролики есть, но они все чужие (АП не нарушают) =).
Из соплей выводят уникальные Title + Description (проверьте их в первую очередь)
Из соплей выводят уникальные Title + Description (проверьте их в первую очередь)
Страниц для шаманства с тайтлами слишком много. На статейных страницах тайтлы все переписал.
Какие именно социалки посоветуете? На ум приходит G+ и твиттер.
Спасибо, хорошая идея. Рандом при каждом посещении роботом страницы - треш, конечно... Только поставлю на страницы-дубли, они щас вообще никак между собой не перелинкованы. Некоторые в основном индексе, с них, надеюсь, и будет гуголь зохавывать остальное, что в соплях.
А с какой периодичностью ставить обновление по крону? Я так понимаю, зависит от средней периодичности обхода гуглоботом страниц. Есть какая-то зависимость частоты обновления ссылочного блока от частоты посещения страниц роботом?
Твиттер, G+, FB вроде как индексируется гуглем. За VK не знаю... Ютуб - вряд ли получится поставить, ролики есть, но они все чужие (АП не нарушают) =).
Да, желательно просчитать этот момент. Однако, скажу сразу, что на моих сайтах бот буквально живёт т.е рандом - вполне ок. Контент обновляется раз по 20 за сутки, поэтому RAND-блок самое оно.
На сайте сколько страниц? И ещё, каков объём ежесуточного трафика с Google?
И да, VK отлично индексируется (уже более года, в Google + Yandex).
P.S: спрашиваю для того, чтобы более качественно оценить ситуацию.