- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Думаю создать карту сайта. На одной странице 250 ссылок на внутренние страницы. Итого получим 800 страниц. И купить на каждую страницу внешнюю ссылку.
xml sitemap есть родительский, где есть ссылки на разные xml
А, может, стоило над этим подумать перед тем, как создавать эти 200.000 страниц?
По сути: никак. Если даже скормите,- они не перетравятся и будут выброшены из индекса...
а что важнее? вбухать их в индекс или вбухать сайт в бан?
а что важнее? вбухать их в индекс или вбухать сайт в бан?
вбухать их в бан менее интересно, конечно). А что реально могут за это забанить?
вбухать сайт в бан
Бред (c)TheWishmaster А с чего это сайт в бан уйдет? на копипасте существуют крупные проекты, например СМИ сайты и т.д. Вопрос в другом, что хочет получить ТС из всего этого?
А с чего это сайт в бан уйдет?
Заголовок топика "Как скормить 200.000 страниц с неуникальными текстами"
Сайты которые живут за счет не уникального контента старые, трастовые и цитируемые. Если каждый сайт начнет делать масштабный копипаст, что от инета останется?
Тем более неунилькальный контент идет зачастую со ссылкой на источник + есть уникальная инфа, которая поддерживает сайт
А тут такие обьемы 200.000......
Заголовок топика "Как скормить 200.000 страниц с неуникальными текстами"
Сайты которые живут за счет не уникального контента старые, трастовые и цитируемые. Если каждый сайт начнет делать масштабный копипаст, что от инета останется?
Тем более неунилькальный контент идет зачастую со ссылкой на источник + есть уникальная инфа, которая поддерживает сайт
А тут такие обьемы 200.000......
200.000 страниц разных объектов(так называемые poi). Автоматический сгенерили тайтлы, кое-какой текст, но в целом контент не уникальный и в ближайшее время не думаю, что сможем для каждой страницы хотя-бы по 500 знаков описания сделать.
Но хочется услышать мнение экспертов только по одному моменту - xml sitemap-а достаточно, чтобы быть уверенным, что мы все сделали правильно и надо ждать индексации или все таки сделать карту сайта и купить на эти страницы ссылки?
А что реально могут за это забанить?
Это одна из самых распространенных причин бана:)
Уникальное описание по 500 знаков, не спасут)
Смысл покупать? Если контент не уникальный он в выдаче долго не продержится. Яндекс выплюнет его в ближайшее время а гугль запрятает за ТОП 60 и намного дальше. Бессмысленная трата денег.
Лучше на эти деньги на бирже контента уникального закажите (на эту же тематику). Толка будет гораздо больше
Детишки, а у кого в последние 6-8 месяцев уходили сайты в старый добрый бан?
Если контент не уникальный он в выдаче долго не продержится.
рассмешил, правда.
И купить на каждую страницу внешнюю ссылку.
малова-то будет
Детишки, а у кого в последние 6-8 месяцев уходили сайты в старый добрый бан?
у меню ((( старьё правда голимое...но сначало было в индексе, а потом вылетело напрочь...