- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
!kt0, по высокочастотникам все уже в ТОПе. А ценен каждый посетитель, уж больно товар дорогой и покупатель может стать постоянным клиентом.
Kpd, я сколько не думал, так и не понял как можно для 2000 наименований товара сделать структуру нормальную? Если подскажите вариант, буду признателен. Я как подумаю что в будущем может придется работать с каталогом на 100 K - 1 000 000 единиц товара, жить не хочется. Надо ссылки с морды гугла покупать, никак не меньше ;)
а разве не это эму нужно🚬 зто все уж точно переиндексится, а если к томуже формировать список только наполовину рандомно, то получится сквозняк на несколько топовых товаром
Если при каждом заходе ставить рандомный линк, то что мешает боту закэшировать страницу, а потом ее проверить через 10 мин и сказать, что тут клоакинг?
сколько не думал, так и не понял как можно для 2000 наименований товара сделать структуру нормальную? Если подскажите вариант, буду признателен.
Нормальной структуры, наверно, действительно не получится, но все же лучше сделать древовидную и начать ставить ссылки на узлы. Сначала на узля первого уровня, потом на узлы второго итд. В этом случае получим постепенную индексацию + PR сразу на все страници, что на долго избавит от конкурентов.
Для начала наверное все же сделаю sitemap, подожду с месяц и посмотрю что будет. А так скорее всего надо ставить ссылки на общий список, на все эти 200 страниц и тоже смотреть какой результат будет.
А в чем проблема с 2к страниц? У меня по 50-80к кушал на ура.
wilson, а какая перелинковка была у этих страниц?
<offtop>
Интерсно, сколько нужно спамить страницу с 50к ссылок на непроиндексированные страници, чтобы их сожрало? ;) 😕
</offtop>
Ну зачем же делать страницу с 50к ссылок. Делается дерево с 2,3, да даже 4-ной вложенностью. Затем с хорошего сайта (10к+ страниц, пр главной 5-6) ставим сквозняк. 2-3 дня, и гугл все эти 50к страниц скушает элементарно.
Ну зачем же делать страницу с 50к ссылок. Делается дерево с 2,3, да даже 4-ной вложенностью. Затем с хорошего сайта (10к+ страниц, пр главной 5-6) ставим сквозняк. 2-3 дня, и гугл все эти 50к страниц скушает элементарно.
Это-то понятно. У меня просто теоретический вопрос, который пока не проверял ,)
2!kt0
о каком клоакинге тут может идти речь!? эта система была на моих сайтах и все ок было
2!kt0
о каком клоакинге тут может идти речь!? эта система была на моих сайтах и все ок было
Ну я так для примера сказал. Если ситуация повернется так, что на вас настучат конкуренты, то будет к чему придираться...