- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Регулярно затариваюсь на Миралинксе. Пробиваю траст по xtool, чтоб не меньше 5. Конкуренты тоже страдают. Кое как держится DNS и Мвидео, остальные по моей семантике сильно проседают OZON, Citilink, Eldorado. В яше я этих чертей уже обогнал, а в Гугле прям напасть какая-то, массовая пессимизация. И не только у меня.
Я прошу вас привести конкретные примеры как (по вашему же заявлению) из нескольких предложений сделать уникальные товарные страницы на 10K единиц
Повторюсь: Вы меня не поняли. Я не имел ввиду из нескольких предложений, а несколько предложений на страницу.
"Продемонстрируйте пожалуйста свою изюминку, чтобы мы понимали о чём речь." - Я сам в вечном процессе её поиска и вышлифовки. Как допилю окончательно - конечно, Вам первому покажу.
"Задача TC - избавиться от довеска огромного кол-ва неуникальных страниц" - Тут согласен, потому и предложил не избавляться от страниц, как таковых, а освежить их, уникализировать и тогда искалка может подумать, что страницы не совсем статичны, а развиваются/эволюционируют, совершенствуются.
А отрезать их проще всего. Зачем? Что-бы опять залить тех же скучных 10т. стр., только растянув по времени?
Как он будет их уникализировать - его дело. Деньги некуда девать - может заказать 10т статей, или 10т ссылок. У каждого свои методы.
"краулинговый бюджет - это то, какую квоту определит поисковик для планового переобхода. Если рейтинг (траст) у сайта низкий, то поисковик это будет делать крайне вяло, не потому что не может быстрее и больше, а потому что для него не будет такой задачи - оперативно индексировать материалы сайта если они МПК/НКС. " - Да, но по моим наблюдениям даже такие страницы он циклически пересканирует (у меня где-то раз в 2-3месяца всплески, ну и так по ходу. Для чего? По моему для того, что-бы проверить - страницы МПК/НКС или уже есть сдвиги.
Повторю своё мнение - сканирование индексирование и ранжирование - разные процессы (со своими подпроцессами). Но без первого не будет второго, без второго не будет третьего.
Т.е. сканирование - первично. По-этому не нужно ему ставить палки в колёса. И для этого совершенно не обязательно покупать дорогущие VDS/VPS. Достаточно оптимизировать, что есть.
Всё вышесказанное - лишь моё мнение.
Я бы не распостранял свои привычки в поиске на всю потенциальную клиентуру. Все разные, у всех свои привычки.
Я привёл пример как исключение. Если ценность сайта настолько высока - то будут ждать и боты, и люди.
Много таких сайтов? Нынешний интернет - смесь помойки и кладбища.
Но даже в этом случае приоритет - вовсе не у скорости, а у релевантности. Ценность ресурса определяет и краулинговые бюджеты.
сколько доменов куплено на сайт ?
Если рейтинг (траст) у сайта низкий, то поисковик это будет делать крайне вяло, не потому что не может быстрее и больше, а потому что для него не будет такой задачи - оперативно индексировать материалы сайта если они МПК/НКС.
МПК это судя по всему страницы без спроса, верно? У меня на сайте много карточек, которые производитель поснимал с производства и больше не пиарит. Частота таких карточек упала до нуля. Что же это получается, такие страницы нужно удалять? Один производитель сократил модельный ряд до 5 позиций, а было сто. Если их потереть, то от каталога ничего не останется.
Я привёл пример как исключение. Если ценность сайта настолько высока - то будут ждать и боты, и люди.
Если ценность сайта настолько высока , то сайту покакать на искалку. Если сайт будут ждать 5мин - у него есть свой закладочный или прямой тафик, не знаю как правильно выразиться, но тогда предполагается, что про него уже знают, т.е. искалка становится не нужна. Такое бывает у крупных акул - монополистов, банков. Например, когда банк отвалился, а ты всё ждёшь, ждёшь, что-бы снять свою получку. Тогда уж точно не надо особо париться. Но с такими акулами мне, допустим, тягаться бессмысленно, надо реально оценивать свои силы. По-этому, стараюсь набирать баллы там, где получается.
Кстати, боты ждать уж точно не будут им проще на другого клиента переключиться. Это один из проверенных способов увеличения стоимости атаки - резкое увеличение времени ответа на нежелательного бота. Т.е. бот пытается запросить ответ и - ждёт, ждёт, ждёт... Потом уходит по своим краулерским делам... (а, в качестве ответа ему можно гранату подсунуть, гы-гы). На время хватает.
"Много таких сайтов? Нынешний интернет - смесь помойки и кладбища." - Зачем Вы себя так не уважаете? Вы работаете на помойке или на кладбище? Инернет такой, каким его делают веб-мастера.
Или это так, погоревать в стиле "Интернет уже не тот... что при Сталине". Мы живём в реальном текущем мире, а не в воображаемом, идеальном. По этому надо или пользоваться тем, что есть, или делать другую нишу.
Всё вышесказанное - лишь моё мнение.
"Много таких сайтов? Нынешний интернет - смесь помойки и кладбища." - Зачем Вы себя так не уважаете? Вы работаете на помойке или на кладбище? Инернет такой, каким его делают веб-мастера.
Интернет делают ползатели. Спрос. Именно спрос определяет большинство факторов ранжирования.
Кроме того, я не вебмастер, я занимаюсь информационным поиском. И увы, нынешний корпус коллекций документов - это не "ленинка", это "Садовод".
Интернет делают ползатели. Спрос. Именно спрос определяет большинство факторов ранжирования.
Кроме того, я не вебмастер, я занимаюсь информационным поиском. И увы, нынешний корпус коллекций документов - это не "ленинка", это "Садовод".
Ни чего личного. Абсолютно не хотел обидеть. Кстати ни "ленинка", ни "Садовод" мне ничего не говорят.
Каким бы Вы видели идеальный корпус коллекций документов?
Осмелюсь предположить, в основном продвигаемых Вами?))) (ну и ещё пару фундаментальных вещей, типа "Советской Энциклопедии", но с условием, что-бы они были в поиске ниже Ваших)
Ни чего личного. Абсолютно не хотел обидеть. Кстати ни "ленинка", ни "Садовод" мне ничего не говорят.
Каким бы Вы видели идеальный корпус коллекций документов?
Осмелюсь предположить, в основном продвигаемых Вами?))) (ну и ещё пару фундаментальных вещей, типа "Советской Энциклопедии", но с условием, что-бы они были в поиске ниже Ваших)
Если брать "информационку" - меня абсолютно устраивает Google Knowledge Graph, включая англоязычную "Вики" (несмотря на её политизированность) и "Книгу фактов ЦРУ". Максимум подтверждаемых фактов с пруфами, минимум "копирайтинга", спама и попыток что-то впарить (включая идеи).