- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
ИМХО, можно преодолеть порог индексации отказавшись на время от определения сателлита. Созданная однотематичная сеть сайтов, не перелинкована между собой никак, нет исходящих ссылок, контент уникальный. Что создает полную похожесть на молодые сайты. Чтобы сеть попала в индекс - прогон по каталогам, рейтингам, доскам. Обычно так начинают свою жизнь все сайты.
Уже после индексации данной сети, мы превращаем ее в сателлиты. Таким образом, порог будет преодолен, хотя уйдет больше времени.
franklin90, полноценно на сетке 300 доменов в info репрезентативную выборку не построишь... имхо... у меня зайдествовалось совершенно другое количество сайтов, различные доменные зоны, подходы и т.д.
Goword, порог может существовать не одномоментно, а всегда! С этим может быть связано и то, что некоторые сайты выпадают из индекса после того как туда попали... А потом успешно возвращаются... То есть объективно может существовать миграция, как бы, это сказать... То есть это те сайты, которые близки к этому порогу индексации что ли... имхо
gutako, кроме 300 сайтов в info есть и еще сайты в других зонах :)
IP разные. NS пока один.
То есть: IP все из разных сетей класса В или С? Или в личку покажите маски сетей...
Надеюсь "разные" IP не по схеме:
AAA.BBB.CCC.xx1
AAA.BBB.CCC.xx2
.......................
AAA.BBB.CCC.254
di_max, разные по С и D
Кстати!
Вот еще инфа к размышлению из личного опыта.
Колбасило маршрутизаторы на канале. "Маршрутизили" они как хотели...😂
Из Питера в Москву - через Стокгольм, Лондон, Германию...
Заказчик решил повторить размещение в Директе, а саппорт отвтеил отказом.
Мол сайта заказчика не "виден"...
Саппорт - фиг с ним, а если роботы?...
Индексация будет отложена до следующего цикла.
Я к тому, что сами каналы имеют свойство "мигать", что обясняется все возрастающей забитостью самих каналов...😒
Ни на чем не настаиваю, но есть чисто технические проблемы, не связанные с самим Я, но в общем влияющие на индексацию...
di_max, разные по С и D
Если зареганы за одним ISP, то могу считать как "единый блок"...
Классическая схема: ISP должен иметь как минимум 2 разных сети класса С.
И берут IP типа: AAA.BBB.CC1.xxx и AAA.BBB.CC2.xxx
Все условия соблюдены.;)
gutako, Тарас, респект за такой наглядный подход! Готовишься к конфе? :)
По теме, сам пару месяцев изучаю свой случай... но как-то прикидывая в голове первые 10 факторов перехожу на пиво :( Посему такие есть добавки:
1. Возраст сайта значения не имеет! (У меня есть сайт с 2001 года и 2 месяца как пропал, было 100К страниц) - это не фактор, так к слову.
2. Имеет место "биография сайта" - т.е. если сделали сайт на 1000 страниц, потом Я его индексит, после следующей индексации ничего не поменялось кроме появления внешних ссылок - то в даун. Соответственно, роботами фиксируются какие-то изменения на сайте.
3. Слишком много рекламы. Если есть РСЯ, Бегун и Эдсенс и редко меняется контент, то повод пропасть.
4. Сопли гугла появились у Я... это предположение. Только работает оно так - сайт индексится и все вроде Платон пишет ОК, но в индексе - 0 страниц (хотя реально страницы есть). Означает видимо не уникальный контент или плохую биографию (пункт 2) и отстутствие обновлений сайта.
К этому следует добавить плохую работу роботов, т.е. и совершенно нормальный сайт может попасть в ноль. Ceres, считает что 1 к 1 слетают сателиты и СДЛ, имхо это недалеко от истины. Хотя, если сайт отстегивает Я в виде Маркета или Директа, то его несложно вернуть - я так вернул 3 сайта.
P.S. Есть еще пара подозрений, но пока не могу поверить что роботы на такое способны...
seovlad, описанные мною факторы вполне можно определять по отдельности автоматом... возможно они совершенно не такие или другие, но мнение толковых людей понемногу сходятся = сателлиты фильтруют... и поверь их фильтруют не руками!!! В отдельности фактор нельзя рассматривать каждый - играет роль их совокупность... имхо... Наиболее значимые: контент, исходящие и их различные параметры, отношения и т.д. 1 к 1 они слетать не могут... поверь, у меня выборка очень репрезентативная :-) И надеюсь, что довольно близко то время, когда я с 99,9% уверенностью смогу запихивать на очень долго сетки сателлитов... имхо...
P.S. По поводу конфы: ситуация скорее всего очень схожа будет с докладом Каширина... Окончательного ответа не было пока...
И надеюсь, что довольно близко то время, когда я с 99,9% уверенностью смогу запихивать на очень долго сетки сателлитов... имхо...
Надеюсь поделитесь секретом :)
PS готов поучаствовать в опытах :)