- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сегодня столкнулся с таким странным явлением. Можеть быть это новый фильтр, а может просто странное стечение обстоятельств.
Есть у меня один сайтиг со 100% "вторконтентом" (тупо напарсенный) на 40000 страниц. Вчера был ещё в индексе, а сегодня от него 10 страниц осталось. Нуу.. мы люди привычные.. убил его яшка - так и хрен с ним, но странную штуку заметил.. Я этот сайт прогнал по своей специальной базе и "прокачал" 10 страниц на нём по всяким НЧ и СЧ .. Так вот, все 10 оставшихся страниц (все до одной!) - это именно те, что я прокачивал (приверно по 100 ссылок на каждую было поставлено). Ой что то мне кажется, что случайное совпадение маловероятно и это новая штука-дрюка от Яши по борьбе с парсенными гавносайтами. Типо, если есть ссылки на страницу - будет в индексе.. нету? нафиг с пляжа. Помоему логично. а?
Заметил аналогичную ситуацию с новостным сайтом. Сайт автонаполняемый. Из 25 к страниц осталось в индексе - порядка 80. Причём эти 80 страниц - являются главными в своём разделе, и на каждую из этих страниц стоит порядка 50-90 ссылок, с второстепенных страниц других сайтов. На случайность действительно непохоже. Однако, логика тут действительно прослеживается: если контент неуникален, и на него никто не ссылается - он нафиг в индексе не нужен. Вполне возможно, что Яндекс будет анализировать сайты с неуникальным контентом на предмет наличия входящих ссылок, и тот сайт, у кого ссылок больше(или передаваемые ими вес больше) - будет считаться с точки зрения Яндекса - первоисточником.
А если сделать внутренню перелинковку? Или речь идет лишь о внешних ссылках?
Может наконец-то Яша почистит индекс от ГавноСтраниц... Ээх - мечты, мечты...
И Вы это только заметили? Да у половины каталогов еще с летней чистки такая-же фигня - захожу, жму кнопочку на панели сеокваке - в индексе < 100 страниц, смотрю - главная и главные страницы разделов, все понятно. Таких сайтов куча и давно.
И Вы это только заметили? Да у половины каталогов еще с летней чистки такая-же фигня - захожу, жму кнопочку на панели сеокваке - в индексе < 100 страниц, смотрю - главная и главные страницы разделов, все понятно. Таких сайтов куча и давно.
меня больше удивило то, что это похоже на фильтр и это сработало с абсолютной точностью (что очень не похоже на яндекс, где всё глючит и отваливается).
внутренняя перелинковка в полном ажуре.. карты сайта там и пр.. все страницы сайта не глубже 4-х кликов от главной.
есть такое и как минимум с сентября, два промо сайтика (сателита) улетели после того как снял ссылки на них