- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Оптимизация сайта под мобильные устройства: что стоит знать заранее
Для тех, кто еще не
Сервис Rookee

В поиске Яндекса появился новый блок с рекомендациями событий
Включающий дату и время проведения
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет, в общем сразу к делу, что имеем:
1. Запущены около 3-4 недель назад два разных сайта - разной тематики;
2. Сайты состоят из главной страницы - хорошо отрисованная, прописаны чёткие метатэги и прочее прочее;
3. Тематика сайтов 100% коммерция;
4. Сайты не относятся друг к другу ни в плане тематики - ни в плане размещенного хостинга (хост у всех разный - так же как и соответственно iP адрес);
5. Установил на каждую главную - Яметрику, подключил Явебмастер, так же и с Гуглом;
6. Неделю назад (прошло после загрузки на FTP главной страницы около 2-х недель на каждом сайте) - начал анализировать процесс индексации в Яндексе и Гугле;
7. Обратил внимание что главные все проиндексированы - НО!
8. По запросам которые заточены главные страницы этих 2-х сайтов - по самым микро НЧ запросам - на 1 месте стоит сайт-сборщик/парсер с дубликатом первого сайта по запросу - и второго сайта по запросу.
Страницы генерируются автоматически я так понимаю и выводятся в отдельную категорию.
А так как этот сайт-парсер имеет ИКС 380 (проверил) - то соответственно все мои 2 сайта с главных страниц считаются дубликатами - этого сайта-парсера.
По запросам их нет в ТОП 100 Яндекса.
Но есть этот сайт-парсер и отдельной страницей - аля слепка главной на 1 месте по всем микро НЧ запросам.
Пока сам пытаюсь разобраться что это такое новенькое появилось - но судя по домену он был зарегистрирован буквально 2 месяца назад.
Есть подозрение что это какой-то бот пробегает по новым зарегистрированным доменам и автоматически создает страницы дубли - которые вытесняют официальные сайты. Так же в виде эксперимента загрузил 1 статью - то есть на одном сайте кроме главной ещё 1 статью добавил - подождал пару дней и она появилась в данном сайте-парсере...
То есть по сути - кто-то создал целый механизм-зеркало, который ворует и создает автоматически дубликаты новых страниц появляющихся в интернете, которые проиндексированные в том же Яндексе....
Вопрос к знатокам - что это такое? Пруфы чуть позже скину со всеми скринами - не буду сейчас палить и свои новые сайты и эту непонятную пока тему.
UPD. Забыл добавить - в Яндекс метрике за эту неделю было 7 переходов с органики, но данные доступны как переходы с этого сайта-сборщика, и ключевые слова не видны..
Есть подозрение что это какой-то бот пробегает по новым зарегистрированным доменам и автоматически создает страницы дубли - которые вытесняют официальные сайты. Так же в виде эксперимента загрузил 1 статью - то есть на одном сайте кроме главной ещё 1 статью добавил - подождал пару дней и она появилась в данном сайте-парсере...
Схеме с таким парсингом уже лет 10-15. Популярные сайты тоже клонируют, но в силу их траста клоны не вытесняют сайт из ПС
Хз - честно вижу такую схему впервые, так как главная страница этого сервиса-зеркальщика имеет не хилую массу и наращивается автоматически ежесекундно (как так за 2 месяц кочнуть ИКС до значений 380 в полном автоматическом режиме - это нужно постараться). Кстати этот сервис-зеркальщик закрыт от всех систем анализаторов. Ни pr-cy / ни даже ahrefs нельзя проверить сколько в реальности проиндексировано страниц - кроме как только вручную ввести данных в том же Яндексе или Гугле. Что тоже наводит на мысли..
Да и страницы выполнены в формате отдельных URL - название которых идет точное название доменного имени + TITLE. То есть создается по единому шаблону формата <Название URL> + <Название компании> + <Title>
Возможно раньше какае-то схема была по этой части - но не настолько продуманной как сейчас, такой ещё вопрос как эти кто там создавал данный механизм зеркальщика умудрился получить доступ к базе новых зарегистрированных доменных имен? Ведь этой информации нет в открытом доступе? А значит где-то дырка с данными?
вижу такую схему впервые
поздно Вы проснулись, в Яше давно котируются от слова "кот" сайты-парсеры, которые рефератят несколько страниц с разных сайтов ручками или парсером и создают франкенштейновский лонгрид на 20 кило с оглавлением-навигацией и картинками с лого сворованных сайтов. Так создаются ценные с точки зрения яндексоидов страницы. Все они в РСЯ. Все законно - стоит текстовая ссылка на источник. Если подавать в суд - владелец внезапно окажется бомж или глубокий инвалид.
У меня даже мои рекламные баннеры воруют.
поздно Вы проснулись, в Яше давно котируются от слова "кот" сайты-парсеры, которые рефератят несколько страниц с разных сайтов ручками или парсером и создают франкенштейновский лонгрид на 20 кило с оглавлением-навигацией и картинками с лого сворованных сайтов. Так создаются ценные с точки зрения яндексоидов страницы. Все они в РСЯ. Все законно - стоит текстовая ссылка на источник. Если подавать в суд - владелец внезапно окажется бомж или глубокий инвалид.
У меня даже мои рекламные баннеры воруют.
Вы путаете - я знаю что такое связка-завязка +100500 статей в одну через прогу и прочее.
Здесь же тупо зеркало которое индексируется и у которого есть данные к новым сайтам. Возможно только тестят технологию - но как за 2 месяца ИКС нарастить до 380 с посещалкой на не свои сайты.
Тут другой формат - такого который ещё не встречал.
p.s. В общем без пруфов так и будут все гадать на кофейной гуще. Придет время и скину все примеры...
но как за 2 месяца ИКС нарастить до 380 с посещалкой на не свои сайты...
Почему именно нарастить? Может перехваченный дроп.
Почему именно нарастить? Может перехваченный дроп.
Ну что значит "воруют"😀?
Ваше же на месте осталось? Ну вот, получается, копируют, а не воруют.
парсят все подряд? хм, по описанию похоже на альтернативу archive.org 😎
Я сейчас в гугле все новые страницы засовываю вручную в вебмастер для индексации сразу после публикации.
+ два сайтмапа + перелинковка
Иначе твой контент скопируют и раньше засунут в гугл, целые отрасли на этом живут. И некоторые сайты годами пишут контент в никуда. Они не понимают, почему они три года пишут новости, а посещаемости нет.
Парсеры автоматические надо банить по мере выявления по IP. И отправлять жалобы на удаление контента в гугл.
Насчет яндекса сложнее, но есть способы и там.