- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть база файлов определенного назначения. Около 50000 шт. Есть англоязычный сайт (ему около 4 лет), на котором под каждый файл создана отдельная страница, заточенная под "download имя_файла". На каждой такой странице есть немного уникальной информации - имя файла, размер файла, дата его выпуска, дата загрузки на сайт. Чуть более года назад в день на сайт приходило около 20000 человек. С каждой пандой траф по-немногу падал и в итоге сейчас на сайт приходят около 5000 человек в день. Помимо этого около 70% страниц сайта в соплях.
У меня появились мысли сделать вот что:
1. Добавить на каждую страницу уникальное описание файла (500-1000 символов).
2. Написать 10-15 разных текстов (200-300 символов) про эти файлы, оформить их как советы (TIP) и в случайном порядке добавить по одному на каждую страницу.
3. Написать 5-10 разных текстов (100-150 символов) про то, то файлы были проверены антивирусами и тоже в случайном порядке добавить по одному на каждую страницу.
Сочетания текстов будут выбраны для каждой конкретной страницы один раз и далее меняться не будут.
По идее после этого страницы будут менее похожи друг на друга.
Если не ошибаюсь - панда в первую очередь не любит контент, просто сгененированный на основе каой-то базы данных.
Далее:
4. Посчитать кол-во переходов с гугла на каждую страницу за 30-50 дней.
5. Те страницы, на которые с гугла не ходят - удалить с сайта, выставив им 404 - скорее всего они в соплях...
6. Постепенно вернуть удаленные страницы обратно, но уже с другими урлами.
Задача - подружиться с пандой и вытащить хотя бы часть страниц из соплей.
Прокомментируйте пожалуйста план действий...
Можно попробовать...
Какой на этом сайте процент возвратов?
Интересная мысль!
Какой на этом сайте процент возвратов?
12%, а почему Вы спрашиваете? Специфика сайта такова, что подобные файлы нужны довольно редко, т.е. человек зашел, решил свою проблему и ушел скорее всего навсегда...
А сопли-то чем мешают? Вы делаете упор на получения трафика с аола?
Сегодня лазил по статистике li.ru, смотрел переходы. По одному запросу перешёл, вижу, с моего ip страница на 1 месте в топе google.com. Решил быстренько глянуть как в америке ранжируется через аол. Пролистал десяток страниц выдачи, нигде нет моего сайта. Проверил через классический прокси выдачу гугла, так и есть, на 1 месте.
Потом разобрался. Это страница в соплях. Аол не показывает сопливые страницы, а гуглу до лампочки все эти сопли, трафик идёт. :)
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
А сопли-то чем мешают? Вы делаете упор на получения трафика с аола?
Сегодня лазил по статистике li.ru, смотрел переходы. По одному запросу перешёл, вижу, с моего ip страница на 1 месте в топе google.com. Решил быстренько глянуть как в америке ранжируется через аол. Пролистал десяток страниц выдачи, нигде нет моего сайта. Проверил через классический прокси выдачу гугла, так и есть, на 1 месте.
Потом разобрался. Это страница в соплях. Аол не показывает сопливые страницы, а гуглу до лампочки все эти сопли, трафик идёт. :)
Я читал, что если страница в соплях - она уходит далеко вглубь результатов поиска. Разве не так?
Я читал, что если страница в соплях - она уходит далеко вглубь результатов поиска. Разве не так?
не так
не так
Расскажите пожалуйста чуть подробнее... Для гугла вообще не стоит обращать на это внимание?
не смогу найти быстро источник, но суть такова: в новых en гуглах соотношение страниц с контентом и страниц без него достаточно сильно говорит о качестве сайта
так что в целом стратегия правильная
на практике: средний ключ на сайте класса "15 страничный вылизаный html" продвинуть в разы легче чем сайт с 10к страниц из которых 9.9к без 1000 символов уник текста
А будет ли смысл от переделок, если панда уже невзлюбила сайт? Достаточно ли просто добавить контент на каждую страницу, или нужны еще какие-нибудь действия помимо этого?