- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пациент
Страниц по Яндексу - >5000
Страниц по Google - 329
Что это может быть за фильтр и как исправить?
Рад буду вашей помощи, гугловоды :)
не уникальный контент:
рерайте материалы или закупайте ссылки.
Пациент
Страниц по Яндексу - >5000
Страниц по Google - 329
Что это может быть за фильтр и как исправить?
Рад буду вашей помощи, гугловоды :)
У вас, милейший, прямое нарушение авторских прав, да и ещё с Яндексом связали ...
Sergsho,webrock
По поводу контента - контент НЕ уникальный, но для Google это не обязательно. У меня была парочка практически идентичных сайта под АГС Яндекса за неуникальный контент, но в Google они сидели плотно и всестранично. Эксперименты проводил чуть меньше 3 месяцев тогда. Возможно не дождался пока пофильтруют Гуглы?
Ссылки - это не проблема и на данный момент вопрос решается
Авторские права - нарушение есть однозначно, однако я не думаю что Google автоматически определяет что есть плохо и фильтрует. Не теория, сам тестировал.
К примеру, на сайте будут только описания (возможно обзоры) игр. Без гиперссылки на скачивание. Вы действительно думаете что из-за этого будут сняты санкции? Следуя такой логике, за подобный ресурс вообще гугло-казнь будет. (18т в индексе спокойно себе живут)
Продолжаем делиться мыслями пожалуйста. Возможно истина где-то рядом
Нет (не вижу) robots.txt. Соответственно дубли страниц категорий, архивов, вообщем, весь пакет прелестей от дле.
Авторские права - нарушение есть однозначно, однако я не думаю что Google автоматически определяет что есть плохо и фильтрует.
не автоматически конечно, а вернее не мгновенно, а только после обработки данных.
сейчас Гугл редко накладывает бан на сайты, целиком и полностью, он держит в себе весь контент но понижает в выдаче очень сильно.
просто русскому Гуглу ещё небыло команды жестоко бороться с такими сайтами, но вот если вы разместите Adsense, то вероятность получения замка на аккаунт, очень большая.
Для удаления старого не нужного материала
Нет (не вижу) robots.txt. Соответственно дубли страниц категорий, архивов, вообщем, весь пакет прелестей от дле.
Вы из прошлого))) Робот нужен для запрета страниц, дубли гугл автоматом о второй индекс пошлет или вообще не включит в индексацию.
---------- Добавлено 29.02.2012 в 09:34 ----------
infin1ty, Я уверен, что прошлые подобные проекты были не столь конкурентными как данный, вкратце объясню и с меня хватит)
Для гугла есть разница, у вас не уникальный контент, такой же как еще на сотне других сайтов или же на тысяче (вдумайтесь).
Кстати насчет "неважности" уникального контента вы ошибаетесь, если вы правильно оптимизируете страницу, то можно размещать контент далеко не с 100% уникальностью, но полный "дубль" он добавит во второй индекс.
infin1ty, Я уверен, что прошлые подобные проекты были не столь конкурентными как данный, вкратце объясню и с меня хватит)
Да нет, они то как раз были более конкурентные. Я имею ввиду и страниц было в разы больше
Для гугла есть разница, у вас не уникальный контент, такой же как еще на сотне других сайтов или же на тысяче (вдумайтесь).
Кстати насчет "неважности" уникального контента вы ошибаетесь, если вы правильно оптимизируете страницу, то можно размещать контент далеко не с 100% уникальностью, но полный "дубль" он добавит во второй индекс.
Расскажите поподробнее про второй индекс.
ps. я не зря приводил в пример сайт выше. Эксперименты по полному клонированию проводились в том числе и на нем. Правда и цель экспериментов была чуть иная. Все прекрасно сидело в индексе.
Да нет, они то как раз были более конкурентные. Я имею ввиду и страниц было в разы больше
У меня, с левым контентом сидел один сайт в 3-ке, теперь его вообще не видать)
Расскажите поподробнее про второй индекс..
Это долго.
если контент на сайте неуник - то всегда нужно быть готовым к вылету