- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
На данный момент Яндекс не умеет определять первоисточник - это факт с которым не поспоришь.
Хотелось бы в виду этого услышать комментарии.
На данный момент Яндекс не умеет определять первоисточник - это факт с которым не поспоришь.
Хотелось бы в виду этого услышать комментарии.
вопрос наверно задан мне, т.к. на комментарий представителей Яши врядли кто расчитывает :)
ну не умеет и что? однако это не мешает ему удалять из индекса то что он считает дубликатом или накладывать фильтры, исходя из своих алгоритмов :)
burunduk, тебе ли не знать что не дубли он удаляет в прямом понимании этого смысла, а гс по мнению алгоритма. Масса сайтов вылазят с одним и тем же контентом, и при этом не под какие фильтры не попадают. Потому что с остальными факторами у них все в порядке. "Первоисточник" тут дело второстепенное. Не в контенте дело а в ссылочном и прочем.
Тчорт - ехать далеко :) Покупаете дешевые ссылки с фразами из текста документа что ли?
Ceres, ну так новый сайт со 100% копипастом в индекс далеко не всегда попадает :), да и со старыми возникают проблемы и далеко не все они гс даже с точки зрения алгоритма пс.
да контент это только один из факторов, но исключить один из отрицательных факторов это разве плохо?
Тчорт - ехать далеко Покупаете дешевые ссылки с фразами из текста документа что ли?
попробуйте, вдруг что получиться 🙄
У меня есть свои работающие метОды на тему, к примеру - как вытащить сайты из под автоматических санкций :) Но в массы пускать такое нельзя.
Насчет защиты - хз - был один у меня случай когда сайт целиком пропал из индекса - глянул - а сцуко и потырили контент и целиком сперли сайт много раз всякими извращенными способами разместили и с ссылочным замутили всякую ересь (видать ученики твои стараются) :) Я подборочку из вебархива сделал и отправил яндексоидам - извинились и поставили все на свои места.
Леша - а если, этим же способом ворованную статью защитить ? что будет ?
Diversant, будет в индексе :)
Леша - а если, этим же способом ворованную статью защитить ? что будет ?
Diversant, будет в индексе :)
Все-таки burunduk, по-моему вашу тему правильнее назвать так "Защиты от воровства контента больше не существует" 😂
T1sha, ну так гс имеет смысл только в том случае если расходы на него (материальные/временные) минимальны, при любых дополнительных вложениях (финансы/время) теряет смысл их делать :)
не вижу смысла в подобном списке
Да ладно, лукавишь, как и те, кто отказывается списки обзванивающих с предложением раскрутить выложить.