- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
убито до получения дальнейших подтверждений.
после апа в середине месяца попал под фильтр сайт.
добавленный перед ним контент был неуникальный, но через два дня весь добавленный контент был сделан уникальным (рерайт и проверка через copyscape).
после этого Я все никак не хочет вносить в индекс новые страницы, точнее обновленный контент.
стоит предпринять какие либо действия еще или просто подождать, когда Я всеже учтет изменения?
и вообще я так понял что не каждый ап сайты выходят из под этого фильтра, никто не заметил как часто это случается?
после апа в середине месяца попал под фильтр сайт.
добавленный перед ним контент был неуникальный, но через два дня весь добавленный контент был сделан уникальным (рерайт и проверка через copyscape).
после этого Я все никак не хочет вносить в индекс новые страницы, точнее обновленный контент.
стоит предпринять какие либо действия еще или просто подождать, когда Я всеже учтет изменения?
и вообще я так понял что не каждый ап сайты выходят из под этого фильтра, никто не заметил как часто это случается?
ждать надо еще, слишком мало времени прошло еще :)
после апа в середине месяца попал под фильтр сайт.
добавленный перед ним контент был неуникальный, но через два дня весь добавленный контент был сделан уникальным (рерайт и проверка через copyscape).
после этого Я все никак не хочет вносить в индекс новые страницы, точнее обновленный контент.
стоит предпринять какие либо действия еще или просто подождать, когда Я всеже учтет изменения?
и вообще я так понял что не каждый ап сайты выходят из под этого фильтра, никто не заметил как часто это случается?
А лучше еще бэков новеньких наклепать на страници с новым контентом.
Немного.
Яндекс отменил фильтр "Ты последний"?
/ru/forum/193812
Вопрос такой появился. Есть узкие темы-разделы, где сложно, если не невозможно сделать уникальный текст. Например, рецепты, диеты, инструкции, технические характеристики товаров и т.д. Но без этого сайт получается не полным, пользователь не получает весь нужный ему объем информации. Закрывать в noindex тоже не хочется, т.к. есть хорошие ключевики и терять траф поисковый. Как уменьшить вероятность попасть под фильтр в этих случаях?
Nedo, ну диеты и т.п. рерайтить можно. тех характеристики тоже изменять слова в них где найдется или закрывать их в ноиндекс.
Мне кажется, чем больше соотношнение неуникального контента к уникальному, тем больше вероятность фильтра.
Можно попытаться автоматически менять в тексте некоторые слова на синонимы или хотя бы предложения или абзацы местами.
basterr, ну это если поизвращаться. Есть диеты из двух строк, есть фактически как точный рецепт, все расписано по дням и по продуктам. От вариаций с текстом они для пользователя будут терять информативность, точность и лаконичность. То же и к тех. характеристикам относится. Ведь поменять несколько слов недостаточно или местами переставить. Нужно серьезно править, чтобы в плагиате не быть заподозренным. Что-то, безусловно, можно изменить, а что-то очень затруднительно.
Обсуждать как вору обойти фильтр "ты последний" не представляет никакого интереса. У всех диет, рецептов, инструкций есть свои авторы. Поисковик исходит из идеальной позиции, что в языке гипертекста при необходимости просто дается на авторский вариант и не появля.тся никакие дубли.
Когда же текст пишется самостоятельно, шансы получить дубли стремяться к нулю. Например, если попробовать взять технические характеристики товара на английском языке, где есть хотя бы 10 параметров и отдать на перевод 20 разным людям, я буду сильно удивлен, если среди результатов будет хотя бы 2 дубля.
Если же переводить (не автоматически) обычный текст хотя бы на 150 знаков, то я сомневаюсь, что дубли могут появиться даже при 100 различных переводчиках.
Намного более полезно обсуждать, как выйти из-под фильтра сайтам с изначально уникальным авторским контентом и как таким сайтам вообще не попадать под этот фильтр или под "Тебя нет":(.