- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Причем здесь позиции....
Я задал такой вопрос, вот я создал запись на ВП + метки, будет ли эти метки восприняты Яндексом за дубли, и проиндексируются они?
Метки за дубли восприняты не будут, конечно если вы не сделаете метку, аналогичную записи.
интересно, а зачем Яша сам плодит дубли?
например у меня на сайте 3 морды
от 11.03.2009
от 02.03.2009
и то 11.02.2009
:)
интересно, а зачем Яша сам плодит дубли?
например у меня на сайте 3 морды
от 11.03.2009
от 02.03.2009
и то 11.02.2009
:)
Видимо набор дублей в инете мал для экспериментов Я. Так интересней определять первоисточник. :)
есть у меня на 3 сайтах несколько повторяющихся страничек, за последнее время и правда количество проиндексированных страничек у всех 3 сайтов уменьшилось.
Интересно фильтрует.
до 1004 страниц
после 32.
Нормальную проверку на дубли всеровно у них не получиться организовать, естественно там не глупые люди сидят, но боты не смогут узнать кому изначально принадлежит та или иная статья. Посмотрим во что всё это выльеться.
Судя по постам уж больно много сайтов с уникальным контентом поулетало из индекса.
Может яндексоидам поменять этот свой новый алгоритм, так сказать делать от обратного - удалять уников, а дубли оставлять. Глядишь и получится задуманное 🚬
Нормальную проверку на дубли всеровно у них не получиться организовать, естественно там не глупые люди сидят, но боты не смогут узнать кому изначально принадлежит та или иная статья. Посмотрим во что всё это выльеться.
да можно по идее, только это всё надо организовать... и надо брать какую-то отправную точку...
пусть сегодня, взять тексты сравнить их до "какой-то степени однинаковости" т.е. определить один и тотже это текст или новый... если клоны, то выбрать из них родоначальник, пусть хоть на основании даты создания или изменения файла, а потом пополнять базу "оригинальных текстов"
конечно, камни в меня полетят, т.к. не однозначное это определение, но ведь с чего-то же надо начинать и тут без погрешности никак не обойдёшся...
так получилось что вчера выложил один ГС (всего 6 страниц) 100% копипаст (текст дал заказчик)
вот и посмотрим кого Яша оставит в выдаче сейчас по точному вхождению находится от 2 до 5 сайтов, в доп результатах еще что-то около 50-200 сайтов
P.S. что-то мне подсказывает что автором буду я 😂
я оказался прав 😂
фильтр "ты последний" - фильтр для лохов :)
P.S. наверно пора начинать платные консультации .... ну скажем 5000 руб за рецепт это не дорого 🚬
После сегодняшнего апа опять вылетел сайт с полностью уникальным контентом (такое уже было в конце декабря). У Яндекса явно очень плохо с определением первоисточников :(
P.S. наверно пора начинать платные консультации .... ну скажем 5000 руб за рецепт это не дорого
Бесплатная консультация за отзыв будет? :D