- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
у меня всё на месте ) Или до меня не дошло или пронесло :)
Просто не дошло ещё) Или всё у вас гуд)
Если бы яндекс всерьез взялся за дубли, то уменьшилось бы на 50% количество страниц, а не на 3 как сейчас.
Вообще что такое 3%??? Избавились от откровенного Г..на. всем на пользу только
Не всё сразу.. и до них очередь дойдет..
Мда... Сайты с неуникальным контентом повылетали и думаю ещё будут вылетать из индекса. :( С одной стороны хорошо, что Яндекс станет чище, с другой стороны могут и по ошибке забанить и СДЛ, с уникальным контентом, если такой контент уже будет повторяться на других сайтах, а Яндекс не сможет правильно определить где первичный контент , а где скопированный. Уже такие случаи есть, 5 марта выпало немало сайтов с уникальным контентом.
у меня всё на месте ) Или до меня не дошло или пронесло :)
Или все СДЛ:)
Или внатури рерайт не плохой :) Даже miratools не чего не палит )))
думаю добавил 08.03.2009 в 19:45
Neo79, да + 1 :) miratools то же самое грит )
Уже такие случаи есть, 5 марта выпало немало сайтов с уникальным контентом.
Тогда к Платону пишете, вернет
Ну думаю Яндексы не пропустят алгоритм для определения первоисточника.. Что-нибудт да придумают
Не так давно написал в суппорт по поводу воровства контента и верного определения первоисточника, получил такой ответ:
Мы сейчас работаем над алгоритмами, которые будут способны отличать текст
источника от плагиата.
Пожалуйста, приведите примеры сайтов с подобными проблемами, мы обязательно
разберемся. Кроме того, Ваши примеры будут переданы специалистам для работы
над алгоритмами.
Не так давно написал в суппорт по поводу воровства контента и верного определения первоисточника, получил такой ответ:
А источники посылали свои?
Интересно, что же всё таки из этого выйдет :)
-= Serafim =-, по моеому ответ такой давненько уже, и дела не двигаються, даже новостей по этому поводу нет, да что там новостей, даже упоминаний об этом... Собственно что Райцин ( MiRaj ) и говорит... Собственно для чего свой сервис и решил в паблик пустить....
Насчёт алгоритма определния дублей:
Яндекс делает поиск для обычных пользователей, а не для оптимизаторов, а обычному пользователю пофиг - кто у кого конент своровал). Так что я думаю конечно какая то система определения первоисточника есть, но он так, для "приличия"
Чувствовалось что Яша что-то готовит....новые запросы стали продвигаться долго...новые странички индексироваться медленней.
При тесте новшества полетят головы....и нормальных сайтов.
Есть сайты, которые создают люди с небольшим опытом..но они очень интересные и не несут назначения г...сателлита.
Кривые просто, вот они могут и пострадать..
А вообще...меры должны были приниматься, такой размах сейчас...что робот просто не справляется...и страдают полезные для юзера сайты.