- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
ну, это никогда не поздно. когда п/с не умеет определять дубли контента или его первоисточник и при этом из техподдержки приходит очередное, что мол развивайте и будет щастье
а можно поинтересоваться что вам из поддержки гугла приходит?
гуглевский алгоритм определения, который работает даже при разделении по странам. а уж подробности, думаю, сами экспериментально установите.
т.е. вы подробностей не знаете, но, тем не менее, задаете императив "гуглофильства"? .. Здесь, знаете, не хабрахабр, а профессиональный форум о поисковых системах :). Так что давайте примеры. Гугл рулез, Яндекс сакс - это пока просто слова.
без обид ;)
Так я и спрашиваю, как на практике.
Выше уже ответил. Вот поэтому, как я уже написал в другой ветке "о выпадении лидера" - очень интересно, сколько понадобится времени bdbd - самой крутой оптимизаторской конторе, чтобы выйти из под этого коварного фильтра. Коварного, потому что выход из под него долог и тернист... Может они найдут или знают че-нить более быстрое.
Коварного, потому что выход из под него долог и тернист...
А у Вас сколько времени обычно на вывод из тыпоследнего уходит?
а можно поинтересоваться что вам из поддержки гугла приходит?
а я туда не пишу, необходимости такой нету :).
т.е. вы подробностей не знаете, но, тем не менее, задаете императив "гуглофильства"? .. Здесь, знаете, не хабрахабр, а профессиональный форум о поисковых системах . Так что давайте примеры. Гугл рулез, Яндекс сакс - это пока просто слова.
без обид
ну, в части подробностей я беру пример с devzev - что-то не помню, чтобы он с указкой и по пунктам рассказывал про трастовое окошко или что-то там за явление было страниц на 50 :).
а профессиональный форум о поисковых системах . Так что давайте примеры.
а из зала мне кричат - давай подробности (с) :).
а в чем моя выгода от примеров-то? курсы я не веду, семинары не провожу. если хотите удостовериться в выводах экспериментов - проведите их, не так уж и дорого получится, баксов 500-600 + парсер хороший самописный.
А у Вас сколько времени обычно на вывод из тыпоследнего уходит?
Cколько времени нужно, чтобы переписать весь контент? И потом дождаться пока снимут фильтр? 2-3 месяца в лучшем случае. Вообще "обычно" - не то слово, у меня нет кучи сайтов, попадающих постоянно под фильтр "ты последний".
А что это за контора? И почему они достигают таких высоких результатов при минимальном бюджете?? Сдаётся мне не чисто это всё. Такое ощущение что эти "молодцы" знают назубок алго Яндекса.
Честно говоря SEO-гуру недооценили соперника. А зря. Пример, посмотрите http://allintop.ru - круглый стол "Великих и ужасных" за 24 января. Там очередной вопрос про эту контору, а именно, как они оказались в ТОП 10 по таким убойным запросам, вызывает лишь хохот у собравшихся. Неужели было так смешно??
Смешно. Ибо
Не все измеряется сеопультом и язлом :)
Значит нужно это учитывать и играть по правилам Яндекса, в чём проблема сделайте свой сайт уникальным и обновляйте его каждый день. Пишите о чём угодно, о погоде ... о жизни.. Яндексу ведь всё-равно, он не живой, ему не понять разницы. :)
Ага, а если сайтов 10, а если 100?
проблема есть, периодически возникает. Контент тырится и будет тырится, но пока неясно почему в одних случаях все нормально, в других - понижение, фильтры и т.д.
По своему опыту, скажу, что есть просто определенный порог. Т.е. берется кол-во страниц на которых стоит копипаст и приравнивается к кол-ву уникальных страниц, берется процентное соотношение уник/неуник на странице, выводится формула и расчитывается число, если оно меньше определенного порога - гуляй Вася, отдохни от топа.
Как по мне то отношение уник к неуник должно быть не ниже 80%. Т.е. как минимум 80% должно быть уникального текста и страниц. Я, например, использую один хитренький способ увеличения уник контента - создаю фотогалерею, или что-то похожее, например, каталог товаров. С этих страниц внешних ссылок не ставлю, баннеры там не цепляю, ссылок не продаю. Тырить оттуда особо никто не будет, странички уникальны и чистые в глазах поисковиков.
Оно и понятно, язл это только инструмент. Сеопульт пока не юзаю, жалко 10% бюджета ;)
Но и так видно, что тот
не щи лаптем хлебает, а реальный конкурент. (!!) Я не удивлюсь, если скоро они ТОП10 совсем забьют своими сателлитами под носом у "Великих и ужасных"... :)
Самый хороший способ защиты от этой напасти это ежедневно писать хорошие новости у себя на сайте.
Есть же старый способ по-проще, если нет нового контента на сайте:
Поставить случайный текст, состоящий например из 20-30 вариантов. Предлогом под такой блок могут быть:
1. Вывод случайным образом одного из отзывов клиентов.
2. Вывод краткого описания парочки каких-то статей из архива с ссылками на них
...
и т.д. по смыслу