- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
может просто у яндекса нету денег на новые сервера
Правильно! :) Давайте скинемся.
Есть сайт
несколько посетителей в день
иногда по 2-3 новости в неделю
Это сайт? :)
Но разве это повод что бы оставить одну "морду" в индексе ...
Нет конечно. Это повод выкинуть эту морду.
Чуть ошибочно. Но рядом
Но добавь:
не уник диз
перебор рекламы
халявный двиг без оптимизиации
Что, опять?! :D
Помнится я про негативное влияние ВП спрашивал - вы "не заметили".
А рекламы перебор - это javascriptовой, ага? :D И все на автомате? :p
Про диз - вобще молчу.
не уник контент
Вот тут - согласен.
Как говорил Яндекс, что на 100% попавших под АГС-17 сайтов только 5% это СДЛ...
Он так не говорил, вообще-то. Это его так все почему-то интерпретируют...
И вообще, пора бы уже определиться, что местная публика подразумевает под СДЛ. Меня терзают смутные сомнения, что сия аббревиатура означает в глазах многих завсегдатаев этого топика не что иное, как всего лишь наличие уникального (с точки зрения популярных сервисов проверки на уникальность) контента. И ничего более.
Володя, хорош воду в ступе толочь. Всё относительно. Можно продать 500 ссылок на приличные сайты, а можно поставить 50 на порно, дорвеи и пр.
Так-же и входящие: 1000 от прогона хрумером или 3-5 с яки, майла, дмоза и вики.
И вообще, речь идёт о наиболее значимых факторах вылета, а не перемешивание всё в одну кучу.
ТЫ прав. Проблема в том, что ветку превратили во флудильню Одно и тоже - одно и тоже. Жевать тему - лень. Обозначили - пусть думают и читают все заново.
datot добавил 14.10.2009 в 12:46
Не какой нахрен фильтр (не какая программа) не может объективно определять кем сделан сайт (контент) и тем более для кого он сделан!!!.
Я давал уже ссылку на документ Садовского, где на 7 страницах расписан алгорим и программа определяющая "сравнительный анализ методов определения нечетких дублей для Web документов"
Так что, не обольщайтесь тем, что яша не определяет неуникальность контента и наличие дублей.
datot добавил 14.10.2009 в 12:47
Что, опять?! :D
Помнится я про негативное влияние ВП спрашивал - вы "не заметили".
А рекламы перебор - это javascriptовой, ага? :D И все на автомате? :p
Про диз - вобще молчу..
Честно, уже лень доказывать. Оставайтесь при своем мнение. Только когда и у Вас посыпятся сайты - не ищите проблему в донорах.
Честно, уже лень доказывать. Оставайтесь при своем мнение. Только когда и у Вас посыпятся сайты - не ищите проблему в донорах.
Да вы еще ни разу это и не доказывали ;)
Из сайтов "посыпался" 1, было дело... Только это даже меньше 1% ;)
И "проблема в донорах" - это как? Страницы могут выпасть из-за доноров, которые на них ссылаются?!
Причины (совокупность!) вобщем-то ИМХО такие:
- дубли контента в пределах одного сайта (версии для печати, анонсы, огромные меню...)
- наличие значительного количества неуникального контента на сайте
- значительное количество разных исходящих ссылок на сайте (пофиг, продажные или нет). Возможно, до определенного порога - соотношение входящие на сайт(страницу) к исходящим.
- возможно, еще оценка "человечности" текстов - достаточно быстро отсеять те страницы, где морфология даже в гостях не была (скажем, % несогласованных пар слов выше 10 - а это процентов 90 "современных синонимайзеров"). Ну, а семантику через н-граммы фильтровать...
- отсутствие внешних ссылок на страницы (логично, вобщем-то, что если страница интересная, то ее не только через ПС должны посещать)
Насчет влияния обновляемости сайта, ИПшек, WHOIS :p - возможно, как дополнительные мелкие факторы и учитывается...
Из сайтов "посыпался" 1, было дело... Только это даже меньше 1% ;)...
У кого-то наш с Вами 1 % - это все 50%:)
И у меня два сайта на WP отвалились. Контент уник, диз уник.
Не запутывайте читателя. МЫ с Вами понимаем, что такое "проблема донора"
- дубли контента в пределах одного сайта (версии для печати, анонсы, огромные меню...)
- наличие значительного количества неуникального контента на сайте
- значительное количество разных исходящих ссылок на сайте (пофиг, продажные или нет). Возможно, до определенного порога - соотношение входящие на сайт(страницу) к исходящим.
- возможно, еще оценка "человечности" текстов - достаточно быстро отсеять те страницы, где морфология даже в гостях не была (скажем, % несогласованных пар слов выше 10 - а это процентов 90 "современных синонимайзеров"). Ну, а семантику через н-граммы фильтровать...
- отсутствие внешних ссылок на страницы (логично, вобщем-то, что если страница интересная, то ее не только через ПС должны посещать)...
Об этом и твердим.
Ни фига не учитываются эти факторы. Еслитолько на один IP не повесить 100 сайтов одно фирмочки.
Есть сайт, видео тематика приблизительно 150 страниц, все статьи писались живыми людьми (даже не рерайт) конечно не супер сайт, в среднем несколько посетителей в день (4-5) иногда по 2-3 новости в неделю, иногда и одна на две недели.
ну если сайт хороший такой, так засветили бы в топике, а то написать-то много чего можно.
ну если сайт хороший такой, так засветили бы в топике, а то написать-то много чего можно.
Ага :)
Потому как 90% вылетевших - "СДЛ" по версии владельца :)
Как может машина знать какая задумка была у автора сайта ?
Конечно машина никак не может знать какая задумка была у автора сайта... Но она худо-бедно может оценить, что получилось в итоге:)
Есть сайт, видео тематика приблизительно 150 страниц, все статьи писались живыми людьми (даже не рерайт) конечно не супер сайт, в среднем несколько посетителей в день (4-5) иногда по 2-3 новости в неделю, иногда и одна на две недели.
ну если сайт хороший такой, так засветили бы в топике, а то написать-то много чего можно.
Баст, а ты то чего тупишь? Разве не очевидно, что все тексты с засвеченного здесь сайта моментом будут растащены на всякого рода ГС.
Поражает логика многих. Вылетел СДЛ - значит в качестве доказательства СДЛьности кидай урл... Дык при таком раскладе он вообще в индекс никогда не вернётся.