- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Да. В среднем они держутся около двух-трех месяцев, после чего их поодиночке отлавливают и банят
Это работает до поры до времени пока поисковики не придумали нормальный механизм борьбы с редиректами.
Для нее ты делаешь 20 страничек дорвейных. И?
Или на каждые 20-ть придумывать свой контент? Это ж вся жизнь на это уйдет
Про это же уже шла речь. Необязательно делать отдельную страницу под каждый запрос. Одна страница, наполненная хорошим контентом, может охватывать множество низкочастотных запросов.
Все определяется соотношением затрат и полученной прибыли.
Безусловно. Если это работает, то имеет право на жизнь, однако не думаю, что солидные сайты захотят раскручиваться таким способом. А какой метод раскрутки наиболее эффективен можно проверить только на практике.
Это работает до поры до времени пока поисковики не придумали нормальный механизм борьбы с редиректами.
Я сомневаюсь, что в этом направлении вобще в ближайшем будующем будет
что-либо сделано.
Даже на JavaScript можно такого написать, что браузер голову сломает (не то, что робот. :))
Единственный доступный (по ресурсам) способ - фильтровать в момент появления страницы в базе SE. Но никто не мешает ее сначала сделать нормальной, а потом включить редирект.
Безусловно. Если это работает, то имеет право на жизнь, однако не думаю, что солидные сайты захотят раскручиваться таким способом. А какой метод раскрутки наиболее эффективен можно проверить только на практике.
Если ты оптимизатор и работешь в одиночку, то ты можешь себе позволить руками делать всю работу и тратить на одного клиента по месяцу. Поднимать виц, заморачиваться с сылочным ранжированием, делать тонко-настроенные дорвеи под каждую поисковую систему и т.д.
Если же ты работаешь на потоке, то тебе нужно тратить на клиента минимум времени.
По-поводу солидности: для клиента опять-же нет разницы, как ты будешь "раскручивать" его ресурс. Большинство из них вообще не знают про дорвеи ничего. Так что предубеждений нет.
Ну а если человек сам разбирается в технологиях, то и помощь твоя ему нужна только в плане консультанта. :)
Скорее проблема стоит как минимум времени при максимуме результата. Основополагающим фактором является всё же результат, а не время.
Не скажи. Многие очень даже интересуются.
Вообще эта проблема выбора между ручными и автоматическими дорвеями актуальна только тогда, когда мы имеем дело с очень большим колличеством запросов. Это бывает нечасто. Обычно клиентов интересует небольшое кол-во целевых запросов и поставленная проблема отпадает сама собой.
Скорее проблема стоит как минимум времени при максимуме результата. Основополагающим фактором является всё же результат, а не время.
С этим высказыванием трудно не согласиться :)
Не скажи. Многие очень даже интересуются.
А некоторые даже договор просят составить :)
Клиент, разумеется, получает то, что он хочет.
Информация о методах нашей работы от него не утаивается и мы заранее его преупреждаем о возможных последствиях.
Вообще эта проблема выбора между ручными и автоматическими дорвеями актуальна только тогда, когда мы имеем дело с очень большим колличеством запросов. Это бывает нечасто. Обычно клиентов интересует небольшое кол-во целевых запросов и поставленная проблема отпадает сама собой.
Согласен. Тему можно закрыть :)
-насколько я понял, речь шла о дорвее с title+h1, без текста.
Для нее ты делаешь 20 страничек дорвейных. И?
Или на каждые 20-ть придумывать свой контент? Это ж вся жизнь на это уйдет
-контент, это уж как душа лежит, а вывесить табличку с ценой на каждый дорвей - почему не вывесить, а? Оформить нормально, загнать генеренный текст пониже - и никакой редирект не нужен. А если еще автоматически нормальный контент туда класть...
-насколько я понял, речь шла о дорвее с title+h1, без текста.
О нет :)
Там и текст, и <b><i><alt><H1 - H3> и META различные, и ссылки с ключевыми словами на другие дорвеи на этом же сайте и т.п.
title+H1 я написал для простоты. Чтобы ясно было выделяются как-то ключевые слова в тексте или нет.
А что мешало в этом случае, использовать дорвей одного сайта, как клоакинг другого, лист c IP на соседнем форуме, т.е. не показывать страницу посетителям, а редиректить их сразу на нужный сайт, допустим у Вас заказали 50 посетителей одной тематики на сайт A, 30 той же тематики на B, 70 другой на С,... Вы их заказ оформляете забиваете в базу, ..., а можно и им самим разрешить, и даже попросить указать выражения, все равно ведь из поисковика народ придет...,
Далее еще и IP можно проверить что бы повторного посетителя на другой сайт не послать, ведь он к Вам по тому же запросу пришел, а можно и наоборот послать, дело вкуса, ...
При этом никакой явы, и флеша, и можно даже отказаться от ссылок внутри сайта, при наличии грамотно сделанной карты. Автоматически такая штука не забанится, а настучать могут всегда...
А что мешало в этом случае, использовать дорвей одного сайта, как клоакинг другого, лист c IP на соседнем форуме, т.е. не показывать страницу посетителям, а редиректить их сразу на нужный сайт, допустим у Вас заказали 50 посетителей одной тематики на сайт A, 30 той же тематики на B, 70 другой на С,... Вы их заказ оформляете забиваете в базу, ..., а можно и им самим разрешить, и даже попросить указать выражения, все равно ведь из поисковика народ придет...,
Далее еще и IP можно проверить что бы повторного посетителя на другой сайт не послать, ведь он к Вам по тому же запросу пришел, а можно и наоборот послать, дело вкуса, ...
При этом никакой явы, и флеша, и можно даже отказаться от ссылок внутри сайта, при наличии грамотно сделанной карты. Автоматически такая штука не забанится, а настучать могут всегда...
Мне очень стыдно, но я вообще ничего не понял :(
О чем здесь речь? Можно подробнее?
Я писала о редиректе на стороне сервера, исполненого на ASP, PHP, ...
по условию поиска слова указанного в запросе, будем считать что человек, руками не может набрать адрес страницы, по той причине что он ее никогда не видел, она видна только роботам, и имеет совсем не очевидный адрес, допустим {MS GUID}.asp далее полученное слово из запроса ищем в своей базе, где каждой учетной записи, соответствует набор параметров к примеру: пользователь(ключ) - его сайт - список слов - URL - нужное число посетителей...
и следующая таблица: ID посетителя (ключ) -IP посетителя - куда пошел ... которую можно чистить автоматически раз в месяц или год.
далее если мы находим что какой либо клиент, оставлял заявку с набором этих поисковых слов, перенаправляем пользователя на его сайт прямо с сервера не используя для этого никаких гиперссылок. Если нет почему бы не показать страницу дорвея?, ссылок куда-либо еще, он там все равно не найдет, а информация может оказаться как раз нужной? И именно это условие не помешает проиндексировать сайт, робот зайдя с карты сайта ничего не "заказывал", и следовательно его никто не пошлет... второе не требует тонкой настройки, т.е. туда можно валить все, и сколько нужно.
Насколько я понимаю, Вы (Annabelle) предлагаете собирать разных клиентов на одном сайте с дорвеями, закрытых клоакингом, а затем в зависимости от запроса серверно редиректить их куда нужно. Правильно?
Если хоть одного клиента забанят, то траф со всех остальных тоже прекратится. Зачем все яйца нести в одной корзине?
Зачем это писать в своей базе. Может просто куки поставить на пару месяцев?