- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ведь многие и многие методы нынешнего SEO довольно легко вычислить и понизить продвигаемые сайты, но этого не делают.
Вот именно: задача разработчиков поисковика - отсеивать методы, возможности влияния на выдачу, а не понижать конкретные продвигаемые сайты (ну кроме совсем уж одиозных случаев типа невидимого текста или явных дорвеев). И именно эту задачу, с тем или иным успехом, с той или иной степенью изящества или топорности ;) они и реализовывают, что мы и наблюдаем :)
Сейчас прочитал про это странное слово, которое на этом форуме встречается чаще других. И вот что я подумал. Теоретически развитие фильтра должно привести к модернизации алгоритма, как вы считаете? То есть видим, что какая-то страница (сайт) явно искусственно продвигается, так блокируем не только доноров, но и акцептор на влияние любых внешних ссылок. Или не любых, а также, определяемые по каким-то признакам. А может такой механизм уже работает?
Полный бред. Ибо покупкой ссылок продвигаются как неинтересные проекты, так и мега-популярные.
Вот именно: задача разработчиков поисковика - отсеивать методы, возможности влияния на выдачу, а не понижать конкретные продвигаемые сайты
Здрасти! Вот завтра дорвейщик просмпамит 20 тысяч гостевух своей традиционной buy viagra, и мы эти методы отсеим, а сайтик пусть висит на высоких позициях? :)
Полный бред. Ибо покупкой ссылок продвигаются как неинтересные проекты, так и мега-популярные.
Ага, и что это доказывает?
Ага, и что это доказывает?
Это не доказательство, а ответ на ваш вопрос:
И вообще, давайте порассуждаем, с какими фильтрами могут столкнуться сеошники в будущем. Поставим себя на место инженеров ПС. Они ведь явно не дураки. Что, кстати, наводит на странные размышления... ведь многие и многие методы нынешнего SEO довольно легко вычислить и понизить продвигаемые сайты, но этого не делают.
dlyanachalas, в таком случае ответ в стиле "один крокодил полетел на Украину, а вторая синичка в холодильнике".
Здрасти! Вот завтра дорвейщик просмпамит 20 тысяч гостевух своей традиционной buy viagra, и мы эти методы отсеим, а сайтик пусть висит на высоких позициях?
А вот завтра недоброжелатель просмпамит 20 тысяч гостевух ссылками на ваш любимый сайт с анкором buy viagra или каким похлеще, и...?
Согласитесь, самое логичное для поисковика в таком случае (очень упрощаю, конечно) - просто не учесть эти ссылки, или учесть с большим лагом по времени, когда 99% из них будут удалены модераторами, а остальные уйдут в глубокие глубины гостевухи и будут иметь почти нулевой вес.
Вот это-то и будет как раз борьба с попытками влияния на выдачу.
Но никак не наказывать за это ваш белый и пушистый сайт ;)
А по сути, если вдуматься, какие факторы можно учитывать, чтобы понять актуальность ресурса как в настоящем так и в будущем?
1. Ссылки на сайт с других сайтов. (естественные - если владельцы ресурсов ставят их сами, что говорит о некотором естественном интересе к ресурсу. Искуственные - что это знаем и мы и ПС, которые закономерно пытаются убрать это явление)
2. Время нахождения пользователей на сайте, что должно говорить о том же интересе к сайту. Т.е. если человек икал, нашёл и остановился надолго на нашем сайте, можно предположить, что сайт интереснее многих найденных до него.
3. Собственно наполнение сайта (качество и объем контента) + сюда же обновление ресурса, дабы понять, что над ним постоянно работают.
Но последний пункт, на мой взгляд, палка о двух концах. Например если у нас качественный сайт, например, о рецептах блинов, на нём максимальное количество понятных рецептов, то получается, чтобы держать его на первом месте нужно придумывать новые рецепты - блины с огурцами, блины с помидорами. Маразм... Ну собрал владелец сайта максимально возможное количество рецептов блинов, всё, сайт отвечает своим требованиям......
Или торгуем мы конкретным колличеством стройматериалов, например металлочерепица и доборные элементы к ней конкретного производителя. Цена, допустим, вполне конкурентноспособная, количество товара всегда одинаковая. Тут мы начинаем писать различные полезные пользователю статьи о вариантах монтажа и т.д. и т.п. . Вот здесь уже больший вес должны имет например ссылки со строительных форумов, мол "вот, люди, гляньте, нашел я хорошую, понятную статейку о том, как сделать крышу своими руками.
Вот и весь велосипед. Какие ещё варианты?
А поисковики как раз и должны устаканить все эти факторы в результатах выдачи, чем они собственно и занимаются, а пользователи оценивают как это у них получается.
А наша задача - не превратить интернет в помойку.
В мире веками складывались понятия о правильном поведении в обществе. Интернет же явление достаточно молодое, но он есть такой же ареал обитания, как и реальный мир. И правила поведения в нём нужно соблюдать.
А в будущем неизбежно появление законов пользования интернетом с собственной системой наказаний за их нарушения. Вот об этом думать нужно.
dlyanachalas, в таком случае ответ в стиле "один крокодил полетел на Украину, а вторая синичка в холодильнике".
Вам разжевывать что-ли всё надо? Потому и нет такого автоматического "непота", о котором говорил ТС, что много интересных и популярных проектов тоже покупает ссылки. И если они все перестанут находиться в ПС, то это приведёт к оттоку посетителей из ПС.
А ручное отключение входящего ссылочного и так есть, и давно уже.
PozitiFF,
1. Ну нет естественных ссылок в коммерческих тематиках в том количестве, чтобы они влияли на выдачу. Мало кто пишет на своем сайте отзыв о том как круто и недорого он купил кондиционер. Останется ранжировать только то, что занесено в каталоги ведь по идее естественные ссылки на коммерческие ресурсы только там. Или блоги..
2. За, двумя руками.
3. Я бы еще добавил уникальность, или хотя бы псевдо-уникальность, т.е. скопированные откуда то материалы, но со своими пояснениями , коментариями и ссылкой на первоисточник.