- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Какая поисковику вообще разница - копипаст контент или нет.
Вроде бы копипаст всегда злом считался, или как?
---------- Добавлено 05.05.2012 в 10:50 ----------
Согласитесь, как-то совсем уж глупо создавать проект и думать, что ПС сами разберутся, что им надо индексировать, а что нет.
Тогда получается, что ПС не анализирует то что собирает с сайта, сравните полезность пустой страницы "Восстановить пароль" которая в индексе и описание товара, которого нет в индексе. Откинем, что описание такое же как и у других сайтов, продающих то же самое. Что из этого больше для людей?
Это только один из факторов ранжирования. Есть масса примеров, когда копипаст, прокачанный ссылками ранжируется высоко.
Существует вполне логичное мнение, что необходимость в уникальности для поисковиков - это миф. Потребность в уникальности изначально возникла, чтобы не было проблем с авторскими правами. Лично я это мнение разделяю.
Тогда получается, что ПС не анализирует то что собирает с сайта, сравните полезность пустой страницы "Восстановить пароль" которая в индексе и описание товара, которого нет в индексе. Откинем, что описание такое же как и у других сайтов, продающих то же самое. Что из этого больше для людей?
Да причем здесь полезнее или нет?
Нужно просто корректно указать Яндексу, что нужно индексировать, а что нет. Это совсем несложно.
Вам ведь не легче от того, кто виноват в том, что сайт плохо индексируется - вы или Яндекс. По большому счету результат в обоих случаях один. И вам, как владельцу вашего проекта, надо думать, в первую очередь, о том, как исправить эту проблему, а не обсуждать несовершенство "алгоритмов".
Тем более, что вам указали, в каком направлении нужно двигаться.
А чем ПС не нравятся дубли, ведь содержимое страницы одинаково и выбрать на свое усмотрение какую страницу с одинаковым контентом засунуть в поиск ничего не мешает. Может дело в экономии времени на обработку кучи ссылок? Кто знает, поведайте.
Вы задаете очень правильные вопросы ☝ Почему Яндеукс не отсеивает такие страницы шинглами, а предпочитает банить целый сайт, это очень хороший и правильный вопрос.
Ведь дубли страниц как в раз создают не профессионалы сео, обычные веб-мастера, которые даже не понимают, что так делать "нельзя". :)
Ведь дубли страниц как в раз создают не профессионалы сео, обычные веб-мастера, которые даже не понимают, что так делать "нельзя".
Если человек "веб-мастер", то он примерно должен понимать, что можно делать, а чего нельзя.
А если берется делать сайт на коленке, да на бесплатном движке, не изучив хотя бы основные моменты работы с этим движком - то никакой он не веб-мастер.
А говноклепальщик. Чьим сайтам место в бане.
Если человек "веб-мастер", то он примерно должен понимать, что можно делать, а чего нельзя.
А если берется делать сайт на коленке, да на бесплатном движке, не изучив хотя бы основные моменты работы с этим движком - то никакой он не веб-мастер.
А говноклепальщик. Чьим сайтам место в бане.
Вы знаете, а я согласен! Нефиг всякие веб-сайты чужие индексировать. У меня на ДДЛ никаких дублей нет, велком, Яндекс! ☝
Кстати я проанализировал свои действия начиная с момента запуска сайта и заметил следующее. В конце октяря, когда я выставил сайт, он в течении 2 недель проиндексировался яндексом и примерно к середине ноября в индексе было 992 страницы. Они заняли какие-то места в выдаче, тогда я не мониторил их, они повисели там какое-то время, и в конце ноября уже я писал Платонам о том, что в индексе осталось всего 53 страницы. Там был ответ - что наши алго устроены так, чтобы давать наиболее релевантные и уникальные. Получив такой ответ, самый простой путь это в Директ, что я и сделал в поразмыслив немного и в середине декабря заработал директ. Который успешно сосал из меня бабло до середины марта. В марте, когда я начал борьбу с дублями, отключив директ в поиск вернулось 220 страниц, которые также повисели 2 недели и часть их опять выпала. Но при этом часть из них осталась 60-70, я не делал с ними ничего в плане текста, они по прежнему висят в поиске. Так вот к чему это все? К тому, что может это тонкий намек - может еще поЯдиректишь немного? ))))
Многие зачастую забывают, что яндекс это коммерческий проект, а коммерческий проект должен зарабатывать.
Скажу в защиту ТС.
Почему-то многие так и не поняли сути сообщения, а ведь суть тут заключается в том, что Яндекс молодые ИМ (интернет-магазины) не ПУСКАЕТ в индекс. И причина, как мне кажется, здесь проста и банальна.
Существуют интернет-магазины и псевдомагазины. Очень часто, контент для псевдомагазинов по "заточенности" под ПС лучше, нежели реального магазина. И создается такой (псевдо) - гораздо быстрее, тем самым просто захламляя выдачу. Страдают от этого все: пользователи (не могут сразу попасть в настоящий магазин, а попадают на партнерку, MFA, MFS и т.д.; страдают магазины - они вынуждены платить партнерам, которые находятся выше их в выдаче по модельным (или не модельным) запросам; страдают ПС, вынужденные индексировать в разы болше страниц и тратить ресурсы на них; ратсет штат программистов, улучшающие алгоритмы, придумывающий фильтры и подобную шнягу, из-за которой в нередких случаях страдают (пусть эпизодически) вполне нормальный сайты.
Так вот. Какой бы вы придумали способ отсева псевдомагазина от реального? Мне кажется, яндексоидам пришла простая мысль в голову. Коли ты назвался интернет-магазином, то полезай под фильтр, который тупо выжидает время (по моим наблюдениям полгода ступор). Благодаря этому фильтру страницы попадают в инедкс 2-го уровня, очень редко, почти ничего, из 3-го уровня. И это на протяжении, повторюсь, полугода. За это ремя реальный магазин не ывдержит и пойдет в яндекс-маркет. Ну а там магазины реально проверяют, знаю, имел опыт работы. Даже реальные магазины из-за своих енчестных уловок вылетают оттуда навсегда без права восстановления (может уже изменили, может восстанавливают).
После такого срока проверки, начнется индексация контента 3-го уровня (как правило это карточки товаров) и глубже.
Старые магазины (псевдо и реальные) - они приняты в качестве проверенных из-за возраста, однако, это не защищает их от внезапной, внеплановой проверки или же проверки по плану. то есть, старый магазин, который нормально индексировался, но заброшен и не торгует уже товарами, рано или поздно начнет уходить вплоть до АГС или бана.
И заметьте, здесь никаких космических трехсотмегабайтных формул ранжирования нет. Тупо и просто. Ну а плюсы - коммерческая выгода Яндекса.
Подводя итог, замечу, что если хочешь нормалной индексации (не топов) магазина, нужно избегать характерного семантического ядра интернет магазина (купить, интернет-магазин, корзина и т.д.). то есть, если изначально создавать псевдомагазхин под партнерку, к примеру, то лучше всего семантику выбрать другую. Само наличие на сайте карточки товара - не говорит о тм, что это магазин. Это может быть сервис собирающий отзывы (вполне СДЛ), рейтиги товаров, обзоры, тесты...
Кроме того, если есть прекрасно индексирующийся сайт, даже с посещалкой, без фильтров, пусть даже с сапоссылками - будет долго висеть в индексе яндекса и получать трафф. но, если выложить поределенное число карточек товаров и назваться интернет-магазином - то сразу этот фильтр. Вопрос только в том насколько изменяются перовначальыне тематики и насколько осуществлен приросто страниц. Если тематики не исказились, прирост мизерный и слова ИНТЕРНЕТ-МАГАЗИН, КОРЗИНА, КУПИТЬ - не преобладают на всем сайте (пр условии, что их изначально не было или было мало) - то все будет пучком, фильтра не будет, если же тематики изменились (скажем, ыбл сайт о стиральных машинах 1000 страниц, а добавли раздел с ХОЛОДИЛЬНИКАМИ в размере 2000 страниц и слова маркеры, присущие в ИМ стали преобладать - то сразу фильтр. Причем, все страницы, которые раньше были в индексе могут не участвовать в поиске, хотя XML яшкин будет их показывать в общей куче, а в индексе будет как раз те преславутые страницы 2-го уровня, не несущие никакой толком пользы и слабо ранжирующиеся.
Сему мораль - такие фильтры никому пользы не приносят. Не полный индекс (есть страницы у тебя, кна которых может ерально важная информация находиться, очень субНЧ, но они не в индексе и ползователь на них не попадет). Малый бизнес поставлен в такие рамки, что ему придется (почему - не понятно) платить маркету за рекламу, хотя цена, возможно, будет очень интересной для покупателя. А чтобы развиться начинающему магазину, ему придется:
а) потратиться на создание магазина (заказать, нанять программера - не важно, в люом случае это недешево)
б) башлять маркету полгода за рекламу, причем, реклама должна быть с пореденным CTR, иначе твоары снимутся с публикации
в) за время рекламы выдержать проверку ассессоров маркета (а она не прекращается, все время ведется, да и способы подстать налоговикам, вплоть до реальной сделки)
г) "развивать сайт" - как еркоменует яндекс, то есть оплачивать работу копирайтеров, терпеть воровство своего контента или же каждую статейку, описание или что-там еще полезное - закидывать в соответствующий раздел вебмастера, для закрепления авторства.
Вообщем, накладынх расходов будет столько, что не получится по такой схеме малому бизнесу сделать свой магазин на приемлемых условиях.
выход может быть только один - наплодить несколько магазинов, один, возможно, будет в обход фильтров, но не одинаковых, а отличающихся по структуре, урлам, текстам, приницпам - в обшщем. макимально отличающимся. ВОзможна и такая ситуация, что на одних магазинах будет одна часть приносить желаемый эффект, на других - другая. ОДнако, это нецивилизованный подход, а адптация к текущем правилам, которые диктует яндекс (с большой буквы специально не пишу).
Ну а защитникам яндекса скажу, в принципах, изложенных яндексом, о качетсвенности сата есть пу нкт, под который попадает 90% сайтов (на вскидку, может и больше, скажем, 99%). А именно:
Я могу сразу сказать - нет, не создавал бы. По визиткам зайдет 10 человек в месяц (в случае малого бизнеса, когда все начинаю). Маржи с продаж не хватит покрыть даже расходы. Да и поставновка вопроса дурацкая. можно продолжить: создавали вы бы сайт, есил бы небыло компьютеров. интернета. клавиатуры и мышки?
На счет качественных страниц - посмотрите что в индексе яндекса и в каком кол-ве самый главный ГС - одноклассники. Меня это просто возмущает. Никакого ПОЛЕЗНОГО контента. Это СДЛ? я бы поспорил. Это СДБ (сайт для бездельников).
Да и примеров таких можно привести не единицы.
Кроме того, у меня лично есть сайты, которые сгенерированы за 15 минут, принсящие трафф и нехило, очень нехило сидящие по ВЧ запросам. Выше была только википедия. Более тог, скажу, никакого уникального контента там не было. Траста - нет, ссылочного - нет. Пользы - нет. Сейчас ситуация немного изменилась, не топ 2-3, а топ 10 - но факт остается. говносайтище в топ 10 и сидит там ГОДАМИ.
Не сношу их только потому, чтобы посмотреть когда же все-таки накроет их яндекс. Правда, гугль тоже не сильно их относит к ГС, тоже и траф дает и ранжирует как-то не смым худшим образом.
Так что, алгоритмы ПС в реальности больше похожи на простые эмпирические форумлы, подобранные вручную или программным спообом (не важно), которые более-менее адекватно работают только в определенных условиях.
dlyanachalas, если у долбомикстера 99% сайта - дубли, то фигли над ним парится яндексу?
---------- Добавлено 05.05.2012 в 11:35 ----------
Маржи с продаж не хватит покрыть даже расходы.
До и после - галимый флуд многабукф. Соль - я выделил.
3 года на выход на самоокупаемость - не хотишь?
Нет - не лез в бизнес.
Согласен, о пол мифических года - нифзачет.
Так что, алгоритмы ПС в реальности больше похожи на простые эмпирические форумлы
- Применяемые к молодым ИМ, при этом основной целью ставится заработать на них, если ИМ развалится в течении года значит туда ему и дорога, если выживет, значит получит не плохие результаты в ранжировании и ему будет дано клеймо "ТЕБЕ ЖИТЬ"
Это и правильно, если ты не способен удовлетворить пользователей ПС - зачем ты нужен. Но чтобы понять это, нужно время, полгода, год. Это очевидно, что создавая ИМ я ставлю перед собой цель заработать, так почему бы не заработать всем? В том числе и Яндексу, когда есть такая возможность, при этом решение остается за ним. Мой ИМ находится в его руках !!!! И он в праве решать буду я зарабатывать или мы будем зарабатывать вместе.